De privacywaakhond slaat alarm: Nederland verliest de controle over kunstmatige intelligentie

De privacywaakhond slaat alarm: Nederland verliest de controle over kunstmatige intelligentie

2026-03-05 binnenland

Den Haag, donderdag, 5 maart 2026.
De Autoriteit Persoonsgegevens waarschuwt dat vier van de negen AI-risico’s nu op rood staan. Bedrijven ontwijken bewust strengere regels door hun AI-systemen te registreren als gewone algoritmes. Jongeren raken verslaafd aan AI-chatbots die ze gebruiken als vrienden. Deepfakes en AI-fraude nemen oncontroleerbaar toe terwijl beveiligingsmaatregelen achterblijven. Het kabinet moet nu handelen om een nieuw toeslagenschandaal te voorkomen, stelt AP-voorzitter Aleid Wolfsen. Zonder snelle actie dreigen discriminatie en psychische schade door ongecontroleerde AI-systemen in zorg en opsporing.

Vier van negen AI-risico’s kleuren rood op barometer

De Autoriteit Persoonsgegevens heeft een ‘barometer’ ontwikkeld met negen onderdelen om AI-risico’s te monitoren [1][2]. Een halfjaar geleden stonden twee signalen op rood: onvoldoende registratie van algoritmes en AI-systemen en geen goed zicht op incidenten [1][2]. Die problemen zijn nog steeds niet opgelost, en nu zijn ook twee andere lichten op rood gesprongen [1][2]. De ‘kaders en bevoegdheden’ voor toezicht zijn nog niet goed geregeld en er zijn geen duidelijke standaarden voor AI-systemen [1][2]. Joost van der Burgt, die voor de AP het toezicht op kunstmatige intelligentie leidt, waarschuwt dat organisaties bewust hun AI-systemen registreren als gewone algoritmes om onder strengere regels uit te komen [1]. ‘AI-systemen met hoog risico worden onder meer gebruikt in de zorg en bij het opsporen van misdrijven. Vanaf volgend jaar krijgen die een hele lijst vereisten over technische documentatie, risicomanagement en vooroordelen. Misschien is het onbedoeld, misschien willen ze geen slapende honden wakker maken’, aldus Van der Burgt [1].

Jongeren extra kwetsbaar voor AI-verslaving en psychische schade

De AP waarschuwt dat jongeren niet goed genoeg worden beschermd tegen AI-risico’s [1][2]. Ze gebruiken AI niet alleen voor hun huiswerk, maar ook als een soort vriend om mee te chatten [1][2]. Daardoor kunnen ze verslaafd raken en zijn ze niet goed in staat om de risico’s in te schatten [1][2]. Als grootste gevaren benoemt de autoriteit ‘de oncontroleerbare toename van deepfakes, AI-gestuurde fraude en psychische schade door chatbots’ [1][2]. Ook waarschuwt de AP dat ‘AI-beveiligingsmaatregelen steeds meer achterblijven bij de technologische ontwikkelingen’ [1][2]. Dit betekent concreet dat jouw kind misschien nu al aan een AI-chatbot vertelt over persoonlijke problemen, terwijl niemand controleert of die chatbot veilig is of wat er met die informatie gebeurt.

Kabinet moet nu handelen om nieuw schandaal te voorkomen

AP-voorzitter Aleid Wolfsen wijst op het toeslagenschandaal als waarschuwing voor wat er kan gebeuren zonder goede AI-regels [1][2]. ‘Vijf jaar na het toeslagenschandaal zijn de lessen duidelijk, maar de opvolging blijft achter. Dat komt vooral doordat stevige regels voor algoritmes en AI en handhaving hiervan ontbreken’, stelt Wolfsen [1]. De AP roept het nieuwe kabinet op om snel duidelijkheid te geven over de regels voor kunstmatige intelligentie [1][2][3]. Want momenteel kan volgens de privacywaakhond niets worden gedaan tegen onveilige en discriminerende algoritmes [1][2]. De situatie is zo urgent dat de AP waarschuwt: wie een nieuw schandaal wil voorkomen, moet nú handelen [4]. Het Nederlandse kabinet moet werk maken van de implementatie van de AI-verordening, inclusief het vaststellen van uitvoeringswetten en het aanwijzen van toezichthouders [4].

Bronnen


kunstmatige intelligentie privacywetgeving