Canada roept OpenAI op het matje nadat AI-chatbot maandenlang waarschuwde over gewelddadige plannen
Ottawa, dinsdag, 24 februari 2026.
OpenAI blokkeerde het ChatGPT-account van schutter Jesse Van Rootselaar al in juni 2025 wegens gewelddadige inhoud, maar waarschuwde de Canadese politie niet. Maanden later, op 10 februari 2026, doodde de 18-jarige acht mensen in Tumbler Ridge. OpenAI-medewerkers hadden intern alarm geslagen over haar scenario’s met wapengeweld. Canada eist nu uitleg over waarom het techbedrijf hun meldingsprotocol niet volgde. Minister Solomon noemt de situatie ‘diep verontrustend’ en heeft OpenAI-topmanagers naar Ottawa geroepen voor een spoedvergadering over hun veiligheidsprotocollen.
Interne alarmbellen gingen al maanden af
De waarschuwingssignalen waren er al lang. In juni 2025 markeerde OpenAI het account van Jesse Van Rootselaar als verdacht omdat het werd ‘ingezet voor gewelddadige activiteiten’ [1]. Medewerkers van het bedrijf sloegen intern alarm over haar gesprekken met ChatGPT waarin ze meerdere scenario’s met wapengeweld besprak [1]. Ongeveer een dozijn werknemers debatteerde zelfs of ze actie moesten ondernemen omdat sommigen haar AI-gebruik zagen als ‘een indicatie van potentieel geweld in de echte wereld’ [4]. Maar het bedrijf deed niets. Van Rootselaar bleef haar plannen uitwerken - ze maakte zelfs een virtueel winkelcentrum met wapens in het computerspel Roblox [3]. Op 10 februari 2026 werden die digitale fantasieën dodelijke realiteit toen ze acht mensen doodschoot in het Canadese Tumbler Ridge [2][3][5].
Canada eist antwoorden van techgigant
AI-minister Evan Solomon liet er geen gras over groeien. Op 23 februari riep hij OpenAI-topmanagers naar Ottawa om uitleg te geven [2][4]. ‘Die rapporten waren diep verontrustend, rapporten die zeiden dat OpenAI de politie niet tijdig contacteerde’, aldus Solomon [4]. Het bedrijf beweerde dat Van Rootselaar’s activiteiten hun drempel voor melding aan autoriteiten niet haalden [4]. Pas nadat de identiteit van de schutter bekend werd, nam OpenAI contact op met de Canadese politie [4]. Voor Nederlandse ouders die hun kinderen AI-chatbots zien gebruiken, toont deze zaak hoe techbedrijven mogelijk gevaarlijke signalen kunnen missen. OpenAI heeft inmiddels vertegenwoordigers naar Canada gestuurd om hun ‘algehele benadering van veiligheid’ toe te lichten [4].
Bredere gevolgen voor AI-regulering
Deze zaak opent een veel groter debat over de verantwoordelijkheid van AI-bedrijven. Canada worstelt al vijf jaar met een wet tegen online schade, maar slaagt er niet in de balans te vinden tussen kinderbescherming en vrijheid van meningsuiting [4]. Minister Solomon wilde niet zeggen hoe ver de regering wil gaan met AI-regulering, maar benadrukte: ‘alle opties liggen op tafel om ervoor te zorgen dat Canadezen veilig blijven’ [4]. Voor Nederlandse gebruikers betekent dit dat AI-bedrijven mogelijk strenger gaan controleren wat er wordt besproken. OpenAI werd vorig jaar al aangeklaagd door ouders van een 16-jarige Amerikaanse jongen die zelfmoord pleegde na gesprekken met een chatbot [1]. Deze Canadese zaak kan de doorslag geven voor wereldwijde regelgeving die techbedrijven verplicht verdachte activiteiten te melden.