OpenAI waarschuwt dat zijn eigen AI-modellen binnenkort hackers kunnen overtreffen
San Francisco, donderdag, 11 december 2025.
OpenAI gooit woensdag 11 december 2024 een bom in de cyberveiligheidswereld. Het bedrijf waarschuwt dat komende AI-versies een ‘hoog’ risico vormen voor cyberbeveiliging. De modellen kunnen zero-day exploits ontwikkelen tegen goed verdedigde systemen of assisteren bij complexe industriële inbraken.
Van 27% naar 76%: de explosieve groei van AI-hackcapaciteiten
De cijfers liegen er niet om. GPT-5 scoorde in augustus nog 27% op een capture-the-flag cyberveiligheidsoefening [1]. Vorige maand haalde GPT-5.1-Codex-Max al 76% [1]. Dat is een sprong die cybersecurityexperts doet rillen. OpenAI verwacht dat aankomende modellen dit traject voortzetten [1]. Het San Francisco-gebaseerde bedrijf, gesteund door Microsoft [2], plant daarom alsof elk nieuw model het ‘hoge’ risiconiveau kan bereiken volgens hun eigen veiligheidsraamwerk [1]. ‘Hoog’ is het op één na hoogste niveau - net onder ‘kritiek’, waarbij modellen te gevaarlijk zijn voor publieke release [1].
Brute force aanvallen door AI die uren doorwerken
Het echte probleem zit in de uithouding van deze AI-systemen. ‘De dwingende factor is het vermogen van het model om langere tijd te werken’, vertelt OpenAI’s Fouad Matin aan Axios [1]. Deze brute force aanvallen vertrouwen op uitgebreide tijd - iets waar traditionele hackers mee worstelen [1]. Gelukkig zijn dit soort aanvallen makkelijker te verdedigen, benadrukt Matin: ‘In elke verdedigde omgeving zou dit vrij gemakkelijk worden opgevangen’ [1]. OpenAI waarschuwt dat de modellen werkende zero-day exploits tegen goed verdedigde systemen kunnen ontwikkelen of assisteren bij complexe bedrijfs- of industriële inbraken [2][3][4].
OpenAI slaat terug met defensieve maatregelen
OpenAI neemt het risico serieus. Het bedrijf investeert in het versterken van modellen voor defensieve cybersecuritytaken en creëert tools waarmee verdedigers gemakkelijker code kunnen controleren en kwetsbaarheden dichten [2][3]. Een nieuwe adviesgroep, de Frontier Risk Council, brengt ervaren cyberverdedigers in nauwe samenwerking met OpenAI’s teams [2][3]. Het bedrijf test privé ook Aardvark, een tool waarmee ontwikkelaars beveiligingslekken in hun producten kunnen vinden [1]. Ontwikkelaars moeten zich aanmelden voor toegang tot Aardvark, dat al kritieke kwetsbaarheden heeft gevonden [1]. OpenAI vertrouwt op toegangscontroles, infrastructuurversterking en monitoring om cybersecurityrisico’s tegen te gaan [2][3].