Fontys-professor ontwikkelt stiekem tool die studentdata naar ChatGPT stuurt
Eindhoven, dinsdag, 3 februari 2026.
Een ICT-professor van Fontys Eindhoven moedigde collega’s aan om studentgegevens te uploaden naar zijn ‘lokale AI-tool’, maar de data ging rechtstreeks naar OpenAI’s servers. De docent noemde zijn tool lokaal op LinkedIn, terwijl deze in werkelijkheid studentportfolio’s naar het Amerikaanse bedrijf stuurde. Privacy-experts noemen dit een flagrante overtreding van de AVG. Fontys beweert dat alleen testdata zonder echte studentgegevens werd gebruikt, maar het incident toont opnieuw hoe gevaarlijk ongecontroleerd AI-gebruik in het onderwijs kan zijn.
Professor erkent privacy-probleem na kritiek
De ICT-docent van Fontys Hogeschool postte op 19 januari 2026 een bericht op LinkedIn waarin hij zijn ‘lokale AI-tool’ aanprees [1]. Hij riep collega’s op om studentenportfolio’s te uploaden voor analyse [2]. Maar de tool draaide helemaal niet lokaal - alle data ging naar OpenAI’s servers [1][2]. De professor erkende later zelf op een website: ‘De tool werkt nu met OpenAI. Dit is een probleem voor de privacy’ [2]. Professor Johan Jeuring van de Universiteit Utrecht en hoofd van het Nationaal Onderwijslab AI was er duidelijk over: ‘Voor deze toepassing OpenAI gebruiken mag gewoon niet volgens de wet, de AVG verbiedt dit. Je kunt OpenAI simpelweg niet vertrouwen’ [1][2].
Fontys verdedigt docent ondanks overtreding
Fontys beweert dat alleen testportfolio’s zonder echte studentgegevens werden geüpload [1]. De hogeschool stelt dat experimenteren met AI binnen de instelling normaal is, maar dat uploaden van studentgegevens naar OpenAI verboden is [1][2]. ‘We vertrouwen hem’, aldus Fontys over de docent [1]. Een technisch medewerker van de hogeschool bagatelliseert het risico: ‘Het gevaar van OpenAI wordt vaak overdreven. OpenAI zegt zelf dat ze bestanden maar kort opslaan en dan verwijderen’ [2]. De docent zelf vertelde Omroep Brabant dat zijn tool nu ‘volledig lokaal’ werkt en dat OpenAI niet meer de standaard is [1].
Tweede privacy-incident in Eindhoven binnen jaar tijd
Dit is niet het eerste privacy-incident in Eindhoven. Eind 2025 uploadden gemeenteambtenaren gegevens van kwetsbare inwoners naar AI-diensten zoals ChatGPT [1][2]. Die data kon niet effectief worden gewist [1]. Fontys zelf had in april 2022 al een privacylek waarbij gevoelige bestanden toegankelijk waren voor onbevoegden [1]. Het patroon toont hoe gevaarlijk ongecontroleerd AI-gebruik kan zijn. Voor studenten betekent dit dat hun persoonlijke onderwijsgegevens mogelijk bij Amerikaanse techbedrijven terechtkomen - zonder hun toestemming en buiten de bescherming van Europese privacywetten [GPT].