openai wist cruciaal bewijs: nieuwe wending in miljardenclaim new york times
New York, vrijdag, 22 november 2024.
In een opzienbarende ontwikkeling hebben OpenAI-ingenieurs per ongeluk essentieel bewijsmateriaal gewist in de rechtszaak met The New York Times. De krant besteedde meer dan 150 uur aan het verzamelen van bewijzen over ongeoorloofd gebruik van hun artikelen. Deze blunder kan grote gevolgen hebben voor de miljardenclaim en zet vraagtekens bij OpenAI’s transparantie in deze historische rechtszaak over AI-trainingsdata.
verwijdering van bewijs en juridische gevolgen
Het wissen van het bewijsmateriaal door OpenAI lijkt op een ongelukkige fout, maar de advocaten van The New York Times twijfelen of dit daadwerkelijk een vergissing was. Ze hebben geen reden om aan te nemen dat de verwijdering per ongeluk was[1]. Dit incident heeft de juridische teams van de kranten gedwongen hun zoekopdrachten opnieuw uit te voeren, wat aanzienlijke kosten met zich meebrengt. De herstelde gegevens bleken onvolledig en onbetrouwbaar, waardoor het moeilijk is vast te stellen hoe de artikelen van The New York Times zijn gebruikt in de AI-modellen van OpenAI[2].
strategische licentieovereenkomsten
Ondanks de juridische strijd heeft OpenAI strategische licentieovereenkomsten gesloten met grote mediabedrijven, zoals de Associated Press en de Financial Times[1]. Deze overeenkomsten kunnen worden gezien als een manier om soortgelijke rechtszaken te vermijden en de samenwerking met uitgevers te bevorderen. Dotdash Meredith ontvangt naar verluidt minstens $16 miljoen per jaar voor het licentiëren van zijn inhoud aan OpenAI[3]. Dit onderstreept de complexe relatie tussen AI-bedrijven en uitgevers, waarbij sommige kiezen voor samenwerking in plaats van confrontatie[4].
implicaties voor de toekomst van ai en auteursrecht
De zaak tegen OpenAI maakt deel uit van een bredere discussie over het gebruik van auteursrechtelijk beschermde werken door AI-systemen. De vraag of AI-modellen getraind mogen worden met bestaande content zonder expliciete toestemming, staat centraal in deze juridische strijd[5]. De resultaten van deze rechtszaken kunnen grote implicaties hebben voor de toekomst van AI-trainingsmethoden en de manier waarop content wordt beschermd onder het auteursrecht. Deze zaak benadrukt de behoefte aan duidelijke richtlijnen over het gebruik van data in AI-modellen en kan mogelijk leiden tot nieuwe wetgeving om de rechten van contentmakers te beschermen[6].