Pentagon dreigt AI-bedrijf met noodwet als het weigert wapens autonoom te laten doden

Pentagon dreigt AI-bedrijf met noodwet als het weigert wapens autonoom te laten doden

2026-02-25 buitenland

Washington, woensdag, 25 februari 2026.
Het Amerikaanse ministerie van Defensie geeft Anthropic tot vrijdag om hun AI-systeem Claude volledig open te stellen voor militair gebruik, inclusief autonome wapensystemen en massasurveillance. Als het bedrijf weigert, dreigt het Pentagon met de Defense Production Act - een noodwet uit de Koude Oorlog die bedrijven kan dwingen mee te werken. Anthropic houdt voet bij stuk en weigert hun ethische grenzen te laten vallen. Concurrent xAI sloot al wel een deal met het leger.

Ultimatum met drastische gevolgen

De confrontatie escaleerde dinsdag 24 februari tijdens een ontmoeting tussen defensieminister Pete Hegseth en Anthropic-CEO Dario Amodei op het Pentagon [1][2]. Hegseth gaf het AI-bedrijf tot vrijdag 28 februari 17:01 uur om alle beperkingen weg te nemen voor militair gebruik van hun Claude-systeem [2][3]. Als Anthropic weigert, activeert het Pentagon de Defense Production Act - een noodwet uit de Koude Oorlog die bedrijven kan dwingen hun technologie beschikbaar te stellen voor nationale veiligheid [1][4]. Het ministerie dreigt Anthropic ook te bestempelen als ‘supply-chain risk’, een label dat normaal alleen voor bedrijven uit vijandelijke landen wordt gebruikt en dat het bedrijf effectief zou uitsluiten van overheidscontracten [1][5]. Dit zou Anthropic miljoenen kunnen kosten, aangezien het Pentagon vorig jaar contracten van elk maximaal 200 miljoen dollar toekende aan vier AI-bedrijven, waaronder Anthropic [2].

Ethische grenzen versus militaire ambities

Anthropic weigert twee cruciale rode lijnen te overschrijden: massasurveillance van Amerikaanse burgers en volledig autonome wapensystemen waarin AI zonder menselijke tussenkomst doelwitten selecteert [4][6]. Het bedrijf houdt vast aan deze ethische standpunten ondanks de druk uit Washington [4]. De spanning ontstond eerder deze maand toen Anthropic vragen stelde over het gebruik van hun AI tijdens de militaire operatie in Venezuela waarbij president Nicolás Maduro werd gevangengenomen [4]. Voor Nederlandse burgers is dit relevant omdat het precedent schept voor hoe democratische landen omgaan met AI-ethiek. Als Amerika zijn grootste AI-bedrijven kan dwingen ethische beperkingen te laten vallen, kunnen andere landen hetzelfde doen. Jessica Tillipman van George Washington University Law School waarschuwt dat het Pentagon ‘nationale veiligheidsinstrumenten transformeert in hefbomen voor zakelijke onderhandelingen’ [3].

Concurrentie pakt kansen

Terwijl Anthropic weerstand biedt, grepen concurrenten hun kans. Elon Musks xAI sloot deze week al een bredere deal met het Pentagon en mag nu draaien op geheime militaire netwerken [1][4]. Ook Google staat dicht bij een akkoord voor hun Gemini-systeem, dat volgens The New York Times al operationeel is in het Amerikaanse leger [1]. Dit zet extra druk op Anthropic, dat momenteel als enige AI-bedrijf toegang heeft tot geclassificeerde militaire systemen [3]. Voor de AI-industrie betekent dit een keerpunt: bedrijven moeten kiezen tussen ethische principes en lucratieve overheidscontracten. Franklin Turner, advocaat gespecialiseerd in overheidscontracten, noemt de situatie ‘ongekend’ en voorspelt ‘een golf van rechtszaken’ als de regering daadwerkelijk actie onderneemt tegen Anthropic [4]. De uitkomst van dit conflict bepaalt hoe de toekomst van militaire AI eruitziet.

Bronnen


Pentagon Anthropic