Door Jasper Bakker

Nieuwsredacteur

AI als wapen: waarom Trumps Defensie OpenAI verkiest boven Anthropic

04-03-2026 • 09:30

33

Vijf vragen over OpenAI, Trumps ministerie van Defensie, Anthropic en Iran

Anthropic ligt eruit bij het Amerikaanse ministerie van Defensie, terwijl concurrenten OpenAI en xAI juist nieuwe overheidsdeals voor militair gebruik sluiten. Grok, ChatGPT en Google Gemini waren al in dienst bij de VS. Het lijkt erop dat Anthropics ethische overtuigingen reden waren voor de afwijzing door Defensie, maar het ligt allemaal wat genuanceerder. Vijf vragen over OpenAI, Trumps ministerie van Defensie, Anthropic en de aanval op Iran.

Krijgt OpenAI nu van Defensie garanties die Anthropic niet kreeg?

Het lijkt er sterk op dat OpenAI in wezen dezelfde overeenkomst sluit met het Amerikaanse ministerie van Defensie als wat Anthropic wilde, maar niet kreeg. Beide AI-aanbieders verklaren met het oog op militair gebruik bepaalde ethische grondslagen en garanties na te streven. Anthropic was uit op bepaalde voorzieningen en formuleringen in zijn contract met Defensie. Ter verduidelijking: in zijn nieuwe, uitgebreidere contract met Defensie. De twee partijen hadden sinds juli vorig jaar al een overeenkomst.

Het nu geëscaleerde conflict gaat over AI-gebruik voor massasurveillance op Amerikaans grondgebied en AI-gebruik voor volledig autonome wapensystemen. Anthropic wil dat expliciet uitsluiten voor zijn AI-technologie en dat specifiek opnemen in het contract met Defensie. Het ministerie wil dat niet op die manier vastleggen.

Ceo Sam Altman van OpenAI doet het voorkomen dat zijn bedrijf tot hetzelfde resultaat is gekomen als wat Anthropic wilde. De duivel zit hier in de details. Altman stelt dat het ministerie, dat hij aanduidt met de door Trump gegeven naam ministerie van Oorlog, 'een diep respect toont voor veiligheid' rond AI. De hoogste baas van het marktbepalende AI-bedrijf verklaart dat Defensie het eens is met 'twee van onze belangrijkste kernprincipes'. Dit betreft het verbieden van massasurveillance in de VS en het behouden van menselijke verantwoordelijkheid voor geweld, waaronder het gebruik van AI-gestuurde wapensystemen.

OpenAI-ceo Sam Altman (beeld: OpenAI)
OpenAI-ceo Sam Altman. Bron: OpenAI

Volgens Altman is dat opgenomen in de overeenkomst, waarbij hij aangeeft dat Defensie dit verankert in wetgeving en beleid. Ontwikkelingen van de afgelopen maanden tonen dat overheidsbeleid en -handelen haaks kunnen staan op wetgeving. De regering Trump in het algemeen, maar ook ministeries als Justitie, Homeland Security en Defensie voeren acties uit die wettelijke toetsing door de rechterlijke macht niet blijken te doorstaan. Bovendien kan de overheid wetgeving natuurlijk aanpassen.

In tegenstelling tot Anthropic lijkt OpenAI erop te vertrouwen dat Defensie zich houdt aan de wet en dat dit gelijkstaat aan moreel of ethisch juist handelen. Altman kwam maandag nog wel met aanvullingen op de al gesloten overeenkomst, die naar zijn zeggen te haastig is gesloten. De ceo van OpenAI zegt nu met het ministerie te werken aan veranderingen. Het is de vraag of en hoe ver het ministerie daarin meegaat, nu het kennelijk de gewenste AI-deal heeft met een grote aanbieder.

Edward Snowden
NSA-klokkenluider Edward Snowden. Bron: Getty

De door Altman genoemde aanvullingen betreffen 'doelbewust volgen en surveilleren' plus 'opzettelijke binnenlandse surveillance'. Mogelijkheden om zulke formuleringen te omzeilen, kwamen in 2013 aan het licht door de onthullingen van NSA-klokkenluider Edward Snowden. De Amerikaanse inlichtingendienst NSA, die onder Defensie valt, bleek Amerikaanse burgers af te luisteren. Het deed dat niet rechtstreeks en niet op eigen grondgebied. Het surveilleren van Amerikanen gebeurde door communicatie van anderen af te tappen, via verbindingen, communicatienetwerken en partners buiten de Verenigde Staten. Zo was er strikt gezien geen sprake van binnenlandse surveillance, volgens het argument van de Amerikaanse spionagedienst.

Anthropic is dus de ethische AI-aanbieder in deze kwestie?

De haastig gesloten overeenkomst van OpenAI en het schijnbare vertrouwen van ceo Altman in de Amerikaanse overheid werpt vragen op over ethisch gedrag. Anthropic lijkt in deze kwestie dus de ethische partij te zijn, die oog heeft voor mogelijk militair AI-misbruik. Ceo Dario Amodei deed vorige week nog ferme uitspraken dat het eindbod van het Pentagon 'onacceptabel' was. Toch valt er wel wat aan te merken op de aanpak van de Amerikaanse AI-aanbieder.

Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News
Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News

Zo deed Anthropic recent al water bij de wijn. De concurrent van OpenAI schrapte een belangrijke veiligheidsbelofte uit zijn beleid voor het ontwikkelen van AI-systemen. Topmensen van Anthropic onthulden vorige maand dat ze de centrale veiligheidsbelofte van het bedrijf loslaten. Het gaat om de belofte van 2023 dat de AI-aanbieder nooit een AI-systeem zou trainen als het niet vooraf kon garanderen dat de veiligheidsmaatregelen van het bedrijf adequaat zijn. Deze belofte is de kern van de responsible scaling policy (rsp) van het bedrijf, maar die kern is dus losgelaten.

Toch hield Anthropic wel vast aan andere zaken rond militair AI-gebruik, veiligheid en ethiek. Het loslaten van de centrale veiligheidsbelofte in het bedrijfsbeleid was voor Defensie blijkbaar niet genoeg. Het ministerie en de OpenAI-concurrent kwamen er niet uit over binnenlandse surveillance en autonome wapens. Het eerstgenoemde struikelblok gaat om gebruik van Anthropics AI-technologie voor het afluisteren, monitoren en analyseren van communicatie, gedrag en andere gegevens van Amerikaanse burgers, op Amerikaans grondgebied. Het tweede struikelblok betreft het overlaten van kritieke beslissingen over leven of dood aan AI-gestuurde wapensystemen, die dan zonder menselijke inmenging functioneren.

Wat heeft de Amerikaanse aanval op Iran hiermee te maken?

OpenAI sloot afgelopen vrijdag een bredere overeenkomst met Defensie voor AI-gebruik in de geheime systemen en netwerken van het ministerie. Begin die week werd bekend dat xAI van miljardair Elon Musk ook een bredere deal sloot met Defensie voor de omstreden AI-chatbot Grok. Verder zou een soortgelijke deal met Google nabij zijn. Met het sluiten van zulke deals is de veelbelovende AI-technologie nog niet direct toegepast in militaire systemen en inzetbaar voor operaties. Dat kost tijd en moeite.

Slecht nieuws voor het Amerikaanse ministerie, dat AI-gedreven wil zijn? Nee hoor, want in de praktijk gebruikt Defensie al AI-technologie voor reguliere militaire acties. Zoals ook de 'grote gevechtsoperatie' die de Verenigde Staten nu uitvoeren in het Midden-Oosten. Het militaire AI-gebruik van de VS in de aanval op Iran omvat ook AI-bot Claude van Anthropic, melden bronnen aan The Wall Street Journal en aan Axios. Deze inzet van technologie kan vallen onder de bestaande overeenkomsten met leveranciers als xAI, Anthropic, Google en ook OpenAI.

AI, Claude, Anthropic (beeld: Anthropic)
Claude. Bron: Anthropic

Eerder gebruikte Defensie al Claude in de ontvoering van de Venezolaanse president Nicolás Maduro. Dat zou de oorzaak zijn geweest voor het conflict tussen het ministerie en Anthropic. Bij de aanval op Iran zou de Amerikaanse legerleiding de AI-technologie van Anthropic gebruiken voor verschillende doeleinden. Dit omvat volgens The Wall Street Journal het vergaren van inlichtingen, het uitvoeren van slagveldsimulaties en het bepalen van doelwitten.

Anthropic verliest nu Defensie als grote klant, so what?

De vechtscheiding tussen Anthropic en het Amerikaanse ministerie van Defensie betekent weliswaar verlies van een grote klant en is dus erg voor het AI-bedrijf. Maar er speelt meer. Niet alleen Defensie verbreekt de banden met Anthropic. Alle Amerikaanse overheidsinstanties krijgen het bevel om te breken met die AI-aanbieder.

President Donald Trump kondigde dit vrijdag aan, vlak voor de start van de militaire operatie tegen Iran. Hij noemt de dwarsliggende AI-aanbieder 'een radicaal-links, woke bedrijf' dat eropuit is om te bepalen hoe het Amerikaanse leger moet vechten en hoe het oorlogen moet winnen. Trump uit verdere klassieke MAGA-kritiek op Anthropic en kondigt aan het bedrijf in de ban te doen voor overheidsgebruik in brede zin.

Donald Trump voor het Amerikaanse congres, 4 maart 2025. Bron: Win McNamee / Getty Images
President Donald Trump. Bron: Win McNamee / Getty Images

Bovendien zet de Amerikaanse regering Anthropic nu op de zwarte lijst als 'risico voor toeleveringsketens'. Dit heeft verstrekkende gevolgen. Anthropic staat hierdoor namelijk ook buitenspel voor bedrijven die toeleverancier zijn voor overheidsinstanties in de VS. Naast defensiebedrijven en reguliere ondernemingen raakt dit ook AI- en cloudreuzen als Nvidia, AWS en Google. Die zouden geen zaken meer mogen doen met Anthropic, die dan geen AI-chips meer kan afnemen of cloudcapaciteit gebruiken. Er zou hierdoor sprake zijn van 'bedrijfsmoord' die de regering-Trump pleegt op Anthropic.

Defensieminister Hegseth beschuldigt Anthropic van 'arrogantie en verraad'. Hij stelt dat zijn ministerie volledige, onbeperkte toegang moet hebben tot de AI-modellen van Anthropic. Daarbij benadrukt hij dat dit voor 'wettelijke doeleinden' is ter verdediging van de Verenigde Staten. Woordvoerders van de Amerikaanse overheid omschrijven de aanval op Iran als een defensieve maatregel, vanwege de verwachte wraak van Iran op Amerikaanse doelwitten in reactie op een aankomende aanval op Iran door Israël.

Is dit een herhaling van de ban op Huawei en Kaspersky?

Het conflict tussen Anthropic en Defensie, de escalatie, het uiteenspatten en de algehele ban heeft veel weg van eerdere Amerikaanse overheidssancties tegen techbedrijven. Denk aan het Chinese Huawei en het Russische Kaspersky, dat later bewust verhuisde naar Zwitserland. De huidige AI-situatie rond de regering Trump en Anthropic, maar ook OpenAI, xAI, Google en andere techleveranciers, is op belangrijke punten anders.

Allereerst is er het feit dat Anthropic Amerikaans is. De ban die de Amerikaanse overheid oplegt, is de eerste voor een onderneming van eigen bodem, schrijft de BBC. Daarnaast is de huidige AI-industrie, net zoals de ict-industrie, afkomstig uit de VS. Het harde optreden van de Amerikaanse regering nu zet de grote AI-aanbieders onder druk en heeft een vlekwerking op wereldwijd belangrijke techreuzen als Nvidia, AWS en Google.

Bovendien kan de hele zaak een bekoelend effect hebben op investeringen in AI, op ontwikkeling en gebruik van Amerikaanse AI en mogelijk uiteindelijk op gebruik van Amerikaanse IT in bredere zin. Dit komt dan bovenop huidige zorgen over AI-hallucinaties, vrees voor het uiteenspatten van de AI-zeepbel en het groeiende streven naar digitale soevereiniteit.

Zelfs ceo Altman van OpenAI maakt zich zorgen. Hij spreekt van 'een angstwekkend precedent' voor wat nu gebeurt met zijn concurrent. Ondertussen speculeren experts over een dreigende nationalisering van de Amerikaanse AI-industrie, spreken werknemers bij techbedrijven zich uit tegen de ban op Anthropic en dreigt de toch al precaire situatie in het Midden-Oosten te escaleren, met AI opgenomen in het wapenarsenaal.

Redactie: Jasper Bakker • Eindredactie: Monique van den Boomen

Pete Hegseth (foto: navy petty officer 1st class Alexander Kubitza, ministerie van Defensie VS)
Pete Hegseth. Bron: navy petty officer 1st class Alexander Kubitza, ministerie van Defensie VS

Reacties (33)

Sorteer op:

Weergave:

Grappig, tip net de redactie om een achtergrondartikel te schrijven over Antropic n.a.v. dit voorval. Alleen wel met een heel andere insteek, namelijk dat het lijkt alsof Antropic toch niet de moraalridder is die het claimt te zijn.

Dit vond ik interessant om te lezen: https://www.luizasnewsletter.com/p/claudes-strange-constitution & https://www.linkedin.com/posts/ketanjoshi1_quitgpt-ugcPost-7433621374776131584-nNnM/?rcm=ACoAAAkaDtEBMjHcmb2eKbUDCsl5tAlzA2D6fas
edit:
2e link toegevoegd + kleine aanpassing in laatste zin

[Reactie gewijzigd door McNutters op 4 maart 2026 09:50]

Intussen hoor je niemand over Google die ook niet moeilijk doet en volledige meewerkt met DoD en geen beperkingen oplegt.
De suggestie dat Antropic moreel verheven is omdat ze enkel 2 van de vele defensie use-cases uitsluiten is uiteraard lachwekkend en hypocriet. Dat veel media zo'n gespind verhaal herhalen zegt meer over de kwaliteit van journalisten (of is het AI?) dan over de bedoelingen van Antropic.
Ik denk dat jullie moreelridder verwisselen met "een piezeltje meer moreel dan Open AI", wat absoluut haalbaar is. In dit geval, met trump aan het roer, kan zelfs zonder AI de wereld opgeblazen worden... de wereldorde is onder zijn bewind alvast het eerste slachtoffer.
Zeker niet, ik vind Antropic net zo immoreel als ieder andere AI bedrijf. Om het Europees te houden: Mistral ondersteund ook gewoon defensie. De immoraliteit gaat veel verder dan enkel defensie ondersteuning.

Al dat "do no evil" is uiteindelijk voor de bühne, het gaat enkel om geld.

Om het persoonlijk te maken: Ik werk zelf ook voor een amoreel bedrijf, en ja: dat vind ik lastig. Door ieder kwartaal opnieuw te wegen of ik de acties van (het bestuur van) het bedrijf nog vindt passen bij mijn moreel kompas, bepaal ik of ik hier blijf werken. Ik maak me geen illusies dat ik zelf hier grote koerswijzigingen in kan afdwingen.
Het tweede struikelblok betreft het overlaten van kritieke beslissingen over leven of dood aan AI-gestuurde wapensystemen, die dan zonder menselijke inmenging functioneren.
Dit is was mij betreft extreem zorgwekkend, op het moment dat AI systemen deze beslissingen gaan nemen, dan zal de verantwoordelijkheid verdwijnen voor verkeerde doelen, oorlogsmisdaden en dergelijke.
De A.I. zal ongetwijfeld de verantwoordelijkheid nemen en zeggen: "Je hebt gelijk ! Sorry ! Dat was het verkeerde doel." En bombardeert vervolgens een ander doel in de overtuiging dat de tweede gok nu wél goed is.
Goed artikel. Deze actie van OpenAI is een reden voor mij geweest om mijn account te verwijderen. We moeten met zijn allen laten blijken dat dit soort deals onwenselijk zijn.
Je kan het beter blijven gebruiken als je een gratis account hebt, dan verliezen ze nog meer aan je :P
Maar dan wel geen feedback geven over de kwaliteit van de antwoorden want zodra je dit doet gebruiken ze je prompt/resultaat voor het verbeteren van hun product en help je hen toch zo indirect.
Ze verdienen juist aan je informatie
Same. Sowieso was het al lang niet meer de top qua taalmodel. Dit was voor mij de druppel.
Wat is een beter alternatief?
claude van anthropic is een goeie en anders gemini van google
Ik hoop niet dat het hetzelfde niveau is als ChatGTP. Gooit bom op verkeerde doel. "Heej AI, waarom gooi je op het verkeerde doel?". Ah, je hebt gelijk! Excuses, ik gooi er 1 op het goede doel. Gooit op ander verkeerd doel.......
En natuurlijk de slotzin onder elk bericht: "Wil je ook dat ik je help <insert ander doel> te bombarderen?"
Bij mij heb ik juist dat hij dan precies dezelfde fout nog een keer maakt
I.p.v. ministerie van defensie noemen ze het nu ministerie van oorlog meende ik.
Idd, op 5sept vorig jaar - van Department of Defense naar Department of War. Niemand had kunnen voorspellen dat ze agressief gingen doen. :+
Wat ik een beetje jammer vind aan Claude is het gebrek aan een "instap" abonnement. Chat Go kost minder dan een tientje per maand en werkt goed (ik vraag vaak om foto's te analyseren, heb je toch een soort abo voor nodig). Bij Claude ben ik gelijk het dubbele kwijt. Dat vind ik nogal een stap...
Tja, dan ben je toch ook gewoon niet het publiek ervoor? Als je een foto wil analyseren kan je ook gewoon de google ai modus gratis gebruiken. Claude is gericht op productie en niet op 'huis, tuin en keuken'-vragen.
In tegenstelling tot Anthropic lijkt OpenAI erop te vertrouwen dat Defensie zich houdt aan de wet en dat dit gelijkstaat aan moreel of ethisch juist handelen.
Lijkt is het sleutelwoord hier, ik denk niet dat het ze wat kan schelen eigenlijk anders dan de publieke opinie zo goed mogelijk houden (wat niet heel goed lukt).
Ik denk dat Antropic ergens in hun eigen statuten dit verbod op inzet van hun technology heeft beperkt; ik zie dit niet als bewijs van hun integriteit. Wanneer het aankomt op Amerikaanse corpo's verwacht ik niks m.b.t. ethiek en integriteit. Mensen als Altman, Thiel,Alex Karp, dat zijn geen mensen waarvan ik iets verwacht qua moraliteit of ethiek: het zijn nietsonziende psychopaten die alles doen voor de volgend miljard dollar.

Lees het artikel: Anthropic had issues met het inzetten van hun technologie op massa surveillance in Amerika. Ik betwijfel of zij issues zouden hebben met het gebruik van hun technologie op de DOW als die massa surveillance zou inzetten in China.
Al die CEO's psychopaten noemen gaat wel erg ver. De macht van het geld is (zeker in Amerika) echter wel enorm. Geld (en macht) is altijd al een middel geweest om ethiek als sneeuw voor de zon te laten verdwijnen. Het inruilen van ethiek tegen geld maakt iemand nog geen psychopaat, maar is gewoon iemand die ethiek als een verhandelbaar iets vindt. Daarmee is die CEO gelijk aan ca 80% van de mensheid.

Bij Trump komt er ook nog een stuk chantage bij kijken. Als je niet met Trump meewerkt kan je tegenmaatregelen verwachten en die kunnen jouw en/of je bedrijf flink schaden. Als je hier de psychopaat aan moet wijzen is het de 79 jarige kleuter die stampvoetend zijn zin door wil drijven.
Een van de grote problemen rond AI blijft de vraag wie er verantwoordelijk is wanneer er fouten worden gemaakt. Die vraag wordt alleen maar urgenter wanneer het om militaire toepassingen gaat. Een AI die verkeerd omgaat met gevoelige gegevens is al schadelijk, een AI‑gestuurde auto die iemand aanrijdt is nog erger, maar een AI die verkeerde doelwitten aanvalt kan resulteren in een enorme ramp. En als dat gebeurt, wiens schuld is het dan?

Ter illustratie: Wikipedia: Death of Elaine Herzberg

In 2018 reed voor het eerst een zelfrijdende auto een voetganger dood. Uit onderzoek bleek dat de AI de vrouw wel had gedetecteerd, maar haar verkeerd geclassificeerd had, waardoor de auto niet stopte. Dit had een dodelijk ongeluk tot gevolg, maar zonder duidelijke schuldige. Uiteindelijk werd de menselijke bestuurder aangeklaagd terwijl het eigenlijk de AI was die de fout maakte, wat volgens mij een duidelijk signaal geeft dat op AI vertrouwen in potentieel levensbedreigende situaties niet alleen ethisch, maar ook wettelijk fout is.

Dat probleem is duidelijk veel groter in een militaire context. Een AI‑systeem dat een verkeerde inschatting maakt of een doelwit fout classificeert kan enorm veel schade veroorzaken, veel meer dan een auto die een persoon aanrijdt. Maar een AI, en dan zeker de huidige generatie van beperkte "AI" systemen, kan zelf geen verantwoordelijkheid dragen. De ontwikkelaar van de AI heeft vaak weinig invloed op de specifieke context waarin het systeem wordt ingezet. Degene die de AI opdrachten geeft, hoeft daarbij niet eens een fout te hebben gemaakt (los van de vraag of het überhaupt juist is een AI met zulke opdrachten te vertrouwen). Het resultaat is dat er mogelijk niemand écht verantwoordelijk gehouden kan worden, terwijl er wel echte slachtoffers vallen.

De eerste militaire toepassingen van AI zullen (hopelijk!) niet bestaan uit het zelfstandig lanceren van raketten. Dat is dus wel een extreem voorbeeld. Maar de vraag blijft: hoe houd je iemand aansprakelijk wanneer er door een AI fouten worden gemaakt? En binnen deze context is dat nog vele malen moeilijker vast te stellen, omdat je dan al gelijk tegen "classified information" aanloopt.

Afgezien daarvan is het toch wel bijzonder zielig dat het Trump-regime iedereen die de Grote Leider ook maar een klein beetje tegengas geeft gelijk bestempelt als een landverrader. Lekker op z'n Noord Koreaans...
OpenAI, het bedrijf wat ooit de LLM, AI Chatbot en dus AI voor het grote publiek op de kaart zette. Het bedrijf wat nu schimmiger gaat worden om te overleven, omdat ze in een grootheidswaan zitten.

Ik heb in het 1e jaar van de hype een betaald abonnement genomen, maar ben daarna overgestapt op andere modellen. En niets heeft me doen stimuleren om bij ze terug te gaan. En zeker nu blijf ik er graag ver vandaan.

Ik heb alleen nog Claude niet betaald gebruikt, maar dat zit er binnenkort wel een keer aan te komen, omdat ik denk dat het beter voor me gaat werken dan Gemini om te programmeren.
claude is echt een stuk beter om te programmeren volgens mijn ervaring het gaat ook niet elke reactie weer features weghalen om de code kort te houden zoals gemini (ookal zeg je haal dit en dat niet weg)

Heb echt een vette pathtracer kunnen maken met claude maar gemini die zorgt dat er bijna niks in zit ookal vraag je dat en vaak werkt het ook slecht

Om te kunnen reageren moet je ingelogd zijn