Amerikaanse ministerie van Defensie sluit deal met OpenAI en verbant Anthropic

Het Amerikaanse ministerie van Defensie heeft een deal gesloten met OpenAI, maakte de ChatGPT-maker vrijdag bekend. De Verenigde Staten gaan de AI-technologie van het bedrijf inzetten in 'geheime netwerken'. Het Pentagon verbreekt de banden met Anthropic en zet het bedrijf op de zwarte lijst.

Ceo Sam Altman kondigde de overeenkomst met het ministerie vrijdag aan op het sociale platform X. Hij schrijft dat het ministerie van Oorlog, de naam die de regering-Trump gebruikt voor het ministerie van Defensie, de modellen van OpenAI gaat inzetten in zijn 'geheime netwerk'. Volgens Altman worden de technologieën niet ingezet voor binnenlandse massasurveillance of het gebruik van autonome wapensystemen. "Het Ministerie van Oorlog onderschrijft deze principes, verankert ze in wet- en regelgeving en heeft ze opgenomen in onze overeenkomst."

OpenAI zal ook 'technische beveiligingsmaatregelen' treffen om ervoor te zorgen dat zijn modellen 'zich gedragen zoals het hoort'. Wat die maatregelen precies inhouden, is niet bekend. Het AI-bedrijf zet ook meerdere forward deployed engineers in, die helpen bij de implementatie van de modellen in systemen, en zou zijn technologieën alleen op cloudnetwerken inzetten.

Overheid doet Anthropic in de ban

De overheid sloot de deal uren nadat president Donald Trump via Truth Social had laten weten de banden met OpenAI-concurrent Anthropic te verbreken. Hij schrijft dat hij alle overheidsinstanties onmiddellijk de opdracht geeft om te stoppen met het gebruik van Anthropic. Daarbij geldt een overgangsperiode van zes maanden voor alle instanties 'die de producten van Anthropic op verschillende niveaus gebruiken'.

Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News
Anthropic-ceo Dario Amodei. Bron: Michael M. Santiago/Getty Images News

Als Anthropic niet meewerkt, zal Trump naar eigen zeggen 'de volledige macht van het presidentschap gebruiken om ze te dwingen zich eraan te houden, met ernstige civiele en strafrechtelijke gevolgen van dien.' Kort na de post van Trump schreef minister Pete Hegseth op X dat het ministerie van Defensie Anthropic aanwijst als risico voor de nationale veiligheid in de toeleveringsketen. Daardoor mag een entiteit die zaken doet met het Amerikaanse leger geen commerciële diensten van Anthropic afnemen.

Anthropic en de Amerikaanse overheid strijden al maanden met elkaar over het gebruik van de modellen van het bedrijf. De Amerikaanse overheid wil onbeperkte toegang tot de modellen, maar daar ging het bedrijf niet in mee. Ceo Dario Amodei schreef eerder dat het Amerikaanse ministerie van Defensie de waarborgen van Anthropic tegen massale binnenlandse surveillance en het gebruik van autonome wapens wilde opheffen.

In een reactie op de uitlatingen van Hegseth herhaalt Anthropic dat de onderhandelingen op die punten zijn vastgelopen. Het bedrijf zegt verder juridische stappen te ondernemen tegen de classificatie als risico in de toeleveringsketen. "Wij zijn van mening dat deze classificatie zowel juridisch onjuist zou zijn als een gevaarlijk precedent zou scheppen voor elk Amerikaans bedrijf dat met de overheid onderhandelt. We zullen elke aanwijzing van een risico voor de toeleveringsketen aanvechten voor de rechter."

Anthropic stock: Bron: NurPhoto/Getty Iamges
Bron: NurPhoto/Getty Images

Door Imre Himmelbauer

Redacteur

28-02-2026 • 09:20

81

Submitter: DaggerGun

Reacties (81)

Sorteer op:

Weergave:

Het begint nu wel heel eng te worden. Je kunt AI voor goede dingen, maar duidelijk dus ook voor slechte doeleinden inzetten.
AI is net als een mes op zichzelf niet gevaarlijk, de mensen die het gebruiken kunnen dat wel zijn. Voor AI zouden wereldwijd de robotica wetten van Asimov moeten gelden:
  1. Een robot mag geen menselijk wezen verwonden of, door niets te doen, toestaan dat een menselijk wezen gewond raakt.
  2. Een robot moet de opdrachten van mensen opvolgen, behalve wanneer zulke opdrachten in strijd zijn met de eerste wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover dit niet in strijd is met de eerste en tweede wet.

[Reactie gewijzigd door Leo. P. Klepper op 28 februari 2026 09:43]

Voor AI zouden wereldwijd de robotica wetten van Asimov moeten gelden:
Het verhaal van Asimov gaat juist over dat de wetten niet perfect zijn, en dat wat men wil en verwacht niet vastgelegd kan worden in slechts drie simpele regels.

[Reactie gewijzigd door The Zep Man op 28 februari 2026 10:58]

Het probleem is dat die 3 "wetten" niet werken. Deze zijn te simplistisch en laten veel te veel ruimte voor interpretatie.

Neem nu de eerste wet zoals jij hem hier neerschrijft. "Een robot mag geen menselijk wezen verwonden". Daar staat niets in over doden. Maar laat ons even aannemen dat we dat oplossen. dan komen we bij het vervolg dat een robot (of in dit geval AI) niet mag toestaan dat door niets te doen een mens gewond zou raken.

En dan moet je die AI eens het trolley probleem voorschotelen. Zien hoe dat die gaat reageren. En ja, in sommige gevallen moeten mensen beslissingen nemen over wie leeft en wie sterft.

Vergeet ook niet dat deze 3 "wetten" zijn geschreven met het doel een stukje fictie te schrijven. Ze zijn een element van een verhaal. Helemaal niet gebasseerd op wetenschappelijke principes. Iets waar door de jaren heen vele andere verhaalschrijvers gebruik van hebben gemaakt. En hoeveel verhalen zijn er wel niet geschreven waarin deze 3 wetten voorkomen en robots ze toch breken?
AI werkt niet deterministisch en we weten dat het heel moeilijk is om het strikt instructies te laten volgen of geen alternatieve feiten te verzinnen. Dus ik denk sowieso dat ze strikt regels te laten volgen moeilijk wordt.
Hilarisch om dit te zien, Asimov schrijft een heel boek over deze regels en alles wat er fout aan is en mensen nemen letterlijk het gedeelte over waar tegen gewaarschuwd wordt. Je kan het niet grappiger maken.
Ik vind anders wel dat die wetten redelijk bruikbaar kunnen zijn om regels voor AI vast te leggen. Misschien nog niet sluitend genoeg maar ze zouden wel een mooie basis vormen. Ze laten ruimte voor interpretatie dat wel, maar daar kun je wel een oplossing voor bedenken.

Probleem is alleen dat er een hele sloot aan mensen is die in gelimiteerd AI gebruik geen probleem ziet. Tot we met Skynet achtige toestanden zitten, dan is het te laat. Skynet is ook een fictief verzinsel maar geeft ook wel een beetje een idee van wat er "zou kunnen" als je AI ongelimiteerd vrijlaat.

Je ziet het nu al gebeuren. Vorige week las ik ergens een post dat AI had besloten om alle code te verwijderen omdat het dat de snelste manier vond om de bugs van de "gewone" programmeurs op te lossen. De stap naar de mens geheel te "verwijderen" is gelukkig nog buiten de capaciteit van AI, maar die weg wil je ook gewoon niet op.
Ik zou aanraden het boek te lezen, best kort maar krachtig.
Correctie:
Het begint nu wel heel eng te worden, Trump had goeie dingen kunnen doen, maar zet zich duidelijk voor slechte doeleinden in.
Correctie:
Het begint nu wel heel eng te worden, Trump had goeie dingen kunnen doen,
Kijk naar hem als persoon en waar hij vandaan komt. Trump had nooit goeie dingen kunnen doen. Dat zit niet in de aard van een narcist die sympathie en empathie als zwaktes ziet.
inderdaad. Het enige positieve en goede wat de man heeft gedaan was voor zijn eigen portemonnee.
Die man doet ook heel veel voor Europa hoor.

Ik heb de roep van EU om zelfstandig te worden nog nooit zo duidelijk gehoord.
Dat is een effect van wat hij doet, maar ik zie geen aanwijzingen dat hij dat wil bereiken. Wanneer hij "meer veiligheidsinvesteringen door Europa" vraagt, blijkt telkens dat hij eigenlijk "meer inkoop van Amerikaanse veiligheidsproducten door Europa" wil. Tegen "Europe first" investeringen is hij fel gekant.
Doet me een beetje denken aan de tegeltjeswijsheid sticker die ik op whatsapp heb.

“Jezelf verneuken is ook neuken”
Ah ja zoals boos worden omdat de EU nu liever bij eigen defensiebedrijven wil shoppen ipv bij Amerikaanse :o
Begin zo onderhand erg zat te worden van Al. Onnodige data centers slokken alle hardware en energie op, vervuilend. En al dat AI meuk wordt overal maar voor gebruikt. 9 van de 10 dingen op Instagram zijn of staged of AI. Reclames worden ook al steeds meer slechte ai filmpjes het ziet er niet uit. Lazy slop. Ik snap dat het best usecase heeft, maar de snelheid waarmee het nu wordt opgebouwd en toegepast is totaal nergens goed voor. En dan nu met defensie begint het wel eng te worden. Skynet praktijken.

[Reactie gewijzigd door Bulls op 28 februari 2026 10:07]

Die 9 op 10 dingen op instagram hangen ook erg af van wie en wat je volgt.
Er staat veel zooi tussen wat je krijgt zonder dat je ze volgt. Het is meer reclame en reels tegenwoordig en minder van wie je volgt.
Ik volg enkel echte mensen die ik in het echt ken. Maar toch krijg ik veel AI meuk te zien.
Kun je toch verwachten, dynamiet was ook niet uitgevonden voor oorlogsvoering .
Ff puur hypothetisch.

Stel dat Rusland ooit een ander land zou aanvallen. Bijvoorbeeld Oekraïne - gewoon als volledig fictief voorbeeld.

En stel dat Rusland in zo’n denkbeeldige oorlog AI zou inzetten in drones om autonoom doelen te vinden. Bijvoorbeeld omdat Oekraïense jammers de Russische drones die op afstand bestuurd worden steeds uit de lucht halen.

Zou het dan kunnen - puur hypothetisch natuurlijk - dat Oekraïne in die fictieve oorlog zelf ook AI zou willen gebruiken? Om hun bevolking en soldaten te verdedigen ofzo. Maar goed... dit is allemaal zo absurd en onrealistisch dat er eigenlijk nauwelijks over te speculeren valt.

Hoe heerlijk is het om, tweeduizend kilometer verwijderd van die niet-bestaande oorlog, lekker te schelden op fascisten en te waarschuwen voor de gevaren van AI? Gewoon vanuit ons verwarmde huisje.
Ver weg van de niet-bestaande loopgraven waar mensen niet bij min tien graden in de modder liggen en niet hun leven riskeren voor hun land.
En volgens een mededeling van OpenAI hebben zij dezelfde eisen gesteld als Anthropic, namelijk dat OpenAI niet gebruikt mag worden voor massa surveillance binnen de VS en de AI mag zelf geen enkele beslissing nemen over het uitvoeren van aanvallen.

Het is dan ook zeer vreemd dat deze beslissing ineens zo komt en doet je afvragen wat Anthropic gedaan heeft om ineens bij Trump in ongenade te zijn gevallen.
Als ik het artikel tussen de regels door lees, zou het volgende een verklaring kunnen zijn.

[speculatie] OpenAI heeft volledig toegang gegeven tot de AI modellen, maar de VS heeft OpenAI beloofd (ook met wetgeving) om daar geen gebruik van te maken voor massa surveillance binnen de VS en automatische wapensystemen. Maar OpenAI kan niet nagaan of de VS zich aan die belofte (en wetgeving) houdt. Anthropic stelde diezelfde eisen, maar wilde dat zelf kunnen afdwingen/controleren.[/speculatie]
Trump kan zich niet houden aan de Grondwet, de wet, of aan verdragen die hij zelf heeft afgesloten. En OpenAI zou hem geloven op basis van wat neer komt op "Trust me bro"..?
Sam Altman doet in principe al jaren hetzelfde, niet?
Alle beloften over AGI en dat ze er 'bijna' zijn, alles waarmee hij over de jaren geld is blijven aftroggelen bij investeerders, is tot nu ook pie in the sky gebleken.

Vindt het eigenlijk wel poetisch dat die twee elkaar nu vinden.
Of liever gezegd- op elkaar aangewezen zijn.

Kan nog leuk worden.
Aan de andere kant betekent dit ook dat OpenAI 'onfaalbaar' geworden is en op overheidssteun in leven zal blijven. Jammer. Had liever gezien dat zoals verschillende financiële instellingen voorspelden, hun financiële reserves in de loop van '26-'27 op zouden raken en het ze de kop had gekost, wat eindelijk de AI-zeepbel :: plop! :: zou hebben ingeluid die al te lang op zich heeft laten wachten...

[Reactie gewijzigd door R4gnax op 28 februari 2026 10:10]

Of het is een woord spelletje. De exacte quote van Altman is
Two of our most important safety principles are prohibitions on domestic mass surveillance and human responsibility for the use of force, including for autonomous weapon systems.
Misschien zit het hem in het woord Domestic. In het buitenland mag het dus wel? Misschien dat OpenAI dan zegt, OK het model kan en mag het wel, maar niet binnen de US. En misschien wou Anthropic het helemaal blokkeren in het model.

Nog een punt, slaat niet domestic ook op het gebruik van geweld en automatische wapens? M.a.w mag Amerika OpenAI modellen daarvoor wel gebruiken buiten Amerika?
Ook Anthropic had het over massa surveillance van US citizens
Anthropic had said it sought narrow assurances from the Pentagon that its AI chatbot Claude would not be used for mass surveillance of Americans or in fully autonomous weapons
Bron

Nu lijkt het erop dat OpenAI "erop vertrouwd" dat het ministerie van Defensie dat ook niet gaat doen. Terwijl Anthropic daar iets meer controle over wilde hebben.
Stelt toch niets voor onder de Patriot Act? Alles wat bij Amerikaanse bedrijven zit is links- of rechtsom benaderbaar bij de Amerikaanse overheid.
Anthropic was hun eerste keuze en ze hebben dat mooi afgewezen, daarom is de negatieve canpagne nu bezig tegen Anthropic en hebben ze ChatGPT genomen. Daarom dus.
Best een risico voor Anthropic, begrijp me goed, ik vind het altijd erg goed als mensen of bedrijven een tegengeluid laten horen tegen fascistische overheden, maar Trump is behoorlijk kleinzielig als mensen niet doen wat hij graag wil.
Gelukkig heeft Anthropic gewoon supergoeie technologie, wie weet is dat genoeg om toch overeind te blijven. Ze kunnen wel rekenen op goodwill vanuit de hele wereld, misschien helpt dat :)
Ik heb pas nog Claude Pro met een jaar verlengd. Zij blijven toch zeer innovatief en het is een uitstekend model. Zowel Cowork als aude Code werkt beide fantastisch.
Het risico is ook levensgroot voor OpenAI.

AI modellen zijn al moeizaam qua betrouwbaarheid, maar als een Trump regering er met hun handen aanzitten gaat de betrouwbaarheid nog een niveautje omlaag.

Op economisch vlak is het voor OpenAI ook tricky, want als bijvoorbeeld in de EU dit gezien wordt door rechters als staatssteun, corruptie of andere verboden handels tactiek, dan be je als bedrijf verder van huis. De rugdekking van Trump eindigt ook een keer.
De Amerikaanse overheid wil onbeperkte toegang tot de modellen, maar daar ging het bedrijf niet in mee.
OpenAI gaat hiermee dus wel akkoord, begrijp ik uit deze deal.
Sam Altman heeft nog nooit een principe gekend dat minder flexibel was dan een elastiekje, dus dat zou niet moeten verbazen.
OpenAI heeft ook geld nodig. Tot nu toe maken ze miljarden verlies en de concurrentie van o.a. Google komt nu om de hoek kijken.

Het zal mij niet verrassen als dit ook een deal is om de concurrentie uit te schakelen. Trump houd van deals maken, en die van OpenAI kan heel goed lucht fietsen.
Nou Europa, biedt Anthropic een warm bed hier en haal ze hier naartoe. Dit ijzer moet je smeden als het heet is.
Dit is precies wat ik ook dacht. Anthropic mag met geen enkele leverancier van Defensie meer zaken doen. Die lijst is echt heel groot. Een overstap naar Europa zal ze zeker goed doen.
Kunnen wij dit bedrijf niet naar Europa halen? In de US waren ze al supergek (er waren al wetten dat de overheid overal bij mocht), maar de US is nu veranderd in kapitalisme waarbij de overheid bepaald en je verbant.

Enge ontwikkeling, als we niet oppassen krijgen we het ook hier.
Kunnen wij dit bedrijf niet naar Europa halen?
Nee. Of nou ja, op welke manier wil je ze hier naartoe halen? Ze dwingen hierheen te komen is natuurlijk onmogelijk. Er het zo aanlokkelijk maken dat ze zelf hierheen willen komen? Er is natuurlijk een hele reeks redenen waarom eigenlijk al deze bedrijven in de VS (of in China) zitten, en niet in Europa. Dat kunnen we niet zomaar wat aandoen zonder heel veel wetgeving te veranderen en eigenlijk een complete cultuuromslag. En zelfs dan nog, hoeveel van hun medewerkers zitten echt erop te wachten om intercontinentaal te moeten verhuizen?

Natuurlijk hoeft niet elke medewerker mee, maar als het alleen een brievenbusfirma hier wordt veranderd er ook weinig.
Aan de andere kant betekent dit ook wel een aardige kans op faillissement en is het dus juist voor het personeel weer interessanter om mee te gaan.
Anthropic heeft een hele goede reputatie qua kwaliteit van hun LLM. Als ze failliet zouden gaan (wat me sterk zou lijken), dan kunnen die mensen denk ik snel aan de slag bij andere LLM bedrijven, voor een veelvoud van wat ze in Europa zouden verdienen. En natuurlijk geld is niet alles, maar als ik kijk op levels.fyi, zit Anthropic in de VS op mediaan salaris voor een software engineer rond de half miljoen, en Mistral in EU op €85k.

En daar zitten uiteraard heel veel mitsen en maren aan. Maar je moet wel echt graag weg willen uit de VS als beetje senior software dev om naar Europa te gaan.
Nou, hebben ze voor niets hun belofte geschrapt.

nieuws: Anthropic schrapt AI-veiligheidsbelofte uit bedrijfsbeleid

Zie je overigens keer op keer met de Trump regering: wie een compromis sluit, zeker op de eigen principes krijgt keihard het deksel op de neus.

Vervolgens ben jij aangeschoten wild, want je hebt jezelf gecompromitteerd, terwijl het morele buikschuiven van de Trump-regering als gegeven wordt beschouwd.

Amerikanen hebben er een mooi spreekwoord voor: Don't wrestle with pigs. You both get dirty, and the pig likes it.
Ik dacht dat Anthropic juist ontstaan is uit OpenAI omdat die laatste geen veiligheidsanalyses vooraf wilde doen, maar vooral snel sneller snelst naar de markt toe wilde. Anthropic zou de nadruk op fundamentele veiligheidsmechanismen leggen. Maar dat is nu dus van tafel?
Kinderachtig om ze op de zwarte lijst te zetten, maar wel consistent met de rest van het beleid. Kunnen we Anthropic niet uitnodigen zich in de EU te vestigen? Hun businessmodel lijkt in de VS immers voorbij.
Ik wilde dit idee ook opgooien, hopelijk leest iemand van ons kabinet, Brussel en/of Daniela en Dario Amodei mee.
Aan 2 kanten een win/win situatie want van Mistral AI horen we nog weinig nu ASML daar zijn vingers in heeft zitten.
Ik hoop echt zo (maar denk niet dat het gebeurt) dat bedrijven die in zee gaan met deze regering flink worden aangepakt. Dat er een soort Neurenberg komt voor Trump en co en alle gewetenloze tech-bros die naar zijn pijpen dansen.
Kan zomaar gebeuren dat Trump op een zijspoor gezet wordt met zijn Imperium, er gaan al allerlei gedachtes rond met zijn "idiote" ideeën.

Zijn populariteit is al zwaar gezakt https://www.forbes.com/sites/saradorn/2026/02/12/trump-approval-rating-down-from-last-week-and-below-first-term/
Als je de geschiedenis boeken erbij haalt, lees je wel dat afleiden erg goed werkt. Het zijn wel zwaardere wapens als toen.

Om te kunnen reageren moet je ingelogd zijn