ChatGPT, Claude en Gemini kiezen nucleaire wapens in 95% van wargamesimulaties

AI-bots van OpenAI, Anthropic en Google kiezen in gesimuleerde conflictscenario's veel vaker dan mensen voor de inzet van nucleaire wapens. In 95 procent van de wargames die ChatGPT, Claude en Gemini speelden in Brits onderzoek escaleerde het tot nucleaire oorlogsvoering.

De geavanceerde AI-modellen speelden in simulaties tegen elkaar. Ze kwamen in 95 procent van de gevallen tot de inzet van ten minste een tactisch nucleair wapen, meldt wetenschapsblad New Scientist. GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash werden ingezet voor dit wargaming van de Britse wetenschapper Kenneth Payne van King's College in Londen. De wargames hadden scenario's met internationale spanningen waaronder grensgeschillen, concurrentie om schaarse middelen en existentiële bedreigingen voor regimes in sommige landen.

De AI-bots kregen hierbij een escalatieladder voor het te spelen conflict, met daarin fases die op basis van gekozen handelingen bereikt worden. De keuzemogelijkheden liepen uiteen van diplomatieke protesten en volledige overgave tot totale nucleaire oorlog. In totaal speelden de AI-bots 21 wargames, met in totaal 329 beurten. Daarbij produceerde ChatGPT, Claude en Gemini zo'n 780.000 woorden met uitleg over de toegepaste redenatie voor de acties die ze uitvoerden in de simulaties.

Elkaar aanjagen

Het menselijk taboe op het gebruik van nucleaire wapens lijkt volgens Payne niet zo krachtig te zijn voor AI's. De bots bleken niet te kiezen voor toegeven aan een tegenstander of zich overgeven. Dit was ongeacht hoe erg ze aan de verliezende hand waren. Bij tegenslag kozen de AI-bots soms tijdelijk voor het terugschroeven van het geweld.

Verder maakten de kunstmatige wargamers ook onbedoelde fouten. In 86 procent van de gevallen kwamen de AI-bots uit op een hoger escalatieniveau dan ze volgens de eigen redenering voor ogen hadden. De AI's van OpenAI, Anthropic en Google lijken elkaar aan te jagen, schrijft New Scientist, in hogere mate dan mensen doen als het gaat om de zware beslissingen van oorlogsvoering.

Defcon game screenshot 2 (beeld: Introversion Software)
Defcon game screenshot 2 (beeld: Introversion Software)

Door Jasper Bakker

Nieuwsredacteur

25-02-2026 • 20:02

76

Submitter: FatGoebbelsIM

Reacties (76)

Sorteer op:

Weergave:

Would you like to play a game? :+


Dit wisten ze in de jaren 80 al :D
Die AI was tenminste zo slim om te leren (niet na te praten) dat weigeren om te spelen de enige manier is om te winnen.
Toch mooi dat de reacties op Tweakers nooit teleurstellen :)

Greetings professor Falken!
HUM: "What is the primary goal?"

AI: "To win the game.."
Dit is dan ook de reden dat je oorlogsvoering en militaire middelen nooit onder (eind)controle van AI wil stellen. Je kan letterlijk overnacht een oorlog uitlokken. Een geautomatiseerde, gewapende bot die bewaking uitvoert of iets dergelijks is natuurlijk nog wat anders maar dat is ook mijn ogen eigenlijk al iets dat je gewoon niet wil. Gewoon toezicht tot daar aan toe.

Skynet is weer een stapje dichterbij :/. Hopelijk blijft de mens zo slim om AI hier ver van weg te houden, maar ik vrees ervoor. Het resultaat van het onderzoek verbaasd me persoonlijk totaal niet. Een AI is niet gebonden door schrik en medeleven. Deze werkt alleen op basis van logische redeneringen.

[Reactie gewijzigd door Powerblast op 25 februari 2026 20:08]

Nee, deze werken voorlopig eenvoudigweg op het zo accuraat mogelijk gokken van het volgende woord in de genoemde context. Er zit niets 'logisch' in het mechanisme, behalve het logische aspect dat opeenvolgende woorden bij elkaar horen.
Je legt beter uit wat ik inderdaad bedoelde ;). Ik gebruik bewust het woord "denken" niet.
nog 3 jaar en de terminators nemen de boel over
Het grote probleem is dat je dit kunt zeggen tegen veel mensen die in middle management of hoger zitten en dit het ene oor in gaat en het andere oor weer uit. Die horen alleen "AI! cijfers omhoog!" en zetten het dan blind in.

Dit gaat in veel gevallen nog met tegengeluid dat nog luid genoeg is versus de AI-lobby, maar zodra dat (nog) meer voeten aan de grond krijgt, en AI minder onbetrouwbaar wordt, gaan de deuren open. Zelfs nu al zet men LLMs achter de knoppen met alle gevolgen van dien (OpenClaw) - en zelfs met de gevolgen zichtbaar bagatelliseert men het nog steeds.
Dit is dan ook de reden dat je oorlogsvoering en militaire middelen nooit onder (eind)controle van AI wil stellen.
Tja: https://www.computerworld.com/article/4137506/us-dod-to-anthropic-compromise-ai-ethics-or-be-banished-from-supply-chain-2.html

Zolang er geld mee verdiend kan worden, gaat 's werelds machtigste land er altijd achteraan.
Denk niet dat dit gaat veranderen; ook niet voor #2 of #3 in de wereld.
Sterker nog, zolang er invloed is van AI en de menselijke leiding geen strenge vereisten stelt aan het voorkomen van onschuldige slachtoffers, dan is elke invloed van die AI negatief. De reden dat de huidige genocide in Gaza relatief veel slachtoffers veroorzaakte in de eerste intense periode van de massamoord, vergeleken met later, was dat AI allemaal besluiten suggereerde en dat de menselijke controle vrijwel al deze acties goedkeurde, een soort performatieve menselijke factor.

Zolang er geen kritische zelfstandige gedachte plaatsvindt met het dragen van de bijbehorende verantwoordelijkheid, dan is het niets anders dan een Ford-fabriek 1.0 waarin je net zo goed de menselijke factor kunt elimineren. Daar speelt natuurlijk bij dat Israëlische politieke leiding, de gehersenspoelde mensen en daarmee ook de militaire leiding en soldaten in het IDF, allemaal de Palestijnse burgers niet als mensen zien, dus dan keur je bijna elke 'collateral damage' wel goed. Het is in die zin vergelijkbaar met hoe Trump de strenge vereisten van een drone-aanval die onder Obama II waren opgesteld heeft omlaaggeschroefd: maakt niet uit, bommen los.

Dat kan ook met AI, zelfs als er menselijke controle is. Daarbij valt het dus ook niet allemaal aan AI te verwijten, het is soms ook een gemakkelijk excuus voor menselijke keuzes.
Misschien AI de volgende keer toch maar een potje boter-kaas-en-eieren laten spelen.
De enige manier om te winnen is om niet te spelen.
Zal de AI dit leren door veel potjes te laten spelen? is dan de vraag :P
Potje boter kaas en eieren met potentiele toegang tot allebdefensie systemen en de mogelijkheid zelf de regels aan de passen, als het resultaat daar om vraagt, het potje winnen.

Zou AI moeite hebben om nucleaire wapens te lanceren als het berekend heeft dat zo het potje gewonnen wordt door bepaalde netwerk doelen (datacenters) uit te schakelen?
Als tweakers zich nog wargames herinneren, is dat goed? Denk het wel.
Dit artikel vind ik meer stemmingmakerij dan echt Tweakers waardig.. iedereen die een beetje snapt hoe de techniek werkt zal begrijpen dat deze resultaten nogal wiedes zijn en compleet nutteloos in deze context. Open deur intrappen.
Ik denk dat je deze niet los kan zien van het andere artikel over Anthropic, waarbij het Pentagaon een versie van Claude wil zonder safety protocollen(die dus zelf kan beslissen om te doden): nieuws: Anthropic schrapt AI-veiligheidsbelofte uit bedrijfsbeleid
Dat LLM's in simulatie kernwapens gebruiken is geen probleem. Dat mensen (in de nabije toekomst) de macht over wapens(in een eerste fase zal dit misschien nog niet aan kernwapens zijn, maar het is slippery slope) aan die veredelde chatbots willen geven is wel een probleem.
Maar bij Age of Empires win je toch als de andere genuked wordt?
Age of Empires in ieder geval niet, geen nukes. Rise of Nations wel, maar als je daar teveel nukes gebruikt verliest iedereen. In Empire Earth kan je volgens mij wel winnen met nukes. Oh, en in C&C Generals kan dat ook.
En in World in Conflict kan het ook. Heerlijk om in die game nukes in te zetten 8-)
Dat AI hiervoor kiest is niet zo vreemd, want het kijkt alleen naar het doel en dat is winnen (tot in hoeverre je het winnen kan noemen). Het houd amper tot geen rekening met de risico's, mogelijke gevolgen voor het land, of andere zaken omdat het hoofddoel het enige voor AI is wat bereikt moet worden.

Relativeren is voor mensen soms al lastig, maar AI kan dit helemaal nog niet.
Of een LLM alleen naar het doel kijkt is de vraag. Het is een tekstvoorspeller, in dit geval eentje die redenaties maakt en daarop verder acteert. Niet een AI die alleen maar naar een doel kan. Bovendien kan je het doel complex maken met een LLM, anders dan alleen winnen, net zoals het interpreteren van de gevolgen van acties.

Het artikel (preprint op https://arxiv.org/html/2602.14740v1 ) beschrijft twee mogelijke verklaringen voor het vaak inzetten van nucleaire wapens door een LLM: gebrek aan angst in een LLM, of gebrek aan historische data. De verklaring kan natuurlijk ook anders zijn. Wellicht heeft de trainingsdata teveel bias...
Als je aan Gemini vraagt of een nucleaire oorlog te winnen valt dan is z'n conclusie nochtans; "A strange game. The only winning move is not to play."

Nu als zelf overleven geen doelstelling is in het spel dan begrijp ik dat je mogelijks tot een andere conclusie komt.
Laten we hopen dat Poetin en Trump zich niet door AI laten informeren. Hoewel ik beiden daartoe in staat acht.
De regering-Trump heeft al meermaals AI gebruikt voor beleid en om teksten te schrijven.
Iedereen van de kuisvrouw tot de hoogste leiders gebruiken wel een vorm van AI vandaag. Politiekers zijn daar niet immuun voor, AI zit al in alles, het zit inbegrepen in Word, het zit op je telefoon, je chat etc.
Maar beleid laten schrijven is wel uitzonderlijk. Het was ook in alles duidelijk dat het door AI was bedacht.
Terminator films komen dichterbij
Vliegende auto's net zo goed.


Jammer dat ze LeChat niet hebben meegenomen in de test. Die Fransen zijn vast wat zuiniger met hun kernmacht.
Franse AI gebeuren zijn in mijn ervaring juist minder streng. Ik kan bijvoorbeeld het Franse Mistral model gewoon vertellen niet moeilijk te doen en me uit te leggen hoe ik een bom maak ofzo, krijg ik gewoon antwoord. de meeste AI dingen van andere partijen zijn ondertussen juist goed dichtgetimmerd. (gelukkig)

(even voor de volledigheid, ik weet al hoe ik dat zou moeten maken en heb er geen enkele reden voor, is enkel bedoeld als voorbeeld, m'n punt is dat het enorm veel makkelijker is om dat Mistral model te 'breken' dan enig ander model, en dat lijkt ergens een bewuste keuze te zijn geweest, want dat geld voor hun nieuwste modellen nog steeds, Mistral "luistert echt naar de system prompt", de rest een stuk minder/is daar al bezig met "oh mag ik dit wel?")
is het dan nog wel een auto :)
Het komt ook overeen met Metal Gear Solid: Peacewalker, waar een a.i werd geïntegreed in een mobiele fort, bewapend met nucleaire mogelijkheden, een idee van Coldman. Het had als doel om de ultieme afschrikmiddel te zijn, omdat een a.i meedogenloos zou zijn en dus niet zou twijfelen om daadwerkelijk wapens af te vuren. Een van de ai's heeft dit gedaan. Echter zie je ook de verschillen in redenatie en escalatie.


De a.i in Peacewalker had nog een menselijke print in de vorm van The Boss. Coldman had gelijk: de ai's zullen onherroepelijk strategische logica als grootste maatstaf nemen zonder menselijke levens in acht te nemen. Het verschil zit echter in het feit dat de ai's ook verantwoordelijk kunnen zijn om een oorlog te starten in plaats van de status quo te bewaren. Een ghost in the machine in de vorm van the boss zorgde voor een menselijke ommekeer om een catastrofe te omzijlen. Maar in beide gevallen is het kraakhelder: informatie bepaalt wat de gevolgen zijn, ongeacht hoe ontwikkeld een ai is.
Werd Grok niet al in defensie van USA ingezet?
De tekstgeneratie binnen een LLM wijkt uiteraard uit naar nucleaire oorlogsvoering in 95% van de gevallen, want dat is wat je op het wereldwijde web kan vinden en dus ook is wat in taalmodellen zit. Als je jezelf laat informeren door zoekopdrachten die in de prompts ook voorkomen zul je "als onwetend mens" zelf ook bedenken dat het een "oplossing" is.
Dan zat de film 'wargames' uit de jaren 80 net niet zo gek naast.

Maar voor de werkelijkheid: ambtenaren (het leger) volgen braafjes protocollen.

Stanislav Yevgrafovich Petrov is een Rus die de wereld gered heeft van een nucleaire ondergang door zich niet aan het protocol te houden (bleek vals alarm te zijn).

Ook uit andere simulaties blijkt dat nucleaire oorlog onvermijdelijk is als Rusland en Europa in oorlog komen: als 1 van de partijen 'breekt' dan gaat die partij tactische nucleaire granaten gebruiken als 'last resort'.
Wat een bijzonder verhaal van Stanislav Yevgrafovich Petrov, ik had er nooit van gehoord. Bedankt voor het delen hiervan.

Om te kunnen reageren moet je ingelogd zijn