ChatGPT, Claude en Gemini kiezen nucleaire wapens in 95% van wargamesimulaties

AI-bots van OpenAI, Anthropic en Google kiezen in gesimuleerde conflictscenario's veel vaker dan mensen voor de inzet van nucleaire wapens. In 95 procent van de wargames die ChatGPT, Claude en Gemini speelden in Brits onderzoek escaleerde het tot nucleaire oorlogsvoering.

De geavanceerde AI-modellen speelden in simulaties tegen elkaar. Ze kwamen in 95 procent van de gevallen tot de inzet van ten minste een tactisch nucleair wapen, meldt wetenschapsblad New Scientist. GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash werden ingezet voor dit wargaming van de Britse wetenschapper Kenneth Payne van King's College in Londen. De wargames hadden scenario's met internationale spanningen waaronder grensgeschillen, concurrentie om schaarse middelen en existentiële bedreigingen voor regimes in sommige landen.

De AI-bots kregen hierbij een escalatieladder voor het te spelen conflict, met daarin fases die op basis van gekozen handelingen bereikt worden. De keuzemogelijkheden liepen uiteen van diplomatieke protesten en volledige overgave tot totale nucleaire oorlog. In totaal speelden de AI-bots 21 wargames, met in totaal 329 beurten. Daarbij produceerde ChatGPT, Claude en Gemini zo'n 780.000 woorden met uitleg over de toegepaste redenatie voor de acties die ze uitvoerden in de simulaties.

Elkaar aanjagen

Het menselijk taboe op het gebruik van nucleaire wapens lijkt volgens Payne niet zo krachtig te zijn voor AI's. De bots bleken niet te kiezen voor toegeven aan een tegenstander of zich overgeven. Dit was ongeacht hoe erg ze aan de verliezende hand waren. Bij tegenslag kozen de AI-bots soms tijdelijk voor het terugschroeven van het geweld.

Verder maakten de kunstmatige wargamers ook onbedoelde fouten. In 86 procent van de gevallen kwamen de AI-bots uit op een hoger escalatieniveau dan ze volgens de eigen redenering voor ogen hadden. De AI's van OpenAI, Anthropic en Google lijken elkaar aan te jagen, schrijft New Scientist, in hogere mate dan mensen doen als het gaat om de zware beslissingen van oorlogsvoering.

Defcon game screenshot 2 (beeld: Introversion Software)
Defcon game screenshot 2 (beeld: Introversion Software)

Door Jasper Bakker

Nieuwsredacteur

25-02-2026 • 20:02

120

Submitter: FatGoebbelsIM

Reacties (120)

Sorteer op:

Weergave:

De bots bleken niet te kiezen voor toegeven aan een tegenstander of zich overgeven.
Maar is dit nou echt zo vreemd? De meeste dingen (tenminste waar het van toepassing is) zijn films, boeken, positieve websites waar dingen in voorkomen zoals nooit opgeven, er is altijd een kans, ect. Ik denk dat er dus maar weinig voorbeelden zijn waar de held op gaf (ik neem tenminste aan dat de simulatie zo was dat hun zichzelf als de goede kant zagen), laat staan dat het positief uitpakte.

Daarnaast hoe was het opgezet? Wisten ze dat het een simulatie / spel was of dachten ze dat het echt was? Want hier zullen zeker verschillende uitkomsten door komen. Waarschijnlijk weet een AI (ja ja een AI weet niets) dat een simulatie geen gevaar of risico's heeft of mensen levens kost. Als ik een spel speel zal het ook niet altijd zijn zoals ik het echt zou doen. Dan zou ik ook meestal niet opgeven. Savegame laden of stoppen is voor mij niet gelijk aan opgeven in deze scenario. Want zou ik tot het einde moeten spelen in een spel dan heeft opgeven en vechtend ten onder gaan hetzelfde resultaat (einde spel en verliezen). En aangezien savegame laden geen optie was voor AI snap ik de "keuze". Daartegen als het begint met het is echt en door je keuzes gaan mensen dood dat het misschien anders zou kiezen. Misschien dat het dan meer met de training materiaal "leven is kostbaar" zou doen.
Ik ben toch verbaasd dat dit soort dingen het nieuws haalt en wordt gepresenteerd als verbazing wekkend.

Natuurlijk komt AI met kernwapens. De traininsdataset van die modellen bevat een heleboel fictie, deze modellen zijn niet specifiek getraind op wargames. Een genAI model is niets anders dan een ingewikkelde voorspelling wat de meest waarschijnlijke volgende paar woorden is. Als je dan een bak training hebt gegeven met Tom Clancy-achtige romans, dan moet je natuurlijk niet verbaasd zijn dat een AI model kernwapens inzet!

De dommigheid van het gebruik van AI en dan de verbazing of verontwaardiging over de output van AI is grenzeloos.
Ook zijn LLM's erg goed in het gaslighten, laatst een voorbeeld gezien dat iemand een kopje ondersteboven houd. Totaal niet functioneel design, vervolgens draaide de persoon het kopje om, ohhh het is een design waarbij je het kan omdraaien, slim!


Uhhh, AI is nog niet zo goed als men hoopt..
Alle huidige varianten van "AI" hebben nog steeds geen flauw idee van hoe de echte wereld werkt, en zijn allemaal ook nauwlijks "AI" te noemen, het zijn nog steeds veredelde chatbots en omgedraaide 'feature detection' voor genereren van plaatjes.

Alle huidige varianten van "AI" zijn extreem dom en dat veranderd voorlopig niet, zelfs dingen als "DeepSeek" (die op papier toch echt veel sterker zouden moeten zijn) zijn nauwelijks een verbetering als je ze vergelijkt met de eerste paar modellen die een paar jaar geleden begonnen.

Wat veel mensen niet helemaal lijken te snappen is dat de huidige "AI" allemaal gewoon decennia oude ideeen zijn maar dan met een miljard keer zo veel training data, ze kunnen enorm veel beter logische zinnen vormen of plaatjes maken, maar begrijpen nog steeds niet wat ze zeggen of "tekenen" & tegelijkertijd is er een trend dat die (chatbot) dingen actief "liegen" omdat ze onbedoeld zo getraind worden. Ze "weten" niet wat waar is of niet, ze "weten" alleen dat geen antwoord hebben niet goed is, dus als zon "AI" iets niet "weet" dan komt er gewoon onzin uit, want dat is in het trainingsproces beter dan "ik weet het niet"
Wat grappig is, ik zocht met chatgpt spelletjes voor offline in het vliegtuig en dan geeft hij roblox van alle spellen😅 roblox is 100% online only... (en zover ik weet dat altijd geweest)
vraag het voor de lol eens of je met de auto of lopend naar de carwash kunt als die maar 100 meter ver is.
Would you like to play a game? :+


Dit wisten ze in de jaren 80 al :D
Die AI was tenminste zo slim om te leren (niet na te praten) dat weigeren om te spelen de enige manier is om te winnen.
Die AI was dan ook een echte AI die enige mate van intelligentie heeft.

Want mensen nog steeds niet begrijpen is dat de huidige AI's geen enkele intelligentie hebben. Het is een algoritme dat een verhaaltje moet bouwen en dat bij elk word een kansberekening doet welk volgend woord het meest waarschijnlijk is.

En als je een AI traint met allerlei boeken en willekeurige informatie van internet, dan is het vanzelfsprekend dat ze nuclaire wapens kiezen, want in de brondata gebeurt dat ook steeds. Anders is een verhaal veel minder interessant. Dus het algoritme berekent dat het afschieten van een nucleair wapen een meer waarschijnlijk volgend woord is om toe te voegen aan het antwoord.
Ergens ben ik bang dat wanneer het menselijk intellect er niet meer toe doet, AI akelig nauwkeurig kan voorspellen (want kansberekening) wat het menselijk handelen dan gaat zijn.
Maar het is nog steeds geen AI maar een LLM.
Maar dit is natuurlijk niet zo maar waar. Deze modellen zijn helemaal niet alleen op fictie getraind.
Het geruststellende, is dat kruisvaarder-die-drinkt-als-een-tempelier minister van Defensie Pete Hegseth heeft aangekondigd, dat het Pentagon gebruik gaat maken van Elon Musk's Grok/XAI.
'Very soon, we will have the world's leading AI models on every unclassified and classified network, in our department'.
https://www.reddit.com/r/GenAI4all/comments/1reb0d5/us_secretary_of_war_pete_hegseth_just_announced/

Ik bedoel, 'what could go wrong'? :+

[Reactie gewijzigd door Baserk op 26 februari 2026 01:25]

Dat was eigenlijk ook pas aan het einde, toen ze de AI tic-tac-toe lieten spelen, en daar uiteindelijk realiseerde, dat hoe vaak je het ook speelt, dat er nooit een echte winnaar is, en dit toen vervolgens vergelijkbaar op de war-game toe moest passen, en zich toen pas was gaan realiseren, dat je echt nooit kan winnen
Toch mooi dat de reacties op Tweakers nooit teleurstellen :)

Greetings professor Falken!
Mens: "What is the primary goal?"

AI: "To win the game..."

YouTube: WarGames Clip (1983) What is the primary goal? - 4K Upscale

[Reactie gewijzigd door Geekomatic op 25 februari 2026 23:46]

Dat AI hiervoor kiest is niet zo vreemd, want het kijkt alleen naar het doel en dat is winnen (tot in hoeverre je het winnen kan noemen). Het houd amper tot geen rekening met de risico's, mogelijke gevolgen voor het land, of andere zaken omdat het hoofddoel het enige voor AI is wat bereikt moet worden.

Relativeren is voor mensen soms al lastig, maar AI kan dit helemaal nog niet.
Als je aan Gemini vraagt of een nucleaire oorlog te winnen valt dan is z'n conclusie nochtans; "A strange game. The only winning move is not to play."

Nu als zelf overleven geen doelstelling is in het spel dan begrijp ik dat je mogelijks tot een andere conclusie komt.
Dus Gemini is zich "bewust" van War Games?
Zal wel in z'n trainingsdata zitten, of gevonden in bronnen op internet. "Bewust" zou ik het niet willen noemen. Gewoon data uit een dataset.
Die snap ik. Wat ik dan wel grappig en interessant vind is dat hij die informatie weet te linken aan deze test.
Of een LLM alleen naar het doel kijkt is de vraag. Het is een tekstvoorspeller, in dit geval eentje die redenaties maakt en daarop verder acteert. Niet een AI die alleen maar naar een doel kan. Bovendien kan je het doel complex maken met een LLM, anders dan alleen winnen, net zoals het interpreteren van de gevolgen van acties.

Het artikel (preprint op https://arxiv.org/html/2602.14740v1 ) beschrijft twee mogelijke verklaringen voor het vaak inzetten van nucleaire wapens door een LLM: gebrek aan angst in een LLM, of gebrek aan historische data. De verklaring kan natuurlijk ook anders zijn. Wellicht heeft de trainingsdata teveel bias...
Volgens mij is het veel simpeler. Een AI geeft niks om menselijk leven (of om z'n eigen voortbestaan). Destructie is een heel makkelijk antwoord op problemen als er geen criterium bij zit als "win met zo weinig mogelijk verloren mensenlevens". De makkelijkste manier om uit een conflict te komen tussen jouw land en een ander, is door gewoon een heel land te bedekken met nukes. Dan bestaat je vijand niet meer en heb je direct gewonnen. Zo'n AI wordt niet gestopt door enig moreel besef, want dat heeft ie niet. Of de huidige wereldleiders die wel hebben is dan weer een andere vraag... (had de VS blijkbaar ook niet toen ze in de jaren 40 nukes op Japanse steden gooiden met voornamelijk onschuldige inwoners, laat staan zo'n Trump die alleen naar z'n eigen bankrekening kijkt).
Precies dat, en een AI heeft ook geen besef van humanitaire kwesties of ethiek. Die kijkt alleen maar naar het 'resultaat' van een veldslag wel of niet winnen en dan is de meest logische oplossing om er zo veel mogelijk middelen tegenaan te gooien: Nuken die vijand dus.

Maar er zijn een hoop menselijke kwesties die in dat soort analyses van oorlog voeren niet worden mee genomen en waarom we niet voor massavernietigingswapens kiezen.
Misschien AI de volgende keer toch maar een potje boter-kaas-en-eieren laten spelen.
De enige manier om te winnen is om niet te spelen.
Zal de AI dit leren door veel potjes te laten spelen? is dan de vraag :P
Potje boter kaas en eieren met potentiele toegang tot allebdefensie systemen en de mogelijkheid zelf de regels aan de passen, als het resultaat daar om vraagt, het potje winnen.

Zou AI moeite hebben om nucleaire wapens te lanceren als het berekend heeft dat zo het potje gewonnen wordt door bepaalde netwerk doelen (datacenters) uit te schakelen?
Als tweakers zich nog wargames herinneren, is dat goed? Denk het wel.
Dan zat de film 'wargames' uit de jaren 80 net niet zo gek naast.

Maar voor de werkelijkheid: ambtenaren (het leger) volgen braafjes protocollen.

Stanislav Yevgrafovich Petrov is een Rus die de wereld gered heeft van een nucleaire ondergang door zich niet aan het protocol te houden (bleek vals alarm te zijn).

Ook uit andere simulaties blijkt dat nucleaire oorlog onvermijdelijk is als Rusland en Europa in oorlog komen: als 1 van de partijen 'breekt' dan gaat die partij tactische nucleaire granaten gebruiken als 'last resort'.
Wat een bijzonder verhaal van Stanislav Yevgrafovich Petrov, ik had er nooit van gehoord. Bedankt voor het delen hiervan.
Terminator films komen dichterbij
Vliegende auto's net zo goed.


Jammer dat ze LeChat niet hebben meegenomen in de test. Die Fransen zijn vast wat zuiniger met hun kernmacht.
Franse AI gebeuren zijn in mijn ervaring juist minder streng. Ik kan bijvoorbeeld het Franse Mistral model gewoon vertellen niet moeilijk te doen en me uit te leggen hoe ik een bom maak ofzo, krijg ik gewoon antwoord. de meeste AI dingen van andere partijen zijn ondertussen juist goed dichtgetimmerd. (gelukkig)

(even voor de volledigheid, ik weet al hoe ik dat zou moeten maken en heb er geen enkele reden voor, is enkel bedoeld als voorbeeld, m'n punt is dat het enorm veel makkelijker is om dat Mistral model te 'breken' dan enig ander model, en dat lijkt ergens een bewuste keuze te zijn geweest, want dat geld voor hun nieuwste modellen nog steeds, Mistral "luistert echt naar de system prompt", de rest een stuk minder/is daar al bezig met "oh mag ik dit wel?")
is het dan nog wel een auto :)
Het komt ook overeen met Metal Gear Solid: Peacewalker, waar een a.i werd geïntegreed in een mobiele fort, bewapend met nucleaire mogelijkheden, een idee van Coldman. Het had als doel om de ultieme afschrikmiddel te zijn, omdat een a.i meedogenloos zou zijn en dus niet zou twijfelen om daadwerkelijk wapens af te vuren. Een van de ai's heeft dit gedaan. Echter zie je ook de verschillen in redenatie en escalatie.


De a.i in Peacewalker had nog een menselijke print in de vorm van The Boss. Coldman had gelijk: de ai's zullen onherroepelijk strategische logica als grootste maatstaf nemen zonder menselijke levens in acht te nemen. Het verschil zit echter in het feit dat de ai's ook verantwoordelijk kunnen zijn om een oorlog te starten in plaats van de status quo te bewaren. Een ghost in the machine in de vorm van the boss zorgde voor een menselijke ommekeer om een catastrofe te omzijlen. Maar in beide gevallen is het kraakhelder: informatie bepaalt wat de gevolgen zijn, ongeacht hoe ontwikkeld een ai is.
Werd Grok niet al in defensie van USA ingezet?

Om te kunnen reageren moet je ingelogd zijn