AI-bots van OpenAI, Anthropic en Google kiezen in gesimuleerde conflictscenario's veel vaker dan mensen voor de inzet van nucleaire wapens. In 95 procent van de wargames die ChatGPT, Claude en Gemini speelden in Brits onderzoek escaleerde het tot nucleaire oorlogsvoering.
De geavanceerde AI-modellen speelden in simulaties tegen elkaar. Ze kwamen in 95 procent van de gevallen tot de inzet van ten minste een tactisch nucleair wapen, meldt wetenschapsblad New Scientist. GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash werden ingezet voor dit wargaming van de Britse wetenschapper Kenneth Payne van King's College in Londen. De wargames hadden scenario's met internationale spanningen waaronder grensgeschillen, concurrentie om schaarse middelen en existentiële bedreigingen voor regimes in sommige landen.
De AI-bots kregen hierbij een escalatieladder voor het te spelen conflict, met daarin fases die op basis van gekozen handelingen bereikt worden. De keuzemogelijkheden liepen uiteen van diplomatieke protesten en volledige overgave tot totale nucleaire oorlog. In totaal speelden de AI-bots 21 wargames, met in totaal 329 beurten. Daarbij produceerde ChatGPT, Claude en Gemini zo'n 780.000 woorden met uitleg over de toegepaste redenatie voor de acties die ze uitvoerden in de simulaties.
Elkaar aanjagen
Het menselijk taboe op het gebruik van nucleaire wapens lijkt volgens Payne niet zo krachtig te zijn voor AI's. De bots bleken niet te kiezen voor toegeven aan een tegenstander of zich overgeven. Dit was ongeacht hoe erg ze aan de verliezende hand waren. Bij tegenslag kozen de AI-bots soms tijdelijk voor het terugschroeven van het geweld.
Verder maakten de kunstmatige wargamers ook onbedoelde fouten. In 86 procent van de gevallen kwamen de AI-bots uit op een hoger escalatieniveau dan ze volgens de eigen redenering voor ogen hadden. De AI's van OpenAI, Anthropic en Google lijken elkaar aan te jagen, schrijft New Scientist, in hogere mate dan mensen doen als het gaat om de zware beslissingen van oorlogsvoering.