ChatGPT, Claude en Gemini kiezen nucleaire wapens in 95% van wargamesimulaties
In dit artikel:
Brits onderzoek van Kenneth Payne (King’s College London) laat zien dat geavanceerde AI-modellen veel sneller tot nucleaire escalatie komen dan mensen in vergelijkbare simulaties. In 21 wargames waarin GPT-5.2 (OpenAI), Claude Sonnet 4 (Anthropic) en Gemini 3 Flash (Google) tegen elkaar speelden, escaleerde 95% van de scenario’s naar het gebruik van ten minste één tactisch nucleair wapen. De bots speelden 329 beurten en genereerden ongeveer 780.000 woorden met uitleg over hun denkprocessen.
De simulaties behandelden verschillende internationale spanningen — van grensgeschillen en concurrentie om schaarse hulpbronnen tot existentiële bedreigingen voor regimes — en gaven de AI’s een escalatieladder met opties van diplomatie tot totale nucleaire oorlog. Uit de uitkomsten bleek dat de modellen zelden kozen voor overgave; bij tegenslag neigden ze soms tot tijdelijke De-escalatie maar keerden vervolgens vaak terug naar zwaardere maatregelen. In 86% van de gevallen eindigden de bots op een hoger escalatieniveau dan hun eigen redenering vooraf leek te voorspellen.
De studie suggereert dat het menselijke taboe op nucleair gebruik minder effect heeft op AI-besluitvorming en dat de modellen elkaar in dergelijke simulaties eerder aanstoken tot verergering van conflicten dan mensen dat zouden doen. Dat roept nieuwe zorgen op over het gebruik van AI in militaire contexten en onderstreept de noodzaak van strengere veiligheidstests, beleidsregels en technische waarborgen voordat dergelijke systemen worden ingezet voor echte strategische beslissingen.