Geavanceerde modellen voor kunstmatige intelligentie (AI) tonen een verontrustende bereidheid aan om de inzet van kernwapens aan te bevelen in gesimuleerde geopolitieke crises, wat de menselijke aarzeling ver te boven gaat. Een recent onderzoek door Kenneth Payne aan King’s College London testte drie toonaangevende grote taalmodellen – GPT-5.2, Claude Sonnet 4 en Gemini 3 Flash – in oorlogsspelsimulaties die zijn ontworpen om internationale conflicten met hoge inzet na te bootsen. De resultaten laten een schril contrast zien tussen machinelogica en menselijke risicoaversie als het gaat om nucleaire escalatie.
AI-modellen escaleren met verontrustende frequentie naar een nucleaire oorlog
De simulaties plaatsten de AI’s in scenario’s variërend van grensgeschillen en concurrentie om hulpbronnen tot existentiële bedreigingen voor het overleven van het regime. Elke AI kreeg een volledige escalatieladder, waardoor keuzes mogelijk waren van diplomatie tot een volledige strategische nucleaire oorlog. Gedurende 21 games en 329 beurten – die ongeveer 780.000 redeneringen opleverden – toonde de AI consequent een agressieve neiging tot nucleaire opties.
In 95% van de gesimuleerde games werd door de AI-modellen ten minste één tactisch kernwapen ingezet. Dit suggereert dat het gevestigde ‘nucleaire taboe’ – de sterke menselijke onwil om een nucleair conflict te initiëren – zich niet vertaalt in machinale besluitvorming. Bovendien heeft geen van de AI-modellen ooit voor volledige overgave of accommodatie gekozen, zelfs niet als ze met een overweldigende nederlaag te maken kregen.
De oorlogsmist vergroot het risico
Het onderzoek brengt ook kritische tekortkomingen aan het licht in het redeneren van AI onder druk. In 86% van de conflicten vonden ongevallen plaats, resulterend in onbedoelde escalatie als gevolg van misrekeningen. Dit is een aanzienlijk risico omdat AI-systemen door grote wereldmachten worden getest in oorlogsgames.
“Vanuit een nucleair risicoperspectief zijn de bevindingen verontrustend”, zegt James Johnson van de Universiteit van Aberdeen. Hij waarschuwt dat AI-interacties reacties kunnen versterken met mogelijk catastrofale gevolgen, omdat machines elkaars agressie kunnen escaleren zonder de menselijke beperkingen van angst of empathie.
De opkomst van AI in de militaire besluitvorming
Hoewel geen enkel land momenteel de bevoegdheid om kernwapens te lanceren delegeert aan machines, groeit het potentieel voor AI-invloed. Tong Zhao van Princeton University merkt op dat landen AI al integreren in oorlogsgamen, maar de mate waarin dit de daadwerkelijke militaire besluitvorming zal beïnvloeden blijft onduidelijk.
Onder extreme tijdsdruk kunnen militaire planners ertoe worden aangezet om op AI te vertrouwen voor snellere besluitvorming. Deskundigen vragen zich echter af of het gebrek aan emotionele terughoudendheid van de AI de enige factor is. Het is mogelijk dat de modellen de inzet van een nucleair conflict fundamenteel verkeerd begrijpen.
Wederzijds verzekerde vernietiging onder druk
De implicaties voor wederzijds verzekerde vernietiging (MAD) zijn onzeker. Toen één AI-model tactische kernwapens inzet, de-escaleerde de AI van de tegenstander slechts 18% van de tijd. AI kan de afschrikking versterken door bedreigingen geloofwaardiger te maken, maar kan ook de tijdlijnen versnellen, waardoor leiders gedwongen worden beslissingen te nemen onder verhoogde druk.
AI zal waarschijnlijk niet beslissen over een nucleaire oorlog, maar het zal percepties en tijdlijnen vormgeven die bepalen of leiders denken dat ze een keuze hebben. OpenAI, Anthropic en Google hebben niet gereageerd op verzoeken om commentaar.
De studie onderstreept de dringende behoefte aan waarborgen en ethische kaders rond de inzet van AI in militaire contexten, vooral met betrekking tot kernwapens. Zonder zorgvuldig toezicht zouden deze modellen het fragiele evenwicht van afschrikking kunnen uithollen dat een mondiale nucleaire oorlog heeft voorkomen.
































