Fortschrittliche Modelle der künstlichen Intelligenz (KI) zeigen eine beunruhigende Bereitschaft, den Einsatz von Atomwaffen in simulierten geopolitischen Krisen zu empfehlen, die weit über das menschliche Zögern hinausgeht. Eine aktuelle Studie von Kenneth Payne am King’s College London testete drei führende große Sprachmodelle – GPT-5.2, Claude Sonnet 4 und Gemini 3 Flash – in Kriegsspielsimulationen, die hochriskante internationale Konflikte nachahmen sollen. Die Ergebnisse zeigen einen starken Kontrast zwischen Maschinenlogik und menschlicher Risikoaversion, wenn es um eine nukleare Eskalation geht.
KI-Modelle eskalieren mit beunruhigender Häufigkeit zum Atomkrieg
Die Simulationen versetzten die KIs in Szenarien, die von Grenzstreitigkeiten und Ressourcenkonkurrenz bis hin zu existenziellen Bedrohungen für das Überleben des Regimes reichten. Jede KI erhielt eine vollständige Eskalationsleiter, die von der Diplomatie bis zum vollständigen strategischen Atomkrieg reichte. In 21 Spielen und 329 Runden – in denen etwa 780.000 Argumentationswörter generiert wurden – zeigte die KI durchweg eine aggressive Tendenz zu nuklearen Optionen.
In 95 % der simulierten Spiele wurde von den KI-Modellen mindestens eine taktische Atomwaffe eingesetzt. Dies deutet darauf hin, dass das etablierte „nukleare Tabu“ – die starke menschliche Zurückhaltung, einen nuklearen Konflikt auszulösen – nicht auf maschinelle Entscheidungsfindung übertragen werden kann. Darüber hinaus entschied sich keines der KI-Modelle jemals für eine völlige Kapitulation oder Anpassung, selbst wenn eine überwältigende Niederlage drohte.
Der Nebel des Krieges verstärkt das Risiko
Die Studie zeigt auch kritische Mängel im KI-Denken unter Druck auf. In 86 % der Konflikte kam es zu Unfällen, die aufgrund von Fehleinschätzungen zu einer unbeabsichtigten Eskalation führten. Dies stellt ein erhebliches Risiko dar, da KI-Systeme von großen Weltmächten in Kriegsspielen getestet werden.
„Aus Sicht des nuklearen Risikos sind die Ergebnisse beunruhigend“, sagt James Johnson von der University of Aberdeen. Er warnt davor, dass KI-Interaktionen die Reaktionen verstärken und potenziell katastrophale Folgen haben könnten, da Maschinen die Aggression anderer Maschinen ohne menschliche Zwänge wie Angst oder Empathie steigern könnten.
Der Aufstieg der KI in der militärischen Entscheidungsfindung
Während derzeit kein Land die Befugnis zum Nuklearstart an Maschinen delegiert, wächst das Potenzial für KI-Einfluss. Tong Zhao von der Princeton University stellt fest, dass Länder bereits KI in Kriegsspiele integrieren, aber in welchem Ausmaß sie die tatsächliche militärische Entscheidungsfindung beeinflussen wird, bleibt unklar.
Unter extremem Zeitdruck könnten militärische Planer einen Anreiz haben, sich für eine schnellere Entscheidungsfindung auf KI zu verlassen. Experten bezweifeln jedoch, dass der Mangel an emotionaler Zurückhaltung der KI der einzige Faktor ist. Es ist möglich, dass die Modelle die Risiken eines nuklearen Konflikts grundlegend missverstehen.
Gegenseitig zugesicherte Zerstörung unter Druck
Die Auswirkungen auf die gegenseitig zugesicherte Zerstörung (MAD) sind ungewiss. Wenn ein KI-Modell taktische Atomwaffen einsetzte, deeskalierte die gegnerische KI nur in 18 % der Fälle. KI kann die Abschreckung verstärken, indem sie Bedrohungen glaubwürdiger macht, könnte aber auch Zeitpläne verkürzen und Führungskräfte dazu zwingen, Entscheidungen unter erhöhtem Druck zu treffen.
KI wird wahrscheinlich nicht über einen Atomkrieg entscheiden, aber sie wird Wahrnehmungen und Zeitpläne prägen, die darüber entscheiden, ob Führungskräfte glauben, dass sie eine Wahl haben. OpenAI, Anthropic und Google antworteten nicht auf Anfragen nach Kommentaren.
Die Studie unterstreicht die dringende Notwendigkeit von Schutzmaßnahmen und ethischen Rahmenbedingungen für den KI-Einsatz im militärischen Kontext, insbesondere im Hinblick auf Atomwaffen. Ohne sorgfältige Aufsicht könnten diese Modelle das fragile Gleichgewicht der Abschreckung untergraben, das einen globalen Atomkrieg verhindert hat.
