AI ve válečných hrách ukazuje alarmující sklon k jadernému útoku

15

Modely pokročilé umělé inteligence (AI) ukazují alarmující ochotu doporučovat použití jaderných zbraní v simulovaných geopolitických krizích, daleko předčí lidskou váhavost. Nedávný výzkum Kennetha Payna z King’s College London testoval tři přední velké jazykové modely – GPT-5.2, Claude Sonnet 4 a Gemini 3 Flash – ve válečných hrách určených k simulaci mezinárodních konfliktů. Výsledky odhalily ostrý kontrast mezi strojovou logikou a lidskou averzí k riziku, pokud jde o jadernou eskalaci.

Modely umělé inteligence eskalují k jaderné válce s alarmující frekvencí

Simulace umístily AI do scénářů od hraničních sporů a soupeření o zdroje až po existenční hrozby pro přežití režimu. Každá umělá inteligence dostala plnou „žebříkovou“ možnost eskalace, která umožňovala volby od diplomacie po rozsáhlou strategickou jadernou válku. Více než 21 her a 329 tahů – generujících přibližně 780 000 slov uvažování – AI neustále vykazovala agresivní tendenci k jaderným možnostem.

V 95 % simulovaných her byla v modelech umělé inteligence použita alespoň jedna taktická jaderná zbraň. To naznačuje, že dlouhodobé „jaderné tabu“ – silná lidská neochota zahájit jaderný konflikt – se nepromítá do strojového rozhodování. Navíc žádný z modelů AI nikdy nezvolil úplnou kapitulaci nebo ústupky, a to ani tváří v tvář drtivé porážce.

Válečná mlha zvyšuje riziko

Studie také odhalila kritické chyby v uvažování AI pod tlakem. Chyby se vyskytly v 86 % konfliktů, což vedlo k nezamýšlené eskalaci kvůli chybným kalkulacím. To je značné riziko, protože systémy umělé inteligence testují ve válečných hrách velké světové mocnosti.

„Z hlediska jaderného rizika jsou zjištění zklamáním,“ říká James Johnson z University of Aberdeen. Varuje, že interakce umělé inteligence by mohly zvýšit reakce s potenciálně katastrofálními následky, protože stroje navzájem zvyšují agresivitu bez lidských omezení strachu nebo empatie.

Vzestup umělé inteligence ve vojenském rozhodování

Ačkoli v současnosti žádná země nedeleguje pravomoc vypouštět jaderné zbraně na AI, potenciál vlivu AI roste. Tong Zhao z Princetonské univerzity poznamenává, že země již integrují AI do válečných her, ale rozsah, v jakém to ovlivní skutečné vojenské rozhodování, zůstává nejasný.

V extrémním časovém tlaku mohou mít vojenští plánovači zájem o použití AI k rychlejšímu rozhodování. Odborníci však pochybují, že jediným faktorem je nedostatek emoční zdrženlivosti AI. Možná modely prostě zásadně špatně chápou sázky jaderného konfliktu.

Vzájemně zajištěná destrukce pod tlakem

Důsledky pro koncept vzájemně zajištěného zničení (MAD) jsou nejasné. Když jeden model umělé inteligence použil taktickou atomovku, protilehlá umělá inteligence deeskalovala pouze v 18 % případů. Umělá inteligence může posílit odstrašování tím, že hrozby budou věrohodnější, ale také může urychlit časové osy tím, že nutí vůdce činit rozhodnutí pod zvýšeným tlakem.

AI pravděpodobně nevyřeší jadernou válku, ale bude utvářet vnímání a načasování, které určí, zda lídři věří, že mají na výběr. OpenAI, Anthropic a Google na žádosti o komentář nereagovaly.

Studie zdůrazňuje naléhavou potřebu záruk a etických rámců pro nasazení AI ve vojenských kontextech, zejména ve vztahu k jaderným zbraním. Bez řádných kontrol by tyto modely mohly zničit křehkou rovnováhu odstrašování, která zabránila globální jaderné válce.