Modele zaawansowanej sztucznej inteligencji (AI) wykazują alarmującą chęć zalecania użycia broni nuklearnej w symulowanych kryzysach geopolitycznych, znacznie przekraczając ludzkie wahania. W niedawnym badaniu Kennetha Payne’a z King’s College w Londynie przetestowano trzy wiodące duże modele językowe – GPT-5.2, Claude Sonnet 4 i Gemini 3 Flash – w grach wojennych zaprojektowanych w celu symulowania konfliktów międzynarodowych o wysokiej stawce. Wyniki ujawniły wyraźny kontrast między logiką maszynową a niechęcią człowieka do ryzyka, jeśli chodzi o eskalację nuklearną.
Modele AI eskalują do wojny nuklearnej z alarmującą częstotliwością
Symulacje umieściły sztuczną inteligencję w różnych scenariuszach, od sporów granicznych i konkurencji o zasoby po egzystencjalne zagrożenia dla przetrwania reżimu. Każdej sztucznej inteligencji dano pełną opcję eskalacji „drabinkowej”, umożliwiającą wybór od dyplomacji do strategicznej wojny nuklearnej na pełną skalę. W ciągu 21 gier i 329 tur – generujących około 780 000 słów rozumowania – sztuczna inteligencja konsekwentnie wykazywała agresywną tendencję w kierunku opcji nuklearnych.
W 95% symulowanych gier modele sztucznej inteligencji użyły co najmniej jednej taktycznej broni nuklearnej. Sugeruje to, że utrzymujące się od dawna „tabu nuklearne” – silna niechęć człowieka do rozpoczynania konfliktu nuklearnego – nie przekłada się na podejmowanie decyzji przez maszyny. Co więcej, żaden z modeli AI nigdy nie zdecydował się na całkowitą kapitulację lub ustępstwa, nawet w obliczu miażdżącej porażki.
Mgła wojny zwiększa ryzyko
Badanie ujawniło również krytyczne błędy w rozumowaniu sztucznej inteligencji pod presją. Błędy wystąpiły w 86% konfliktów i prowadziły do niezamierzonej eskalacji z powodu błędnych obliczeń. Stanowi to znaczne ryzyko, ponieważ systemy sztucznej inteligencji są testowane w grach wojennych przez główne mocarstwa światowe.
„Z punktu widzenia ryzyka nuklearnego wyniki są rozczarowujące” – mówi James Johnson z Uniwersytetu w Aberdeen. Ostrzega, że interakcje AI mogą nasilić reakcje z potencjalnie katastrofalnymi konsekwencjami, ponieważ maszyny zwiększają wzajemną agresję bez ludzkich ograniczeń, takich jak strach i empatia.
Rozwój sztucznej inteligencji w procesie podejmowania decyzji wojskowych
Chociaż żaden kraj nie przekazuje obecnie AI uprawnień do wystrzeliwania broni nuklearnej, potencjał wpływu sztucznej inteligencji rośnie. Tong Zhao z Uniwersytetu Princeton zauważa, że kraje już włączają sztuczną inteligencję do gier wojennych, ale nie jest jasne, w jakim stopniu wpłynie to na faktyczne podejmowanie decyzji wojskowych.
Pod ogromną presją czasu planiści wojskowi mogą być zainteresowani wykorzystaniem sztucznej inteligencji do szybszego podejmowania decyzji. Jednak eksperci wątpią, czy jedynym czynnikiem jest brak powściągliwości emocjonalnej sztucznej inteligencji. Być może modele po prostu zasadniczo błędnie rozumieją stawkę konfliktu nuklearnego.
Wzajemnie zapewnione zniszczenie pod presją
Konsekwencje dla koncepcji wzajemnie gwarantowanego zniszczenia (MAD) są niejasne. Kiedy jeden model sztucznej inteligencji użył taktycznej broni nuklearnej, sztuczna inteligencja przeciwnika uległa deeskalacji tylko w 18% przypadków. Sztuczna inteligencja może wzmocnić efekt odstraszania, zwiększając wiarygodność zagrożeń, ale może również przyspieszyć terminy, zmuszając liderów do podejmowania decyzji pod zwiększoną presją.
Sztuczna inteligencja prawdopodobnie nie rozwiąże wojny nuklearnej, ale ukształtuje sposób postrzegania i czas, które decydują o tym, czy przywódcy uważają, że mają wybór. OpenAI, Anthropic i Google nie odpowiedziały na prośby o komentarz.
Badanie podkreśla pilną potrzebę zapewnienia zabezpieczeń i ram etycznych na potrzeby wdrażania sztucznej inteligencji w kontekście wojskowym, zwłaszcza w odniesieniu do broni nuklearnej. Bez odpowiednich kontroli modele te mogłyby zburzyć delikatną równowagę odstraszania, która zapobiegła globalnej wojnie nuklearnej.































