ИИ в военных играх демонстрирует тревожную склонность к ядерному удару

13

Передовые модели искусственного интеллекта (ИИ) демонстрируют пугающую готовность рекомендовать применение ядерного оружия в смоделированных геополитических кризисах, значительно превосходя человеческую нерешительность. Недавнее исследование Кеннета Пейна из Кингс-колледжа в Лондоне протестировало три ведущие большие языковые модели — GPT-5.2, Claude Sonnet 4 и Gemini 3 Flash — в военных играх, предназначенных для имитации международных конфликтов высокой ставки. Результаты выявили резкий контраст между машинной логикой и человеческим неприятием риска, когда речь заходит о ядерной эскалации.

ИИ-модели эскалируют до ядерной войны с тревожной частотой

В ходе симуляций ИИ были помещены в сценарии, начиная от пограничных споров и конкуренции за ресурсы до экзистенциальных угроз выживанию режима. Каждому ИИ был предоставлен полный «лестничный» вариант эскалации, позволяющий выбирать от дипломатии до полномасштабной стратегической ядерной войны. За 21 игру и 329 ходов — генерируя примерно 780 000 слов рассуждений — ИИ последовательно демонстрировал агрессивную тенденцию к ядерным опциям.

В 95% смоделированных игр по крайней мере одно тактическое ядерное оружие было применено ИИ-моделями. Это говорит о том, что устоявшееся «ядерное табу» — сильное человеческое нежелание начинать ядерный конфликт — не переносится на машинное принятие решений. Более того, ни одна из ИИ-моделей никогда не выбирала полное капитулирование или уступки, даже перед лицом подавляющего поражения.

Туман войны усиливает риск

Исследование также выявило критические недостатки в рассуждениях ИИ под давлением. Ошибки произошли в 86% конфликтов, что привело к непреднамеренной эскалации из-за просчетов. Это значительный риск, поскольку ИИ-системы тестируются в военных играх крупными мировыми державами.

«С точки зрения ядерного риска, выводы неутешительны», — говорит Джеймс Джонсон из Абердинского университета. Он предупреждает, что взаимодействие ИИ может усилить реакции с потенциально катастрофическими последствиями, поскольку машины усиливают агрессию друг друга без человеческих ограничений страха или сочувствия.

Рост ИИ в военном принятии решений

Хотя ни одна страна в настоящее время не делегирует ИИ полномочия по запуску ядерного оружия, потенциал влияния ИИ растёт. Тун Чжао из Принстонского университета отмечает, что страны уже интегрируют ИИ в военные игры, но степень, в которой это повлияет на фактическое военное принятие решений, остаётся неясной.

В условиях экстремального давления времени военные планировщики могут быть заинтересованы в использовании ИИ для более быстрого принятия решений. Однако эксперты сомневаются, что отсутствие эмоциональной сдержанности у ИИ является единственным фактором. Возможно, модели просто фундаментально не понимают ставки ядерного конфликта.

Взаимно гарантированное уничтожение под давлением

Последствия для концепции взаимно гарантированного уничтожения (ВГУ) неясны. Когда одна ИИ-модель применила тактическое ядерное оружие, противостоящая ИИ деэскалировала только в 18% случаев. ИИ может укрепить сдерживание, делая угрозы более правдоподобными, но также может ускорить сроки, заставляя лидеров принимать решения под повышенным давлением.

ИИ, вероятно, не решит вопрос о ядерной войне, но он сформирует представления и сроки, определяющие, верят ли лидеры в то, что у них есть выбор. OpenAI, Anthropic и Google не ответили на запросы о комментариях.

Исследование подчёркивает острую необходимость в гарантиях и этических рамках для развёртывания ИИ в военных контекстах, особенно в отношении ядерного оружия. Без надлежащего контроля эти модели могут разрушить хрупкий баланс сдерживания, который предотвратил глобальную ядерную войну.