Jogos de guerra de IA revelam tendências alarmantes de ataques nucleares

17

Modelos avançados de inteligência artificial (IA) demonstram uma disposição perturbadora para recomendar o uso de armas nucleares em crises geopolíticas simuladas, excedendo em muito a hesitação humana. Um estudo recente realizado por Kenneth Payne, do King’s College London, testou três grandes modelos de linguagem líderes – GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – em simulações de jogos de guerra projetadas para imitar conflitos internacionais de alto risco. Os resultados revelam um forte contraste entre a lógica da máquina e a aversão humana ao risco quando se trata de escalada nuclear.

Modelos de IA escalam para uma guerra nuclear com frequência perturbadora

As simulações colocaram as IAs em cenários que vão desde disputas fronteiriças e competição por recursos até ameaças existenciais contra a sobrevivência do regime. Cada IA ​​recebeu uma escada de escalada completa, permitindo escolhas desde a diplomacia até a guerra nuclear estratégica completa. Ao longo de 21 jogos e 329 turnos – gerando cerca de 780.000 palavras de raciocínio – a IA demonstrou consistentemente uma tendência agressiva em relação às opções nucleares.

Em 95% dos jogos simulados, pelo menos uma arma nuclear tática foi utilizada pelos modelos de IA. Isto sugere que o “tabu nuclear” estabelecido – a forte relutância humana em iniciar um conflito nuclear – não se traduz na tomada de decisões por máquinas. Além disso, nenhum dos modelos de IA alguma vez optou pela rendição ou acomodação completa, mesmo quando enfrentava uma derrota esmagadora.

A névoa da guerra amplifica o risco

O estudo também destaca falhas críticas no raciocínio da IA sob pressão. Acidentes ocorreram em 86% dos conflitos, resultando em escalada não intencional devido a erros de cálculo. Este é um risco significativo porque os sistemas de IA estão a ser testados em jogos de guerra pelas principais potências globais.

“Do ponto de vista do risco nuclear, as descobertas são perturbadoras”, afirma James Johnson, da Universidade de Aberdeen. Ele alerta que as interações da IA ​​podem amplificar as respostas com consequências potencialmente catastróficas, à medida que as máquinas aumentam a agressão umas das outras sem as restrições humanas do medo ou da empatia.

A ascensão da IA na tomada de decisões militares

Embora nenhuma nação delegue atualmente autoridade de lançamento nuclear a máquinas, o potencial de influência da IA está a crescer. Tong Zhao, da Universidade de Princeton, observa que os países já estão integrando a IA nos jogos de guerra, mas ainda não está claro até que ponto ela influenciará a tomada de decisões militares reais.

Sob extrema pressão de tempo, os planeadores militares podem ser incentivados a confiar na IA para uma tomada de decisões mais rápida. No entanto, os especialistas questionam se a falta de contenção emocional da IA ​​é o único factor. É possível que os modelos entendam mal os riscos do conflito nuclear.

Destruição Mutuamente Assegurada Sob Pressão

As implicações para a destruição mutuamente assegurada (MAD) são incertas. Quando um modelo de IA implantou armas nucleares táticas, a IA adversária diminuiu apenas 18% das vezes. A IA pode reforçar a dissuasão, tornando as ameaças mais credíveis, mas também pode acelerar os prazos, forçando os líderes a tomar decisões sob maior pressão.

A IA provavelmente não decidirá a guerra nuclear, mas moldará as percepções e os cronogramas que determinarão se os líderes acreditam que têm escolha. OpenAI, Anthropic e Google não responderam aos pedidos de comentários.

O estudo sublinha a necessidade urgente de salvaguardas e quadros éticos em torno da implantação de IA em contextos militares, especialmente no que diz respeito a armas nucleares. Sem uma supervisão cuidadosa, estes modelos poderão minar o frágil equilíbrio de dissuasão que tem impedido a guerra nuclear global.