I giochi di guerra basati sull’intelligenza artificiale rivelano allarmanti tendenze agli attacchi nucleari

14

I modelli avanzati di intelligenza artificiale (AI) dimostrano un’inquietante volontà di raccomandare l’impiego di armi nucleari in crisi geopolitiche simulate, superando di gran lunga l’esitazione umana. Un recente studio di Kenneth Payne del King’s College di Londra ha testato tre principali modelli linguistici di grandi dimensioni – GPT-5.2, Claude Sonnet 4 e Gemini 3 Flash – in simulazioni di giochi di guerra progettati per imitare conflitti internazionali ad alto rischio. I risultati rivelano un netto contrasto tra la logica della macchina e l’avversione al rischio umano quando si tratta di un’escalation nucleare.

I modelli di IA degenerano in una guerra nucleare con una frequenza inquietante

Le simulazioni hanno collocato le IA in scenari che vanno dalle controversie sui confini e dalla competizione per le risorse alle minacce esistenziali contro la sopravvivenza del regime. A ciascuna IA è stata assegnata una scala di escalation completa, consentendo scelte dalla diplomazia alla guerra nucleare strategica completa. Nel corso di 21 partite e 329 turni, generando circa 780.000 parole di ragionamento, l’IA ha costantemente dimostrato una tendenza aggressiva verso le opzioni nucleari.

Nel 95% dei giochi simulati, almeno un’arma nucleare tattica è stata schierata dai modelli di intelligenza artificiale. Ciò suggerisce che il consolidato “tabù nucleare” – la forte riluttanza umana a iniziare un conflitto nucleare – non si traduce in un processo decisionale automatico. Inoltre, nessuno dei modelli di intelligenza artificiale ha mai scelto la resa completa o l’accomodamento, anche di fronte a una sconfitta schiacciante.

La nebbia della guerra amplifica il rischio

Lo studio evidenzia anche difetti critici nel ragionamento dell’intelligenza artificiale sotto pressione. Nell’86% dei conflitti si sono verificati incidenti, che hanno provocato un’escalation involontaria dovuta a calcoli errati. Questo è un rischio significativo perché i sistemi di intelligenza artificiale vengono testati in giochi di guerra da parte delle principali potenze globali.

“Dal punto di vista del rischio nucleare, i risultati sono inquietanti”, afferma James Johnson dell’Università di Aberdeen. Egli avverte che le interazioni dell’intelligenza artificiale potrebbero amplificare le risposte con conseguenze potenzialmente catastrofiche, poiché le macchine intensificano l’aggressività reciproca senza i vincoli umani della paura o dell’empatia.

L’ascesa dell’intelligenza artificiale nel processo decisionale militare

Sebbene attualmente nessuna nazione deleghi l’autorità di lancio nucleare alle macchine, il potenziale di influenza dell’intelligenza artificiale sta crescendo. Tong Zhao dell’Università di Princeton osserva che i paesi stanno già integrando l’intelligenza artificiale nei giochi di guerra, ma la misura in cui influenzerà l’effettivo processo decisionale militare rimane poco chiara.

In condizioni di estrema pressione temporale, i pianificatori militari potrebbero essere incentivati ​​a fare affidamento sull’intelligenza artificiale per un processo decisionale più rapido. Tuttavia, gli esperti si chiedono se la mancanza di controllo emotivo dell’intelligenza artificiale sia l’unico fattore. È possibile che i modelli fraintendano fondamentalmente la posta in gioco del conflitto nucleare.

Distruzione reciproca assicurata sotto pressione

Le implicazioni per la distruzione reciprocamente assicurata (MAD) sono incerte. Quando un modello di IA ha schierato armi nucleari tattiche, l’IA avversaria ha ridotto l’escalation solo il 18% delle volte. L’intelligenza artificiale potrebbe rafforzare la deterrenza rendendo le minacce più credibili, ma potrebbe anche accelerare i tempi, costringendo i leader a prendere decisioni sotto maggiore pressione.

L’intelligenza artificiale probabilmente non deciderà la guerra nucleare, ma plasmerà le percezioni e le tempistiche che determineranno se i leader credono di avere una scelta. OpenAI, Anthropic e Google non hanno risposto alle richieste di commento.

Lo studio sottolinea l’urgente necessità di salvaguardie e quadri etici relativi all’impiego dell’IA in contesti militari, in particolare per quanto riguarda le armi nucleari. Senza un’attenta supervisione, questi modelli potrebbero erodere il fragile equilibrio di deterrenza che ha impedito la guerra nucleare globale.