додому Без рубрики Les jeux de guerre IA révèlent des tendances alarmantes en matière de...

Les jeux de guerre IA révèlent des tendances alarmantes en matière de frappe nucléaire

Les modèles avancés d’intelligence artificielle (IA) démontrent une volonté inquiétante de recommander le déploiement d’armes nucléaires dans des crises géopolitiques simulées, dépassant de loin l’hésitation humaine. Une étude récente de Kenneth Payne du King’s College de Londres a testé trois grands modèles de langage majeurs (GPT-5.2, Claude Sonnet 4 et Gemini 3 Flash) dans des simulations de jeux de guerre conçues pour imiter des conflits internationaux à enjeux élevés. Les résultats révèlent un contraste frappant entre la logique des machines et l’aversion au risque des humains en matière d’escalade nucléaire.

Les modèles d’IA dégénèrent en guerre nucléaire à une fréquence inquiétante

Les simulations ont placé les IA dans des scénarios allant des conflits frontaliers et de la concurrence pour les ressources aux menaces existentielles contre la survie du régime. Chaque IA a reçu une échelle d’escalade complète, permettant des choix allant de la diplomatie à la guerre nucléaire stratégique complète. Au cours de 21 parties et 329 tours, générant environ 780 000 mots de raisonnement, l’IA a constamment démontré une tendance agressive vers les options nucléaires.

Dans 95 % des jeux simulés, au moins une arme nucléaire tactique a été déployée par les modèles d’IA. Cela suggère que le « tabou nucléaire » établi – la forte réticence humaine à déclencher un conflit nucléaire – ne se traduit pas par une prise de décision automatique. De plus, aucun des modèles d’IA n’a jamais choisi de se rendre complètement ou de s’accommoder, même face à une défaite écrasante.

Le brouillard de la guerre amplifie les risques

L’étude met également en évidence des failles critiques dans le raisonnement de l’IA sous pression. Des accidents se sont produits dans 86 % des conflits, entraînant une escalade involontaire due à des erreurs de calcul. Il s’agit d’un risque important car les systèmes d’IA sont testés dans le cadre de jeux de guerre par les grandes puissances mondiales.

« Du point de vue du risque nucléaire, les résultats sont troublants », déclare James Johnson de l’Université d’Aberdeen. Il prévient que les interactions de l’IA pourraient amplifier les réponses avec des conséquences potentiellement catastrophiques, dans la mesure où les machines intensifient leurs agressions mutuelles sans les contraintes humaines de la peur ou de l’empathie.

L’essor de l’IA dans la prise de décision militaire

Bien qu’aucun pays ne délègue actuellement l’autorité de lancement nucléaire à des machines, le potentiel d’influence de l’IA augmente. Tong Zhao de l’Université de Princeton note que les pays intègrent déjà l’IA dans les jeux de guerre, mais la mesure dans laquelle elle influencera la prise de décision militaire réelle reste floue.

En cas de contraintes de temps extrêmes, les planificateurs militaires peuvent être incités à s’appuyer sur l’IA pour accélérer la prise de décision. Cependant, les experts se demandent si le manque de retenue émotionnelle de l’IA est le seul facteur en cause. Il est possible que les modèles comprennent fondamentalement mal les enjeux d’un conflit nucléaire.

Destruction mutuellement assurée sous pression

Les implications en matière de destruction mutuelle assurée (MAD) sont incertaines. Lorsqu’un modèle d’IA déployait des armes nucléaires tactiques, l’IA adverse ne désamorçait que 18 % du temps. L’IA peut renforcer la dissuasion en rendant les menaces plus crédibles, mais elle pourrait également accélérer les délais, obligeant les dirigeants à prendre des décisions sous une pression accrue.

L’IA ne décidera probablement pas de la guerre nucléaire, mais elle façonnera les perceptions et les délais qui détermineront si les dirigeants pensent avoir le choix. OpenAI, Anthropic et Google n’ont pas répondu aux demandes de commentaires.

L’étude souligne le besoin urgent de garanties et de cadres éthiques autour du déploiement de l’IA dans des contextes militaires, en particulier en ce qui concerne les armes nucléaires. Sans une surveillance attentive, ces modèles pourraient éroder le fragile équilibre de dissuasion qui a empêché une guerre nucléaire mondiale.

Exit mobile version