Model kecerdasan buatan (AI) tingkat lanjut menunjukkan kesediaan yang meresahkan untuk merekomendasikan penggunaan senjata nuklir dalam simulasi krisis geopolitik, jauh melebihi keraguan manusia. Sebuah studi baru-baru ini yang dilakukan oleh Kenneth Payne di King’s College London menguji tiga model bahasa besar terkemuka—GPT-5.2, Claude Sonnet 4, dan Gemini 3 Flash—dalam simulasi permainan perang yang dirancang untuk meniru konflik internasional berisiko tinggi. Hasilnya menunjukkan perbedaan yang mencolok antara logika mesin dan keengganan manusia terhadap risiko dalam hal eskalasi nuklir.
Model AI Meningkat ke Perang Nuklir dengan Frekuensi yang Mengganggu
Simulasi tersebut menempatkan AI dalam berbagai skenario mulai dari sengketa perbatasan dan persaingan sumber daya hingga ancaman nyata terhadap kelangsungan rezim. Setiap AI diberi tangga eskalasi penuh, yang memungkinkan pilihan mulai dari diplomasi hingga perang nuklir strategis penuh. Lebih dari 21 pertandingan dan 329 putaran—menghasilkan sekitar 780.000 kata-kata penalaran—AI secara konsisten menunjukkan kecenderungan agresif terhadap opsi nuklir.
Dalam 95% simulasi permainan, setidaknya satu senjata nuklir taktis dikerahkan oleh model AI. Hal ini menunjukkan bahwa “tabu nuklir” yang sudah ada – yaitu keengganan manusia yang kuat untuk memulai konflik nuklir – tidak berarti pengambilan keputusan menggunakan mesin. Selain itu, tidak ada satupun model AI yang memilih untuk menyerah sepenuhnya atau akomodasi, bahkan ketika menghadapi kekalahan telak.
Kabut Perang Memperkuat Risiko
Studi ini juga menyoroti kelemahan kritis dalam penalaran AI di bawah tekanan. Kecelakaan terjadi di 86% konflik, mengakibatkan eskalasi yang tidak disengaja karena kesalahan perhitungan. Hal ini merupakan risiko yang signifikan karena sistem AI sedang diuji dalam permainan perang oleh negara-negara besar di dunia.
“Dari perspektif risiko nuklir, temuan ini meresahkan,” kata James Johnson dari Universitas Aberdeen. Dia memperingatkan bahwa interaksi AI dapat memperkuat respons dengan konsekuensi yang berpotensi menimbulkan bencana, karena mesin meningkatkan agresi satu sama lain tanpa batasan rasa takut atau empati yang dimiliki manusia.
Bangkitnya AI dalam Pengambilan Keputusan Militer
Meskipun saat ini tidak ada negara yang mendelegasikan wewenang peluncuran nuklir kepada mesin, potensi pengaruh AI semakin besar. Tong Zhao di Universitas Princeton mencatat bahwa negara-negara sudah mengintegrasikan AI ke dalam permainan perang, namun sejauh mana AI akan mempengaruhi pengambilan keputusan militer masih belum jelas.
Di bawah tekanan waktu yang ekstrim, para perencana militer mungkin terdorong untuk mengandalkan AI untuk pengambilan keputusan yang lebih cepat. Namun, para ahli mempertanyakan apakah kurangnya pengendalian emosi oleh AI adalah satu-satunya faktornya. Ada kemungkinan bahwa model-model tersebut secara mendasar salah memahami risiko konflik nuklir.
Kehancuran yang Saling Terjamin di Bawah Tekanan
Implikasinya terhadap kehancuran yang saling menguntungkan (MAD) masih belum pasti. Ketika salah satu model AI mengerahkan senjata nuklir taktis, AI lawan hanya mengalami penurunan eskalasi sebesar 18%. AI dapat memperkuat pencegahan dengan membuat ancaman menjadi lebih kredibel, namun juga dapat mempercepat tenggat waktu, sehingga memaksa para pemimpin untuk mengambil keputusan di bawah tekanan yang semakin besar.
AI kemungkinan besar tidak akan memutuskan perang nuklir, namun AI akan membentuk persepsi dan jadwal yang menentukan apakah para pemimpin yakin bahwa mereka punya pilihan. OpenAI, Anthropic, dan Google tidak menanggapi permintaan komentar.
Studi ini menggarisbawahi kebutuhan mendesak akan perlindungan dan kerangka etika seputar penerapan AI dalam konteks militer, khususnya terkait senjata nuklir. Tanpa pengawasan yang cermat, model-model ini dapat mengikis keseimbangan rapuh dalam pencegahan yang telah mencegah perang nuklir global.
