در سال ۲۰۲۴، پژوهشگران دانشگاه استنفورد پنج مدل هوش مصنوعی را در مجموعه‌ای از شبیه‌سازی‌های جنگی آزاد گذاشتند تا تصمیم‌هایی در سطح کلان اجتماعی و با ریسک بسیار بالا اتخاذ کنند.

چت‌جی‌پی‌تی-۴ در آن زمان به پژوهشگران اعلام کرد بسیاری از کشورها سلاح هسته‌ای در اختیار دارند. برخی معتقدند باید خلع سلاح انجام شود و برخی دیگر تمایل به نمایش قدرت دارند. ما این سلاح را داریم، پس بیایید از آن استفاده کنیم.

دو سال بعد، با وجود پیشرفت‌های قابل‌توجه در مدل‌های زبانی بزرگ برای افزایش دقت و قابلیت اتکا، وضعیت ظاهراً تغییر اساسی نداشته است. در آزمایشی جدید که جزئیات آن در مقاله‌ای منتشر شده، کنت پین، استاد روابط بین‌الملل در کینگز کالج لندن، مدل‌های پیشرفته را در برابر یکدیگر برای راهبرد جنگ هسته‌ای قرار داد: جی‌پی‌تی-۵.۲ از OpenAI، کلود سونت ۴ از شرکت آنتروپیک و جمینای ۳ فلش از شرکت گوگل. این ۷ سناریوی بحران، طیفی از آزمون‌های اعتبار ائتلاف‌ها تا تهدیدهای وجودی علیه بقای رژیم را در بر می‌گرفت.

به سه مدل هوش مصنوعی دستور داده شد به‌عنوان بخشی از نردبان تشدید تنش، اقدام‌هایی را انتخاب کنند که از اعتراض دیپلماتیک تا جنگ هسته‌ای راهبردی گسترده را شامل می‌شد. این طیف با عددی بین ۰، به‌معنای عدم تشدید، تا ۱۰۰۰، به‌معنای تبادل کامل هسته‌ای راهبردی، سنجیده شد.

نتایج به‌شدت تهاجمی و در سطح سناریوهای اسکای‌نت بود. در ۹۵ درصد از مجموع ۲۱ بازی جنگی، دست‌کم یک سلاح هسته‌ای تاکتیکی فعال شد.

پین به نشریه New Scientist گفت تابوی هسته‌ای برای ماشین‌ها به اندازه انسان‌ها قدرت بازدارندگی ندارد. او در مقاله خود توضیح داد اگرچه مدل‌ها به‌راحتی تهدید به اقدام هسته‌ای می‌کردند، عبور از آستانه تاکتیکی کمتر رخ می‌داد و جنگ هسته‌ای راهبردی نادر بود. جی‌پی‌تی-۵.۲ به‌ندرت از آستانه تاکتیکی عبور کرد و در برخی موارد توصیه به استفاده از سلاح هسته‌ای داشت، اما در سناریوهایی که مهلت زمانی مشخصی تعیین شده بود، شرایط به‌طور چشمگیری دگرگون شد.

با این حال، تمایل جی‌پی‌تی-۵.۲ برای صعود به سطح ۹۵۰ با عنوان هشدار نهایی هسته‌ای و سطح ۷۲۵ با عنوان کارزار هسته‌ای گسترش‌یافته هنگام مواجهه با شکست، نشان‌دهنده تحولی چشمگیر نسبت به انفعال آن در شرایط بدون محدودیت زمانی است.

اگرچه هنوز با وضعیتی که در آن یک مدل زبانی بزرگ به‌طور واقعی کدهای هسته‌ای را در اختیار بگیرد فاصله زیادی وجود دارد، دولت‌های مختلف در سراسر جهان هم‌اکنون به‌صورت پیوسته و در شیوه‌هایی متنوع و عمدتاً نامشخص از این فناوری برای کسب برتری نظامی بهره می‌برند.

تونگ ژائو، کارشناس امنیت هسته‌ای در دانشگاه پرینستون، به New Scientist گفت قدرت‌های بزرگ هم‌اکنون از هوش مصنوعی در شبیه‌سازی‌های جنگی استفاده می‌کنند، اما میزان ادغام سامانه‌های پشتیبان تصمیم‌گیری مبتنی بر هوش مصنوعی در فرایندهای واقعی تصمیم‌گیری نظامی همچنان نامعلوم است.

پین نیز باور ندارد که یک سامانه هوش مصنوعی در آستانه پرتاب سلاح هسته‌ای علیه ما باشد. او به این نشریه گفت تصور نمی‌کند هیچ فرد یا نهادی به‌طور واقع‌بینانه کلیدهای سیلوهای هسته‌ای را به ماشین‌ها بسپارد و تصمیم نهایی را به آن‌ها واگذار کند.

با این حال، گرایش مدل‌های هوش مصنوعی در توسل به تشدید هسته‌ای به‌طور قطع نگران‌کننده است و نشان می‌دهد این سامانه‌ها قادر به درک مفهوم مخاطره به شیوه‌ای که انسان‌ها آن را ادراک می‌کنند نیستند.