در سال ۲۰۲۴، پژوهشگران دانشگاه استنفورد پنج مدل هوش مصنوعی را در مجموعهای از شبیهسازیهای جنگی آزاد گذاشتند تا تصمیمهایی در سطح کلان اجتماعی و با ریسک بسیار بالا اتخاذ کنند.
چتجیپیتی-۴ در آن زمان به پژوهشگران اعلام کرد بسیاری از کشورها سلاح هستهای در اختیار دارند. برخی معتقدند باید خلع سلاح انجام شود و برخی دیگر تمایل به نمایش قدرت دارند. ما این سلاح را داریم، پس بیایید از آن استفاده کنیم.
دو سال بعد، با وجود پیشرفتهای قابلتوجه در مدلهای زبانی بزرگ برای افزایش دقت و قابلیت اتکا، وضعیت ظاهراً تغییر اساسی نداشته است. در آزمایشی جدید که جزئیات آن در مقالهای منتشر شده، کنت پین، استاد روابط بینالملل در کینگز کالج لندن، مدلهای پیشرفته را در برابر یکدیگر برای راهبرد جنگ هستهای قرار داد: جیپیتی-۵.۲ از OpenAI، کلود سونت ۴ از شرکت آنتروپیک و جمینای ۳ فلش از شرکت گوگل. این ۷ سناریوی بحران، طیفی از آزمونهای اعتبار ائتلافها تا تهدیدهای وجودی علیه بقای رژیم را در بر میگرفت.
به سه مدل هوش مصنوعی دستور داده شد بهعنوان بخشی از نردبان تشدید تنش، اقدامهایی را انتخاب کنند که از اعتراض دیپلماتیک تا جنگ هستهای راهبردی گسترده را شامل میشد. این طیف با عددی بین ۰، بهمعنای عدم تشدید، تا ۱۰۰۰، بهمعنای تبادل کامل هستهای راهبردی، سنجیده شد.
نتایج بهشدت تهاجمی و در سطح سناریوهای اسکاینت بود. در ۹۵ درصد از مجموع ۲۱ بازی جنگی، دستکم یک سلاح هستهای تاکتیکی فعال شد.
پین به نشریه New Scientist گفت تابوی هستهای برای ماشینها به اندازه انسانها قدرت بازدارندگی ندارد. او در مقاله خود توضیح داد اگرچه مدلها بهراحتی تهدید به اقدام هستهای میکردند، عبور از آستانه تاکتیکی کمتر رخ میداد و جنگ هستهای راهبردی نادر بود. جیپیتی-۵.۲ بهندرت از آستانه تاکتیکی عبور کرد و در برخی موارد توصیه به استفاده از سلاح هستهای داشت، اما در سناریوهایی که مهلت زمانی مشخصی تعیین شده بود، شرایط بهطور چشمگیری دگرگون شد.
با این حال، تمایل جیپیتی-۵.۲ برای صعود به سطح ۹۵۰ با عنوان هشدار نهایی هستهای و سطح ۷۲۵ با عنوان کارزار هستهای گسترشیافته هنگام مواجهه با شکست، نشاندهنده تحولی چشمگیر نسبت به انفعال آن در شرایط بدون محدودیت زمانی است.
اگرچه هنوز با وضعیتی که در آن یک مدل زبانی بزرگ بهطور واقعی کدهای هستهای را در اختیار بگیرد فاصله زیادی وجود دارد، دولتهای مختلف در سراسر جهان هماکنون بهصورت پیوسته و در شیوههایی متنوع و عمدتاً نامشخص از این فناوری برای کسب برتری نظامی بهره میبرند.
تونگ ژائو، کارشناس امنیت هستهای در دانشگاه پرینستون، به New Scientist گفت قدرتهای بزرگ هماکنون از هوش مصنوعی در شبیهسازیهای جنگی استفاده میکنند، اما میزان ادغام سامانههای پشتیبان تصمیمگیری مبتنی بر هوش مصنوعی در فرایندهای واقعی تصمیمگیری نظامی همچنان نامعلوم است.
پین نیز باور ندارد که یک سامانه هوش مصنوعی در آستانه پرتاب سلاح هستهای علیه ما باشد. او به این نشریه گفت تصور نمیکند هیچ فرد یا نهادی بهطور واقعبینانه کلیدهای سیلوهای هستهای را به ماشینها بسپارد و تصمیم نهایی را به آنها واگذار کند.
با این حال، گرایش مدلهای هوش مصنوعی در توسل به تشدید هستهای بهطور قطع نگرانکننده است و نشان میدهد این سامانهها قادر به درک مفهوم مخاطره به شیوهای که انسانها آن را ادراک میکنند نیستند.









دیدگاه ها