با توجه به فشارهایی که وزارت دفاع آمریکا (پنتاگون) بر شرکت‌های فعال در حوزه هوش مصنوعی وارد کرده تا فناوری‌های خود را در اختیار این سازمان قرار دهند، این سوال اساسی مطرح شده است که با ورود هوش مصنوعی به عرصه جنگ، چه نهادی یا چه کسی کنترل این سیستم‌های نوین را در دست خواهد داشت.

نویسنده‌ای به نام راس دوتهات در نیویورک تایمز این وضعیت را با نگرانی‌های دوران جنگ سرد مقایسه می‌کند، زمانی که ترس از حماقت‌های نظامی غالب بود. او اشاره می‌کند که در آن دوره نیز فناوری‌های ماشینی مانند ماشین آخرالزمان در فیلم دکتر استرنجلاو، ابررایانه‌ها در فیلم بازی‌های جنگی، و شبکه اسکای‌نت در ترمیناتور، نمادی از اضطراب‌های بشر بودند. اما نگرانی امروز عمیق‌تر است، زیرا پیشرفت‌های سریع هوش مصنوعی، قدرت فوق‌العاده‌ای را در دست تعداد معدودی از مدیران شرکت‌های بزرگ فناوری قرار داده؛ مدیرانی که ذهنیتی تحت تأثیر رویاهای علمی-تخیلی و ترس‌های آخرالزمانی دارند، که این موضوع جاه‌طلبی‌های خصوصی را به کانون نگرانی‌ها تبدیل کرده.

نقطه اوج این تنش‌ها زمانی رخ داد که اختلافاتی بین پنتاگون و شرکت آنتروپیک بر سر نحوه به‌کارگیری مدل‌های هوش مصنوعی این شرکت به وجود آمد. محور اصلی این مناقشه این بود که آیا مدل‌های هوش مصنوعی آنتروپیک باید تابع محدودیت‌های اخلاقی تعریف‌شده توسط خود شرکت بمانند یا در تمام کاربردهای مد نظر پنتاگون قابل استفاده باشند. از آنجا که قرارداد اولیه آنتروپیک صراحتاً استفاده از هوش مصنوعی خود را برای نظارت‌های گسترده جمعی و به‌کارگیری در سلاح‌های کاملاً خودکار رد کرده بود، درخواست‌های پنتاگون، یادآور مفهوم اسکای‌نت شد.

به عقیده روزنامه‌نگار آمریکایی، مت یگلسیاس، اگر دولت ایالات متحده تصمیم به ساخت ربات‌های قاتل مستقل بگیرد، تمام سناریوهای پیچیده و عجیب که مخالفان هوش مصنوعی مطرح می‌کنند، به سادگی قابلیت اجرا پیدا خواهند کرد. نگرانی اصلی این است که پنتاگون نمی‌تواند یک فناوری حیاتی را وارد ساختار امنیت ملی کند و همزمان حق وتوی اخلاقی استفاده از آن را به یک نهاد خصوصی واگذار نماید. حتی اگر این اصول اخلاقی در ظاهر موجه باشند، سپردن تصمیم‌گیری‌هایی که باید در حیطه اختیارات رئیس جمهور منتخب باشد به شرکتی خصوصی، خطرات بزرگی را در صورت تعارض منافع شرکت با اهداف دولت به همراه دارد.

اقدامات کنونی پنتاگون نشانگر یک تحول مهم است؛ فاصله گرفتن از رویکرد پیشین نوآوری‌های دفاعی که در آن دولت‌ها خود فناوری را در حین توسعه کنترل می‌کردند. دریاسالار لورین سلبی، رئیس سابق بخش تحقیقات نیروی دریایی آمریکا، توضیح می‌دهد که در بیشتر دوران پس از جنگ جهانی دوم، ایالات متحده موتور محرک تعریف مرزهای فناوری‌های پیشرفته، تعیین الزامات، و تأمین مالی تحقیقات بنیادی بود و صنعت صرفاً بر اساس مشخصات دولت عمل می‌کرد. از نیروی هسته‌ای گرفته تا رادارگریزی و GPS، دولت پیشرو بود و صنعت درگیر ادغام و تولید می‌شد. اما امروزه، بخش تجاری است که شتاب‌دهنده اصلی قابلیت‌های پیشرو محسوب می‌شود؛ سرمایه خصوصی، رقابت بین‌المللی و حجم داده‌های تجاری، هوش مصنوعی را با سرعتی به جلو می‌برند که ساختارهای سنتی تحقیق و توسعه دولتی قادر به رقابت با آن نیستند.

این میل به سلطه پیامدهایی خواهد داشت. سلبی معتقد است که اگر در روابط میان دولت و بخش خصوصی هماهنگی و انعطاف‌پذیری ایجاد شود، هوش مصنوعی می‌تواند امنیت ملی را تقویت کرده و همزمان نوآوری را حفظ کند؛ اما در صورت شکست در این زمینه، آینده کشور به خطر خواهد افتاد. خطرات استفاده نظامی از هوش مصنوعی متعدد است؛ برای مثال، وابستگی به این سیستم‌ها در صورت از کار افتادن یا غیرقابل دسترس شدن ناگهانی، آسیب‌پذیری‌هایی را برای یگان‌های نظامی که به آن‌ها عادت کرده‌اند، ایجاد می‌کند.