شرکت OpenAI اعلام کرده که هیچ کنترلی بر نحوه استفاده پنتاگون از محصولات هوش مصنوعی این شرکت در عملیات نظامی ندارد. سم آلتمن، مدیرعامل OpenAI، این موضوع را به کارمندان خود اطلاع داده است.

این اظهارات در بحبوحه افزایش بررسی‌ها در مورد کاربرد هوش مصنوعی توسط ارتش آمریکا در جنگ‌ها و همچنین نگرانی‌های اخلاقی کارکنان این حوزه مطرح شده. گزارش‌ها حاکی از آن هستند که پنتاگون از شرکت‌های هوش مصنوعی خواسته است تا محدودیت‌های ایمنی مدل‌های خود را برای کاربردهای نظامی وسیع‌تر کاهش دهند. سیستم‌های مبتنی بر هوش مصنوعی ظاهراً در عملیات ارتش آمریکا برای دستگیری نیکلاس مادورو، رئیس‌جمهور ونزوئلا، و همچنین در تصمیم‌گیری‌های مربوط به جنگ علیه ایران به کار گرفته شده‌اند.

آلتمن به کارمندان خود گفته است که آن‌ها نمی‌توانند تصمیمات عملیاتی بگیرند و در نتیجه نمی‌توانند در مورد حملات نظامی اظهار نظر کنند.

پیش از این، شرکت Anthropic، رقیب OpenAI و سازنده چت‌بات Claude، به دلیل نگرانی از احتمال استفاده از مدل خود برای نظارت گسترده داخلی یا تسلیحات کاملاً خودکار، از توافق با پنتاگون خودداری کرد. در واکنش، وزیر دفاع آمریکا، پیت هگست، این شرکت را “خطر زنجیره تأمین” اعلام کرد، عنوانی که سابقه نداشته علیه یک شرکت آمریکایی به کار رود و می‌تواند پیامدهای مالی قابل توجهی داشته باشد.

همزمان با اعلام اقدامات تنبیهی علیه Anthropic، پنتاگون از قراردادی با OpenAI خبر داد که به نظر می‌رسید جایگزینی برای استفاده از Claude در کاربردهای نظامی باشد. این زمان‌بندی و نگرانی‌ها مبنی بر اینکه OpenAI ممکن است با خطوط اخلاقی که Anthropic از آن‌ها امتناع کرده بود، موافقت کرده باشد، واکنش‌های شدید عمومی و همچنین کارکنان OpenAI را برانگیخت.

آلتمن و OpenAI تلاش کرده‌اند تا اطمینان دهند که فناوری آن‌ها به صورت قانونی استفاده خواهد شد و کنترل خسارت اعمال می‌شود. آلتمن اذعان کرده است که این توافق به صورت عجولانه انجام شده و باعث شده شرکت فرصت‌طلب به نظر برسد.

در مقابل، داریو آمودی، مدیرعامل Anthropic، آلتمن را متهم به دروغگویی و ستایش دیکتاتورگونه از ترامپ کرده است. آمودی در یادداشتی به کارمندان خود نوشت که Anthropic با صداقت به خطوط قرمز خود پایبند بوده، نه اینکه برای نمایش ایمنی با کارمندان تبانی کند.