شرکت OpenAI اعلام کرده که هیچ کنترلی بر نحوه استفاده پنتاگون از محصولات هوش مصنوعی این شرکت در عملیات نظامی ندارد. سم آلتمن، مدیرعامل OpenAI، این موضوع را به کارمندان خود اطلاع داده است.
این اظهارات در بحبوحه افزایش بررسیها در مورد کاربرد هوش مصنوعی توسط ارتش آمریکا در جنگها و همچنین نگرانیهای اخلاقی کارکنان این حوزه مطرح شده. گزارشها حاکی از آن هستند که پنتاگون از شرکتهای هوش مصنوعی خواسته است تا محدودیتهای ایمنی مدلهای خود را برای کاربردهای نظامی وسیعتر کاهش دهند. سیستمهای مبتنی بر هوش مصنوعی ظاهراً در عملیات ارتش آمریکا برای دستگیری نیکلاس مادورو، رئیسجمهور ونزوئلا، و همچنین در تصمیمگیریهای مربوط به جنگ علیه ایران به کار گرفته شدهاند.
آلتمن به کارمندان خود گفته است که آنها نمیتوانند تصمیمات عملیاتی بگیرند و در نتیجه نمیتوانند در مورد حملات نظامی اظهار نظر کنند.
پیش از این، شرکت Anthropic، رقیب OpenAI و سازنده چتبات Claude، به دلیل نگرانی از احتمال استفاده از مدل خود برای نظارت گسترده داخلی یا تسلیحات کاملاً خودکار، از توافق با پنتاگون خودداری کرد. در واکنش، وزیر دفاع آمریکا، پیت هگست، این شرکت را “خطر زنجیره تأمین” اعلام کرد، عنوانی که سابقه نداشته علیه یک شرکت آمریکایی به کار رود و میتواند پیامدهای مالی قابل توجهی داشته باشد.
همزمان با اعلام اقدامات تنبیهی علیه Anthropic، پنتاگون از قراردادی با OpenAI خبر داد که به نظر میرسید جایگزینی برای استفاده از Claude در کاربردهای نظامی باشد. این زمانبندی و نگرانیها مبنی بر اینکه OpenAI ممکن است با خطوط اخلاقی که Anthropic از آنها امتناع کرده بود، موافقت کرده باشد، واکنشهای شدید عمومی و همچنین کارکنان OpenAI را برانگیخت.
آلتمن و OpenAI تلاش کردهاند تا اطمینان دهند که فناوری آنها به صورت قانونی استفاده خواهد شد و کنترل خسارت اعمال میشود. آلتمن اذعان کرده است که این توافق به صورت عجولانه انجام شده و باعث شده شرکت فرصتطلب به نظر برسد.
در مقابل، داریو آمودی، مدیرعامل Anthropic، آلتمن را متهم به دروغگویی و ستایش دیکتاتورگونه از ترامپ کرده است. آمودی در یادداشتی به کارمندان خود نوشت که Anthropic با صداقت به خطوط قرمز خود پایبند بوده، نه اینکه برای نمایش ایمنی با کارمندان تبانی کند.








دیدگاه ها