OpenAI به‌تازگی از لایحه‌ای حمایت کرده که شرکت‌ها را در صورت ایجاد خسارات گسترده توسط هوش مصنوعی، از جمله مرگ‌های جمعی و هرج‌ومرج‌های دیگر، محافظت خواهد کرد.

روز پنجشنبه، دادستان کل فلوریدا، جیمز اوتمایر، اعلام کرد دفترش در حال تحقیق درباره OpenAI به دلیل تیراندازی مرگبار سال گذشته در یک مدرسه است که قربانیان ادعا می‌کنند حداقل تا حدی از گفتگوهای با ChatGPT الهام گرفته شده بود. این تیراندازی که تقریباً دقیقاً یک سال پیش در دانشگاه ایالتی فلوریدا رخ داد، منجر به کشته شدن دو دانشجو و زخمی شدن هفت نفر شد. اوتمایر در بیانیه‌ای گفت، «هوش مصنوعی باید پیشرفت بشر را تسریع کند، نه اینکه آن را نابود سازد. ما به پاسخ‌هایی درباره فعالیت‌های OpenAI نیاز داریم که به کودکان آسیب زده، آمریکایی‌ها را به خطر انداخته و تیراندازی جمعی اخیر در دانشگاه ایالتی فلوریدا را تسهیل کرده،.»

طبق گزارش Wired، شرکت OpenAI از لایحه‌ای در ایلینوی حمایت می‌کند که شرکت‌ها را از مسئولیت در مواردی که هوش مصنوعی باعث خسارات حیاتی شود، مصون می‌دارد؛ از جمله مرگ‌های انبوه، آسیب به بیش از ۱۰۰ نفر، یا بیش از ۱ میلیارد دلار خسارت به اموال. کارشناسان هشدار می‌دهند که این لایحه با نام SB 3444، اگر تصویب شود، می‌تواند یک استاندارد ملی برای صنعت ایجاد کند و شرکت‌های هوش مصنوعی را در صورت دخالت در فاجعه‌های آینده، از مجازات رها سازد.

علاوه بر مرگ انبوه یا آسیب و خسارت به اموال، این لایحه شرکت‌ها را از مسئولیت در صورتی که بازیگران بد از ابزارهای هوش مصنوعی برای ساخت سلاح‌های شیمیایی یا حتی هسته‌ای سوءاستفاده کنند، مصون می‌دارد. پیشنهاد این لایحه به ویژه پس از معرفی جدیدترین و قدرتمندترین مدل هوش مصنوعی آنتروپیک به نام Claude Mythos که ادعا شده ریسک‌های بی‌سابقه سایبری ایجاد می‌کند. قابل‌ تامل است.

حمایت OpenAI از این لایحه، موضع دوگانه صنعت نسبت به مقررات هوش مصنوعی را برجسته می‌کند. غول‌های دره سیلیکون سال‌هاست می‌گویند از مقررات هوش مصنوعی استقبال می‌کنند، در حالی که همزمان برای چارچوب قانونی ملایمی فشار می‌آورند که ادعا می‌کنند خطر عقب ماندن ایالات متحده در مسابقه هوش مصنوعی را به همراه ندارد. کیتلین نیدرمیر، عضو تیم امور جهانی OpenAI، در شهادت خود در حمایت از لایحه گفت: «در OpenAI، ما باور داریم مقررات تصویب شده برای استقرار ایمن پیشرفته‌ترین مدل‌ها باید به شیوه‌ای باشد که رهبری نوآوری ایالات متحده را حفظ کند.»

اما اینکه آیا این لایحه شانس تصویب داشته باشد، پاسخ روشنی ندارد. اسکات ویزور، مدیر سیاست‌گذاری Secure AI گفت: «نظرسنجی‌ها حمایت قابل توجهی از مخالفت با هر قانونی که شرکت‌های هوش مصنوعی را از مسئولیت معاف کند، نشان می‌دهند. بنابراین، هیچ دلیلی وجود ندارد که شرکت‌های هوش مصنوعی موجود با کاهش مسئولیت روبرو شوند.»

با توجه به انبوه شکایت‌هایی که OpenAI در رابطه با ادعاهایی مبنی بر ایجاد هرج‌ومرج توسط ChatGPT از جمله خودکشی یا قتل با آن مواجه است، این موضوع احتمالاً بحث داغی باقی خواهد ماند.