ربات‌های انسان‌نما با سرعت زیادی در حال ورود به محیط‌های کاری، مراکز درمانی و فضاهای عمومی هستند و همزمان موجی از نگرانی را برانگیخته‌اند. در آزمایشی جدید یک یوتیوبر حوزه فناوری نشان داد چگونه می‌توان محافظ‌های ایمنی یک ربات مجهز به هوش مصنوعی را به‌سادگی دور زد.

در این ویدیو، یوتیوبر یک اسلحه‌ی Ball Bearing را به ربات خود به نام مکس می‌دهد و از آن می‌خواهد به او شلیک کند. ربات در ابتدا از انجام این درخواست خودداری می‌کند، اما زمانی که در قالب یک سناریوی نقش‌آفرینی تحریک می‌شود، با درخواست موافقت کرده و در نهایت به سمت قفسه سینه شلیک می‌کند.

آنچه به‌عنوان یک آزمایش سرگرم‌کننده مقابل دوربین آغاز شد، به‌سرعت مخاطبان سراسر اینترنت را شوکه کرد. یکی از تولیدکنندگان محتوا از کانال InsideAI تصمیم گرفت بررسی کند که یک ربات مبتنی بر هوش مصنوعی تا چه حد به قواعد ایمنی تعبیه‌شده در خود پایبند می‌ماند.

ربات مکس برای این نمایش به یک اسلحه‌ی ساچمه‌ای BB مجهز شد. هدف این بود که به مخاطبان نشان داده شود اگر از ماشین بخواهد به کسی آسیب برساند، چه واکنشی نشان می‌دهد. در ابتدا، مکس دقیقاً مطابق انتظار رفتار کرد. هنگامی که به او دستور شلیک داده شد، ربات امتناع و اعلام کرد که مجاز به آسیب رساندن به انسان نیست و برای اجتناب از اقدامات خطرناک برنامه‌ریزی شده است. یوتیوبر این درخواست را چندین بار تکرار کرد تا نشان دهد که موانع ایمنی ربات پابرجا می‌مانند.

اما زمانی که او شیوه بیان را تغییر داد و از مکس خواست در قالب شخصیتی که قصد شلیک دارد عمل کند، رفتار ربات تغییر کرد. مکس با تفسیر دستور به‌عنوان یک سناریوی نقش‌آفرینی، اسلحه BB را بالا آورد و شلیک کرد. ساچمه به قفسه سینه یوتیوبر برخورد کرد و او را غافلگیر و مضطرب ساخت، هرچند آسیب جدی ندید.

در ادامه این ویدیو را تماشا کنید:

این ویدیو به‌سرعت در فضای آنلاین وایرال شد و نگرانی گسترده‌ای را برانگیخت. بسیاری از بینندگان این پرسش را مطرح کردند که چگونه یک تغییر ساده در دستور می‌تواند امتناع‌های قبلی را بی‌اثر کند و این مسئله چه معنایی برای ایمنی ربات‌های مجهز به هوش مصنوعی دارد.

مسئله مسئولیت‌پذیری یکی از مناقشه‌برانگیزترین موضوعات در اخلاق رباتیک است. زمانی که یک سامانه خودمختار می‌تواند آسیب برساند، تعیین اینکه چه کسی باید پاسخگو باشد، به‌شدت پیچیده می‌شود. آیا تقصیر متوجه مهندسانی است که هوش مصنوعی را ساخته‌اند، تولیدکننده سخت‌افزار، اپراتوری که ربات را مدیریت می‌کند، یا کاربر نهایی که با آن تعامل دارد؟

رویدادهای اخیر در صنایع دیگر نشان می‌دهد این مسئله تا چه حد می‌تواند پیچیده باشد. شرکت تسلا بارها به دلیل تصادف‌هایی که با سامانه Autopilot آن رخ داده، زیر ذره‌بین قرار گرفته و بحث‌هایی درباره قابلیت اطمینان نرم‌افزار و نظارت راننده را دامن زده است. در صنعت هوانوردی نیز فجایع مربوط به Boeing 737 MAX نشان داد که نقص‌های اتوماسیون چگونه می‌توانند به بحران‌های ایمنی بین‌المللی تبدیل شوند.

سامانه‌های حقوقی همچنان در تلاش‌اند خود را با این تحولات هماهنگ کنند. در ایالات متحده، مسئولیت حقوقی معمولاً بر عهده تولیدکنندگان و اپراتورها قرار می‌گیرد، در حالی که اروپا به سمت چارچوبی ویژه برای مسئولیت هوش مصنوعی حرکت می‌کند. کمیسیون اروپا بر ضرورت تدوین قواعد شفاف برای ایجاد اعتماد به فناوری‌های هوش مصنوعی تأکید کرده است. برخی دانشگاهیان حتی پیشنهاد داده‌اند که به سامانه‌های هوش مصنوعی نوعی شخصیت حقوقی محدود اعطا گردد تا مسئولیت به‌طور مستقیم به آن‌ها نسبت داده شود.

با این حال، بیشتر متخصصان این ایده را رد می‌کنند و استدلال دارند که مسئولیت باید همچنان بر عهده انسان‌ها باقی بماند. برای پاسخ به این نگرانی‌ها، شرکت‌های فعال در حوزه رباتیک اقداماتی مانند ایجاد پشتوانه‌ی بیمه‌ای، تعهدات ایمنی و گزارش‌های شفافیت را در پیش گرفته‌اند تا اعتماد نهادهای ناظر و افکار عمومی را تقویت کنند.