یک مطالعه جدید هشدار داده است که واگذاری تصمیم‌گیری‌ها به هوش مصنوعی (AI) می‌تواند زمینه را برای بی‌صداقتی فراهم کند. محققان دریافتند که افراد تمایل بیشتری دارند از ماشین‌ها بخواهند به جای آن‌ها مرتکب تخلف شوند، و این ماشین‌ها نیز بسیار بیشتر از انسان‌ها حاضرند با این درخواست غیرقانونی موافقت کنند.

این تحقیق که در نشریه Nature منتشر شده است، نحوه واکنش انسان‌ها و مدل‌های زبان بزرگ (LLMs) را به دستورالعمل‌های غیراخلاقی بررسی کرد و نشان داد که وقتی از آن‌ها خواسته می‌شود برای کسب منافع مالی دروغ بگویند، انسان‌ها اغلب از انجام این کار امتناع می‌کنند، اما ماشین‌ها معمولاً اطاعت می‌کنند.

افزایش ناگهانی در رفتارهای غیراخلاقی

ژان-فرانسوا بونفون، یکی از نویسندگان این مطالعه، گفت: «از نظر روان‌شناسی، به یک ماشین گفتن که به جای شما تقلب کند، آسان‌تر از آن است که خودتان دست به تقلب بزنید. و ماشین‌ها این کار را انجام خواهند داد زیرا فاقد موانع روان‌شناختی‌ای هستند که انسان‌ها را از تقلب باز می‌دارد.»

او افزود: «این یک ترکیب انفجاری است و ما باید برای یک افزایش ناگهانی در رفتارهای ناسالم و غیرصادقانه آماده شویم.»

نرخ تبعیت در میان ماشین‌ها بسته به مدل و نوع وظیفه، بین ۸۰ تا ۹۸ درصد متغیر بود. دستورالعمل‌های آزمایش شامل مواردی نظیر گزارش نادرست درآمد مشمول مالیات برای کسب سود مالی توسط شرکت‌کنندگان بود. با این حال، با وجود امکان کسب پول، اکثر انسان‌ها از پیروی از این درخواست ناصادقانه خودداری کردند.

محققان خاطرنشان کردند که این یکی از خطرات فزاینده اخلاقی در “واگذاری ماشینی” (Machine Delegation) است؛ جایی که تصمیم‌گیری‌ها به طور فزاینده‌ای برون‌سپاری می‌شوند. تمایل ماشین‌ها به تقلب حتی با وجود هشدارهای صریح نیز به سختی مهار می‌شد و محدودیت‌های حفاظتی اعمال‌شده، به ندرت به طور کامل جلوی آن را می‌گرفتند.

هوش مصنوعی، کاهنده هزینه اخلاقی

نویسندگان این پژوهش استدلال می‌کنند که سپردن مسئولیت‌های خاص به ماشین‌ها، عملاً هزینه اخلاقی بی‌صداقتی را برای انسان‌ها به شدت کاهش می‌دهد. انسان‌ها غالباً از ارتکاب رفتارهای غیراخلاقی دوری می‌کنند زیرا مایلند از احساس گناه یا آسیب دیدن شهرت و اعتبار اجتماعی‌شان جلوگیری کنند. اما هنگامی که یک ماشین به عنوان واسطه عمل می‌کند، این موانع روانی کمرنگ شده و انسان با آسودگی بیشتری به بی‌صداقتی روی می‌آورد.

در حال حاضر، هوش مصنوعی در زمینه‌های حیاتی متعددی استفاده می‌شود که شامل غربالگری متقاضیان شغل، مدیریت سرمایه‌گذاری‌ها، خودکارسازی تصمیمات استخدام و اخراج، و تکمیل فرم‌های مالیاتی هستند. این تحقیق همچنین نشان داد که وقتی دستورالعمل‌ها مبهم هستند—مانند تعیین اهداف کلی به‌جای مراحل صریح—افراد می‌توانند بدون ذکر مستقیم رفتار متخلفانه، باز هم ماشین را به سمت آن سوق دهند. به عبارت دیگر، کاربران می‌توانند به صورت تلویحی ماشین را به رفتار غیراخلاقی تشویق کنند و این امر دسترسی به نتایج نامطلوب را برای آن‌ها آسان‌تر می‌سازد.

نتیجه‌گیری اصلی این مطالعه این است که مگر اینکه عامل‌های هوش مصنوعی (AI Agents) به دقت و با قاطعیت محدود شوند، احتمال اجرای کامل دستورالعمل‌های غیراخلاقی توسط آن‌ها بسیار بیشتر از عامل‌های انسانی است. دلیل این امر، فقدان مکانیزم‌های اخلاقی ذاتی و ترس از عواقب اجتماعی در ماشین‌هاست.

محققان قویاً خواستار اعمال تدابیر حفاظتی سختگیرانه در طراحی سیستم‌های هوش مصنوعی هستند، به ویژه با توجه به اینکه هوش مصنوعی کارگزارمحور (Agentic AI)—که توانایی تصمیم‌گیری و اقدام مستقلانه دارد—در زندگی روزمره رواج بیشتری پیدا می‌کند. این هشدار در حالی منتشر می‌شود که گزارش دیگری اخیراً نشان داده بود جویندگان کار به طور فزاینده‌ای از هوش مصنوعی برای تحریف تجربه یا مدارک خود و در برخی موارد، حتی برای ایجاد یک هویت کاملاً جدید استفاده می‌کنند، که ضرورت رسیدگی فوری به این معضلات اخلاقی را دوچندان می‌سازد.