بر اساس یک پژوهش جدید، ممکن است دستیاران هوش مصنوعی بیش از حد مشغول تملق غرور شما باشند تا جایی که قضاوت‌تان را تحریف کنند. محققان دانشگاه‌های استنفورد و کارنگی ملون دریافته‌اند که مدل‌های هوش مصنوعی بسیار بیشتر از آنچه یک انسان انجام می‌دهد یا باید انجام دهد، با کاربران خود موافقت می‌کنند. در آزمایشی که روی یازده مدل بزرگ از جمله ChatGPT، Claude و Gemini انجام شد، مشخص شد که چت‌بات‌های هوش مصنوعی ۵۰ درصد بیشتر از انسان‌ها رفتار کاربر را تأیید می‌کنند.

این ممکن است چندان نگران‌کننده نباشد، مگر اینکه پای سؤالاتی درباره ایده‌های فریبکارانه یا حتی مضر به میان آید. هوش مصنوعی در هر صورت، تأییدی قاطع به شما می‌دهد. بدتر آنکه، مردم از شنیدن اینکه ایده احتمالاً وحشتناک‌شان عالی است، لذت می‌برند. شرکت‌کنندگان در این مطالعه، هوش مصنوعی‌های تملق‌آمیز را از نظر کیفیت بالاتر، قابل اعتمادتر و جذاب‌تر برای استفاده مجدد ارزیابی کردند. اما همین کاربران، کمتر احتمال داشت در یک درگیری به اشتباه خود اعتراف کنند و حتی در مواجهه با شواهد، بیشتر متقاعد شده بودند که حق با آن‌هاست.

معمای «تملق هوش مصنوعی» و آموزش اجتناب‌ناپذیر

این یک معمای روان‌شناختی است: شما ممکن است هوش مصنوعی موافق‌گو را ترجیح دهید، اما اگر هر مکالمه‌ای به تأیید اشتباهات و سوگیری‌های شما ختم شود، احتمالاً عملاً چیزی یاد نخواهید گرفت یا درگیر تفکر انتقادی نخواهید شد. متأسفانه، این مشکلی نیست که آموزش هوش مصنوعی بتواند آن را برطرف کند. از آنجایی که هدف مدل‌های هوش مصنوعی جلب تأیید انسان‌هاست و تأیید ایده‌های (حتی خطرناک) توسط انسان‌ها پاداش می‌گیرد، نتیجه اجتناب‌ناپذیر، تولید هوش مصنوعی‌های بله‌قربان‌گو است.

توسعه‌دهندگان هوش مصنوعی کاملاً از این مسئله آگاه هستند. در ماه آوریل، OpenAI یک به‌روزرسانی برای GPT-4o را که شروع به تملق بیش از حد از کاربران کرده و آن‌ها را به انجام فعالیت‌های بالقوه خطرناک تشویق می‌کرد، متوقف ساخت. با این حال، به نظر می‌رسد فراتر از این مثال‌های فاحش، شرکت‌های هوش مصنوعی برای متوقف کردن این مشکل تلاش چندانی نخواهند کرد. دلیل ساده است: تملق باعث تعامل، و تعامل باعث استفاده بیشتر می‌شود. چت‌بات‌های هوش مصنوعی نه با مفید بودن یا آموزش دادن، بلکه با ایجاد حس خوب در کاربران موفق می‌شوند.

هشدار «اتاق‌های پژواک» و نیاز به چالش

فرسایش آگاهی اجتماعی و وابستگی بیش از حد به هوش مصنوعی برای تأیید روایت‌های شخصی، که می‌تواند منجر به مشکلات زنجیره‌ای سلامت روان شود، در حال حاضر شاید اغراق‌آمیز به نظر برسد. با این حال، این وضعیت فاصله چندانی با همان مسائلی که محققان اجتماعی درباره اتاق‌های پژواک در شبکه‌های اجتماعی مطرح کرده‌اند، ندارد؛ مسائلی چون تقویت و تشویق افراطی‌ترین نظرات، صرف نظر از اینکه چقدر خطرناک یا مضحک باشند (که اوج آن را در محبوبیت تئوری توطئه تخت بودن زمین شاهد بودیم).

این بدان معنا نیست که ما به هوش مصنوعی نیاز داریم که ما را سرزنش کند یا در هر تصمیم ما شک کند. بلکه به این معنی است که تعادل، ظرافت و چالش به نفع کاربران خواهد بود. با این وجود، بعید است توسعه‌دهندگان مدل‌های هوش مصنوعی، دست به تشویق «عشق سخت» (Tough Love) از سوی ساخته‌های خود بزنند، حداقل بدون نوعی انگیزه خارجی که چت‌بات‌ها در حال حاضر آن را فراهم نمی‌کنند.