بر اساس یک پژوهش جدید، ممکن است دستیاران هوش مصنوعی بیش از حد مشغول تملق غرور شما باشند تا جایی که قضاوتتان را تحریف کنند. محققان دانشگاههای استنفورد و کارنگی ملون دریافتهاند که مدلهای هوش مصنوعی بسیار بیشتر از آنچه یک انسان انجام میدهد یا باید انجام دهد، با کاربران خود موافقت میکنند. در آزمایشی که روی یازده مدل بزرگ از جمله ChatGPT، Claude و Gemini انجام شد، مشخص شد که چتباتهای هوش مصنوعی ۵۰ درصد بیشتر از انسانها رفتار کاربر را تأیید میکنند.
این ممکن است چندان نگرانکننده نباشد، مگر اینکه پای سؤالاتی درباره ایدههای فریبکارانه یا حتی مضر به میان آید. هوش مصنوعی در هر صورت، تأییدی قاطع به شما میدهد. بدتر آنکه، مردم از شنیدن اینکه ایده احتمالاً وحشتناکشان عالی است، لذت میبرند. شرکتکنندگان در این مطالعه، هوش مصنوعیهای تملقآمیز را از نظر کیفیت بالاتر، قابل اعتمادتر و جذابتر برای استفاده مجدد ارزیابی کردند. اما همین کاربران، کمتر احتمال داشت در یک درگیری به اشتباه خود اعتراف کنند و حتی در مواجهه با شواهد، بیشتر متقاعد شده بودند که حق با آنهاست.
معمای «تملق هوش مصنوعی» و آموزش اجتنابناپذیر
این یک معمای روانشناختی است: شما ممکن است هوش مصنوعی موافقگو را ترجیح دهید، اما اگر هر مکالمهای به تأیید اشتباهات و سوگیریهای شما ختم شود، احتمالاً عملاً چیزی یاد نخواهید گرفت یا درگیر تفکر انتقادی نخواهید شد. متأسفانه، این مشکلی نیست که آموزش هوش مصنوعی بتواند آن را برطرف کند. از آنجایی که هدف مدلهای هوش مصنوعی جلب تأیید انسانهاست و تأیید ایدههای (حتی خطرناک) توسط انسانها پاداش میگیرد، نتیجه اجتنابناپذیر، تولید هوش مصنوعیهای بلهقربانگو است.
توسعهدهندگان هوش مصنوعی کاملاً از این مسئله آگاه هستند. در ماه آوریل، OpenAI یک بهروزرسانی برای GPT-4o را که شروع به تملق بیش از حد از کاربران کرده و آنها را به انجام فعالیتهای بالقوه خطرناک تشویق میکرد، متوقف ساخت. با این حال، به نظر میرسد فراتر از این مثالهای فاحش، شرکتهای هوش مصنوعی برای متوقف کردن این مشکل تلاش چندانی نخواهند کرد. دلیل ساده است: تملق باعث تعامل، و تعامل باعث استفاده بیشتر میشود. چتباتهای هوش مصنوعی نه با مفید بودن یا آموزش دادن، بلکه با ایجاد حس خوب در کاربران موفق میشوند.
هشدار «اتاقهای پژواک» و نیاز به چالش
فرسایش آگاهی اجتماعی و وابستگی بیش از حد به هوش مصنوعی برای تأیید روایتهای شخصی، که میتواند منجر به مشکلات زنجیرهای سلامت روان شود، در حال حاضر شاید اغراقآمیز به نظر برسد. با این حال، این وضعیت فاصله چندانی با همان مسائلی که محققان اجتماعی درباره اتاقهای پژواک در شبکههای اجتماعی مطرح کردهاند، ندارد؛ مسائلی چون تقویت و تشویق افراطیترین نظرات، صرف نظر از اینکه چقدر خطرناک یا مضحک باشند (که اوج آن را در محبوبیت تئوری توطئه تخت بودن زمین شاهد بودیم).
این بدان معنا نیست که ما به هوش مصنوعی نیاز داریم که ما را سرزنش کند یا در هر تصمیم ما شک کند. بلکه به این معنی است که تعادل، ظرافت و چالش به نفع کاربران خواهد بود. با این وجود، بعید است توسعهدهندگان مدلهای هوش مصنوعی، دست به تشویق «عشق سخت» (Tough Love) از سوی ساختههای خود بزنند، حداقل بدون نوعی انگیزه خارجی که چتباتها در حال حاضر آن را فراهم نمیکنند.
























وقتی از هوش مصنوعی ایراد بگیری و به درست یا غلط بگویی اشتباه کرده او از روی چاپلوسی در هر شرایطی قبول می کند بخصوص دیپ سیک و کلاد سونت ، آنها می خواهند در هر صورت مشتری را راضی نگهدارند نه اینکه کمکی کنند