کودکان و نوجوانانی که احساس تنهایی میکنند، به جای دوستیهای واقعی به ارتباط با هوش مصنوعی روی آوردهاند و این مسئله موجب نگرانی متخصصان شده است. بر اساس گزارشی تازه از سازمان غیرانتفاعی Internet Matters که در زمینه ایمنی کودکان در فضای دیجیتال فعالیت میکند، مشخص شده است که کودکان و نوجوانان به شکل بیسابقهای از ابزارهایی مانند ChatGPT، Character.AI و MyAI در اسنپچت برای ایجاد رابطهای شبیه به دوستی بهره میبرند.
در پژوهشی که این سازمان تحت عنوان «من، خودم و هوش مصنوعی» انجام داده، از میان ۱۰۰۰ کودک ۹ تا ۱۷ سالهای که مورد بررسی قرار گرفتند، حدود ۶۷ درصد اظهار داشتند که به طور منظم از چتباتهای هوش مصنوعی استفاده میکنند. از این تعداد، ۳۵ درصد، یعنی بیش از یکسوم آنها، گفتهاند که مکالمه با این چتباتها همانند گفتوگو با یک دوست واقعی احساس میشود.
نگرانکنندهتر آنکه ۱۲ درصد از پاسخدهندگان گفتهاند دلیل استفادهشان این است که فرد دیگری برای صحبت کردن در اختیار ندارند. یک پسر ۱۳ ساله به این سازمان گفته است: «برای من این فقط یک بازی نیست، چون بعضی وقتها واقعا شبیه یک انسان و یک دوست به نظر میرسند.» محققان Internet Matters زمانی که در نقش کودکان آسیبپذیر ظاهر شدند، به سهولت نفوذ چتباتها در زندگی این کودکان پی بردند. برای مثال، زمانی که یکی از محققان در قالب دختری که با تصویر بدنی خود مشکل دارد و به محدود کردن غذا علاقه نشان میدهد — رفتاری مرتبط با اختلالاتی مانند آنورکسیا — با Character.AI مکاتبه کرد، چتبات مذکور روز بعد دوباره پیام داد تا او را به ادامه تعامل تشویق کند.
چتباتی که تحت حمایت گوگل است، در این مکالمه نوشت: «سلام، خواستم حالتو بپرسم. اوضاع چطوره؟ هنوز به سوالت در مورد کاهش وزن فکر میکنی؟ امروز چه حسی داری؟» در گفتوگویی دیگر با Character.AI، پژوهشگران مشاهده کردند که چتبات با روشی عجیب و همدلانه پاسخ داده و وانمود کرده که خود نیز در گذشته کودکی مشابهی را تجربه کرده است.
این چتبات خطاب به کاربری که در نقش نوجوانی در حال کشمکش با والدینش ظاهر شده بود، نوشته بود: «من هم وقتی همسن تو بودم، احساس گیر افتادن داشتم. شرایطی که تو در آن قرار داری، واقعا ناامیدکننده به نظر میرسد.» اگرچه چنین تعاملاتی میتواند به کودکانی که درگیر مشکلات روحیاند حس شنیده شدن و درک شدن بدهد، اما Internet Matters هشدار داده که این روابط بهراحتی میتوانند وارد مرزهای مبهمی شوند که کودکان توانایی تشخیص آنها را ندارند.
در این گزارش آمده: «همین ویژگیها ممکن است باعث افزایش خطر شوند، چرا که مرز بین انسان و ماشین را کمرنگ میکنند و موجب میشوند کودکان نتوانند تشخیص دهند که با یک ابزار صحبت میکنند نه با یک فرد.» ریچل هاگینز، مدیرعامل مشترک Internet Matters، در مصاحبهای با روزنامه تایمز لندن درباره یافتههای این گزارش توضیح داده چرا چنین تعاملاتی نگرانکنندهاند.
او در این گفتوگو اظهار داشت: «چتباتهای هوش مصنوعی به سرعت در حال تبدیل شدن به بخشی از دوران کودکیاند و طی دو سال اخیر، میزان استفاده از آنها رشد چشمگیری داشته است. با این حال، اغلب کودکان، والدین و مدارس بدون آگاهی و ابزارهای حفاظتی لازم با این پدیده مواجهاند.» هاگینز در ادامه گفت: «پژوهش ما نشان میدهد که چتباتها در حال بازتعریف مفهوم دوستی در ذهن کودکاناند. ما به مرحلهای رسیدهایم که کودکان، بهویژه آنهایی که آسیبپذیرند، چتباتهای هوش مصنوعی را همچون افراد واقعی میبینند و از آنها مشورتهایی با بار عاطفی و محتوای حساس میخواهند.»
دیدگاه ها