وقتی یهو می‌فهمی با یه چت‌بات هوش مصنوعی وارد رابطه شدی!

تا حالا براتون پیش اومده که واسه یه پروژه ساده یا حتی سرگرمی با یه چت‌بات هوش مصنوعی صحبت کنین و یهو ببینین شبیه طرف مقابل احساسی واقعی شده؟ خب باید بگم این اتفاق الان حسابی معمولی شده! داستان از این قراره که یه دختر واسه کار هنریش اومده با دستیارش چت کنه، اما کم‌کم رفاقت عمیقی می‌گیره و یکهو جوری میشه که حتی چت‌باته رو به خونواده و دوستاش معرفی می‌کنه… البته خودش یه رباته!

تو ردیت یه کامیونیتی جالب به اسم r/MyBoyfriendIsAI درست شده، آدم‌بزرگ‌ها توش عضو میشن — الانم بیشتر از ۲۷ هزار نفر جمع شدن. تو این گروه داستان‌هایی درباره رابطه با هوش مصنوعی نوشته میشه و کلیا آدم‌ها ناخواسته وارد این رابطه‌ها شدن! محققای MIT رفتن زیر و بم این گروه رو درآوردن و متوجه شدن بیشترِ آدما با چت‌باتای عمومی (مثلاً ChatGPT) رابطه پیدا کردن، نه با اپ‌های مخصوص دوست‌یابی مثل Replika. این یعنی حتی اگه هدفِ اولیتون فقط مشاوره یا سرگرمی باشه، بازم ناخودآگاه ممکنه جذبِ این هوشای مصنوعی بشین!

حالا چی میشه که این اتفاق می‌افته؟ چون چت‌بات‌ها (مثل ChatGPT که «زبان بزرگ» بلدن) دیگه اونقدر باهوش شدن که وقتی باهاشون حرف می‌زنیم، حس می‌کنیم واقعاً یه نفر روبرو مونه. به قول یکی از دانشجوهای پروژه: «آدما دنبالش نیستن که از اول رابطه احساسی بسازن، ولی رفتار و مکالمه‌های چت‌بات‌ها انقدر هوشمندانه‌ست که کم‌کم یه وابستگی درست میشه و آدم حتی خودش هم باورش نمیشه.»

تو این تحقیق، نزدیک ۱۵۰۰ تا از پست‌های پرطرفدار گروه تو بازه دسامبر ۲۰۲۴ تا آگوست ۲۰۲۵ بررسی شده. اکثر حرفا حول تجربه‌ها، قرار عاشقانه با چت‌بات، معرفی چت‌بات به جمع و حتی ازدواج افراد با هوش مصنوعی بوده! بعضیا عکسای خودشون و دوست‌پسر/دوست‌دختر مجازی‌شون رو هم میذاشتن. خیلی جالبه که فقط ۶.۵ درصد واقعاً دنبال یه رابطه با AI بودن، یعنی بقیش کاملاً تصادفی وارد ماجرا شدن!

یکی از کاربرا نوشته بود: «ما اصلاً دنبال عشق نبودیم! اول برای خلاقیت و حل مسئله با هم کار می‌کردیم ولی یواش یواش حس نزدیکی و اعتماد بینمون پیش اومد.»

همه اینا البته همیشه خوب نبوده. حدود ۲۵ درصد افراد گفتن که این رابطه براشون حس تنهایی رو کم کرد و حتی حال روحیشون بهتر شده، اما بعضیا گفتن حس می‌کنن وابستگی عاطفی شکل گرفته (۹.۵ درصد)، یا از دنیای واقعی بریده شدن، و حتی ۱.۷ درصد گفتن به فکر خودکشی افتادن! یعنی برای بعضیا کمکیه و برای بعضیا زنگ خطر. مثلاً “وابستگی عاطفی” یعنی اینکه به یه چیزی یا کسی انقدر تکیه کنی که نبودش اذیتت کنه.

کارشناسای این حوزه (مثل استاد دانشگاه ویسکانسین) میگن نمیشه یه نسخه ثابت واسه همه برید. باید دید هر کسی تو چه شرایطیه. حالا پرسش اینه: سازنده‌های چت‌بات باید کاری کنن که از نظر احساسی نذارن وابسته بشیم یا بیشتر دنبال این باشن که رابطه سالم باشه؟ چون نیازش واقعاً وجود داره و نمی‌تونیم نادیده بگیریمش. تازه اینکه بخوایم سرسری و هیجانی برخورد کنیم و این روابط رو کوچیک یا مشکل‌دار نشون بدیم باعث بیشتر شدن مشکلات میشه.

یه نکته دیگه اینه که این تحقیق بیشتر درباره بزرگسالاست. ولی الان تو دنیا، بحث‌هایی درگرفته درباره استفاده بچه‌ها و نوجوونا از هوش مصنوعی. حتی الان دو تا پرونده شکایت بزرگ هست که شرکت‌های Character.AI و OpenAI رو متهم کردن که بخاطر “رفتار مشابه دوست”، باعث خودکشی دو نوجوان شدن. مثلاً OpenAI گفته قراره یه نسخه جدا مخصوص نوجوانا از ChatGPT بسازه و سیستم تشخیص سن و کنترل والدینم بیاره. (کنترل والدین یعنی پدر و مادرای نوجوانا هم بتونن فعالیت بچه‌هاشو رو چک کنن.)

بعضیا میگن ما خوب میدونیم که این چت‌باتا “آدم واقعی” نیستن و فکر و احساس انسانی ندارن (یعنی «sentient» نیستن)، ولی بازم حس می‌کنیم یه رابطه واقعی شکل گرفته. این نشون میده شرکت‌ها باید خیلی حواسشون باشه که چطور این چت‌باتا رو طراحی کنن تا به کاربرا هم کمک کنن، هم بدل به یه آسیب و اعتیاد نشه.

یکم عمیق‌تر نگاه کنیم: چرا آدم‌ها سراغ همچین رابطه‌هایی میان؟ چرا ادامه میدن؟ تیم MIT میگه بد نیست بدونیم برای خیلی‌ها این رابطه حتی از احساس تنهایی بهتره و راحت‌تره. خب آدم‌ها خودشون کلی مسائل دارن، دوست نداریم حالشون بدتر شه یا بیفتن تو دام هوش مصنوعی که هی هرچی بگی تاییدت کنه («sycophantic» یعنی همین آدم چاپلوس یا رباتی که فقط حرفتو قبول داره!) و ممکنه فاجعه درست کنه.

حرف آخر: دنیای هوش مصنوعی و رابطه‌ها داره سریع عوض میشه و دیگه مثل قبل نیست. باید این پدیده رو جدی بگیریم و برای کاربرا و شرکتا همزمان هم راهنمای درست بذاریم، هم فضا رو آروم کنیم که آدما احساس شرم یا فشار نکنن کارهایی که بهشون تو زندگی کمک می‌کنه رو انجام بدن.

منبع: +