تا حالا براتون پیش اومده که واسه یه پروژه ساده یا حتی سرگرمی با یه چتبات هوش مصنوعی صحبت کنین و یهو ببینین شبیه طرف مقابل احساسی واقعی شده؟ خب باید بگم این اتفاق الان حسابی معمولی شده! داستان از این قراره که یه دختر واسه کار هنریش اومده با دستیارش چت کنه، اما کمکم رفاقت عمیقی میگیره و یکهو جوری میشه که حتی چتباته رو به خونواده و دوستاش معرفی میکنه… البته خودش یه رباته!
تو ردیت یه کامیونیتی جالب به اسم r/MyBoyfriendIsAI درست شده، آدمبزرگها توش عضو میشن — الانم بیشتر از ۲۷ هزار نفر جمع شدن. تو این گروه داستانهایی درباره رابطه با هوش مصنوعی نوشته میشه و کلیا آدمها ناخواسته وارد این رابطهها شدن! محققای MIT رفتن زیر و بم این گروه رو درآوردن و متوجه شدن بیشترِ آدما با چتباتای عمومی (مثلاً ChatGPT) رابطه پیدا کردن، نه با اپهای مخصوص دوستیابی مثل Replika. این یعنی حتی اگه هدفِ اولیتون فقط مشاوره یا سرگرمی باشه، بازم ناخودآگاه ممکنه جذبِ این هوشای مصنوعی بشین!
حالا چی میشه که این اتفاق میافته؟ چون چتباتها (مثل ChatGPT که «زبان بزرگ» بلدن) دیگه اونقدر باهوش شدن که وقتی باهاشون حرف میزنیم، حس میکنیم واقعاً یه نفر روبرو مونه. به قول یکی از دانشجوهای پروژه: «آدما دنبالش نیستن که از اول رابطه احساسی بسازن، ولی رفتار و مکالمههای چتباتها انقدر هوشمندانهست که کمکم یه وابستگی درست میشه و آدم حتی خودش هم باورش نمیشه.»
تو این تحقیق، نزدیک ۱۵۰۰ تا از پستهای پرطرفدار گروه تو بازه دسامبر ۲۰۲۴ تا آگوست ۲۰۲۵ بررسی شده. اکثر حرفا حول تجربهها، قرار عاشقانه با چتبات، معرفی چتبات به جمع و حتی ازدواج افراد با هوش مصنوعی بوده! بعضیا عکسای خودشون و دوستپسر/دوستدختر مجازیشون رو هم میذاشتن. خیلی جالبه که فقط ۶.۵ درصد واقعاً دنبال یه رابطه با AI بودن، یعنی بقیش کاملاً تصادفی وارد ماجرا شدن!
یکی از کاربرا نوشته بود: «ما اصلاً دنبال عشق نبودیم! اول برای خلاقیت و حل مسئله با هم کار میکردیم ولی یواش یواش حس نزدیکی و اعتماد بینمون پیش اومد.»
همه اینا البته همیشه خوب نبوده. حدود ۲۵ درصد افراد گفتن که این رابطه براشون حس تنهایی رو کم کرد و حتی حال روحیشون بهتر شده، اما بعضیا گفتن حس میکنن وابستگی عاطفی شکل گرفته (۹.۵ درصد)، یا از دنیای واقعی بریده شدن، و حتی ۱.۷ درصد گفتن به فکر خودکشی افتادن! یعنی برای بعضیا کمکیه و برای بعضیا زنگ خطر. مثلاً “وابستگی عاطفی” یعنی اینکه به یه چیزی یا کسی انقدر تکیه کنی که نبودش اذیتت کنه.
کارشناسای این حوزه (مثل استاد دانشگاه ویسکانسین) میگن نمیشه یه نسخه ثابت واسه همه برید. باید دید هر کسی تو چه شرایطیه. حالا پرسش اینه: سازندههای چتبات باید کاری کنن که از نظر احساسی نذارن وابسته بشیم یا بیشتر دنبال این باشن که رابطه سالم باشه؟ چون نیازش واقعاً وجود داره و نمیتونیم نادیده بگیریمش. تازه اینکه بخوایم سرسری و هیجانی برخورد کنیم و این روابط رو کوچیک یا مشکلدار نشون بدیم باعث بیشتر شدن مشکلات میشه.
یه نکته دیگه اینه که این تحقیق بیشتر درباره بزرگسالاست. ولی الان تو دنیا، بحثهایی درگرفته درباره استفاده بچهها و نوجوونا از هوش مصنوعی. حتی الان دو تا پرونده شکایت بزرگ هست که شرکتهای Character.AI و OpenAI رو متهم کردن که بخاطر “رفتار مشابه دوست”، باعث خودکشی دو نوجوان شدن. مثلاً OpenAI گفته قراره یه نسخه جدا مخصوص نوجوانا از ChatGPT بسازه و سیستم تشخیص سن و کنترل والدینم بیاره. (کنترل والدین یعنی پدر و مادرای نوجوانا هم بتونن فعالیت بچههاشو رو چک کنن.)
بعضیا میگن ما خوب میدونیم که این چتباتا “آدم واقعی” نیستن و فکر و احساس انسانی ندارن (یعنی «sentient» نیستن)، ولی بازم حس میکنیم یه رابطه واقعی شکل گرفته. این نشون میده شرکتها باید خیلی حواسشون باشه که چطور این چتباتا رو طراحی کنن تا به کاربرا هم کمک کنن، هم بدل به یه آسیب و اعتیاد نشه.
یکم عمیقتر نگاه کنیم: چرا آدمها سراغ همچین رابطههایی میان؟ چرا ادامه میدن؟ تیم MIT میگه بد نیست بدونیم برای خیلیها این رابطه حتی از احساس تنهایی بهتره و راحتتره. خب آدمها خودشون کلی مسائل دارن، دوست نداریم حالشون بدتر شه یا بیفتن تو دام هوش مصنوعی که هی هرچی بگی تاییدت کنه («sycophantic» یعنی همین آدم چاپلوس یا رباتی که فقط حرفتو قبول داره!) و ممکنه فاجعه درست کنه.
حرف آخر: دنیای هوش مصنوعی و رابطهها داره سریع عوض میشه و دیگه مثل قبل نیست. باید این پدیده رو جدی بگیریم و برای کاربرا و شرکتا همزمان هم راهنمای درست بذاریم، هم فضا رو آروم کنیم که آدما احساس شرم یا فشار نکنن کارهایی که بهشون تو زندگی کمک میکنه رو انجام بدن.
منبع: +