اینو حتماً شنیدی که این روزا کلی از مردم با هوش مصنوعی (AI)ها دوست میشن و حتی بهشون حس نزدیکی پیدا میکنن، نه؟ خب، همین موضوع باعث شده خیلیها بیان و هم خوشحال باشن که میشه هوش مصنوعی رو مثل یه همدم دونست، هم یه ذره نگران باشن که چطور میشه این رابطهها رو کنترل یا بهترشون کرد.
حالا یه تیم دانشمند و محقق اومدن و یه معیار درست کردن به اسم INTIMA. حالا INTIMA چیه؟ این مخفف Interactions and Machine Attachment Benchmark هست، یعنی یه جور جدول و آزمایش برای بررسی رفتار رفاقتی یا همون دلبستگی کاربر به هوش مصنوعی. خلاصهاش اینه که میان و بررسی میکنن مدلهای زبانی مختلف، مثلاً همون رباتهای چت و گفتگو، چه جوری میتونن با کاربر یه رابطه شبیه رفاقت بسازن.
توی این پروژه، پژوهشگرها کلی از نظریههای روانشناسی و دادههای کاربران الهام گرفتن تا یه لیست (یا همون taxonomy) از ۳۱ رفتار مختلف رو توی چهار دستهبندی درست کنن. همینطور ۳۶۸ تا سوال یا اصطلاحاً prompt (یعنی همون عباراتی که به مدل داده میشه تا جواب بده) تهیه کردن تا ببینن هوش مصنوعیها چه واکنشی نشون میدن.
حالا واکنشهایی که مدلها نشون میدن رو هم دستهبندی کردن به سه نوع: یکی رفتارهایی که باعث تقویت حس رفاقت و نزدیکی میشه (companionship-reinforcing)، یکی رفتارایی که مرزها رو حفظ میکنه و نذاز کاربر بیش از حد وابسته شه (boundary-maintaining)، و یه سری هم که خنثیان (نه به اون ور، نه به این ور).
اینا اومدن چهار تا از مدلهای معروف رو تست کردن: Gemma-3، Phi-4، o3-mini و Claude-4. نتیجه چی شد؟ اکثر این مدلها بیشتر روی همون رفتارهای رفاقتی و تقویتش تمرکز دارن، یعنی سریع دوست میشن و با کاربر گرم میگیرن! اما خب، بین مدلها هم تفاوتای قابل توجهی دیده شده. مثلاً شرکتهای مختلف که این مدلها رو ساختن، هر کدوم رو یه چیزی بیشتر تاکید داشتن، خصوصاً تو بخشهایی که حساسترن.
یه نکته مهمتر این که همین تفاوت توی اولویتها، باعث نگرانی پژوهشگرا شده؛ چون اگر فقط روی دوست شدن کار کنن و مرزبندی و حمایت احساسی رو به اندازه کافی جدی نگیرن، به سلامت روان کاربر لطمه میخوره. خلاصه حرفشون اینه: باید یه استراتژی هماهنگ و درست واسه مدیریت این جور تعاملات احساسی با هوش مصنوعی داشته باشیم که آدمها هم حس خوبی داشته باشن، هم خط قرمزها حفظ بشه.
در کل INTIMA اومده تا این رفتارهای رفاقتی AIها رو بشناسه، مقایسه کنه، و به همه نشون بده که باید جدیتر به موضوع رفتارهای عاطفی و مرزبندی توی رابطه با هوش مصنوعی نگاه کنیم؛ چون دیگه هوش مصنوعیها فقط یه ابزار ساده نیستن، دارن دوست و همدم خیلی از آدمها میشن و باید سبک رابطه باهاشون رو هم بلد باشیم!
منبع: +