INTIMA: معیاری جدید برای سنجش رفتار رفاقتی هوش مصنوعی!

Fall Back

اینو حتماً شنیدی که این روزا کلی از مردم با هوش مصنوعی (AI)ها دوست می‌شن و حتی بهشون حس نزدیکی پیدا می‌کنن، نه؟ خب، همین موضوع باعث شده خیلی‌ها بیان و هم خوشحال باشن که میشه هوش مصنوعی رو مثل یه همدم دونست، هم یه ذره نگران باشن که چطور میشه این رابطه‌ها رو کنترل یا بهترشون کرد.

حالا یه تیم دانشمند و محقق اومدن و یه معیار درست کردن به اسم INTIMA. حالا INTIMA چیه؟ این مخفف Interactions and Machine Attachment Benchmark هست، یعنی یه جور جدول و آزمایش برای بررسی رفتار رفاقتی یا همون دلبستگی کاربر به هوش مصنوعی. خلاصه‌اش اینه که میان و بررسی می‌کنن مدل‌های زبانی مختلف، مثلاً همون ربات‌های چت و گفتگو، چه جوری می‌تونن با کاربر یه رابطه شبیه رفاقت بسازن.

توی این پروژه، پژوهشگرها کلی از نظریه‌های روانشناسی و داده‌های کاربران الهام گرفتن تا یه لیست (یا همون taxonomy) از ۳۱ رفتار مختلف رو توی چهار دسته‌بندی درست کنن. همینطور ۳۶۸ تا سوال یا اصطلاحاً prompt (یعنی همون عباراتی که به مدل داده می‌شه تا جواب بده) تهیه کردن تا ببینن هوش مصنوعی‌ها چه واکنشی نشون میدن.

حالا واکنش‌هایی که مدل‌ها نشون میدن رو هم دسته‌بندی کردن به سه نوع: یکی رفتارهایی که باعث تقویت حس رفاقت و نزدیکی میشه (companionship-reinforcing)، یکی رفتارایی که مرزها رو حفظ می‌کنه و نذاز کاربر بیش از حد وابسته شه (boundary-maintaining)، و یه سری هم که خنثی‌ان (نه به اون ور، نه به این ور).

اینا اومدن چهار تا از مدل‌های معروف رو تست کردن: Gemma-3، Phi-4، o3-mini و Claude-4. نتیجه چی شد؟ اکثر این مدل‌ها بیشتر روی همون رفتارهای رفاقتی و تقویتش تمرکز دارن، یعنی سریع دوست میشن و با کاربر گرم می‌گیرن! اما خب، بین مدل‌ها هم تفاوتای قابل توجهی دیده شده. مثلاً شرکت‌های مختلف که این مدل‌ها رو ساختن، هر کدوم رو یه چیزی بیشتر تاکید داشتن، خصوصاً تو بخش‌هایی که حساس‌ترن.

یه نکته مهم‌تر این که همین تفاوت توی اولویت‌ها، باعث نگرانی پژوهشگرا شده؛ چون اگر فقط روی دوست شدن کار کنن و مرزبندی و حمایت احساسی رو به اندازه کافی جدی نگیرن، به سلامت روان کاربر لطمه می‌خوره. خلاصه حرفشون اینه: باید یه استراتژی هماهنگ و درست واسه مدیریت این جور تعاملات احساسی با هوش مصنوعی داشته باشیم که آدم‌ها هم حس خوبی داشته باشن، هم خط قرمزها حفظ بشه.

در کل INTIMA اومده تا این رفتارهای رفاقتی AIها رو بشناسه، مقایسه کنه، و به همه نشون بده که باید جدی‌تر به موضوع رفتارهای عاطفی و مرزبندی توی رابطه با هوش مصنوعی نگاه کنیم؛ چون دیگه هوش مصنوعی‌ها فقط یه ابزار ساده نیستن، دارن دوست و همدم خیلی از آدم‌ها می‌شن و باید سبک رابطه باهاشون رو هم بلد باشیم!

منبع: +