پرطرفدار یا منصف؟ بررسی تداخل کاراکتر و عدالت توی سیستم‌های پیشنهاددهنده هوش مصنوعی!

Fall Back

این روزها دیگه همه‌جا حرف از مدل‌های زبانی بزرگ یا همون LLMهاست (Large Language Models یعنی هوش مصنوعی‌هایی که می‌تونن یه عالمه متن تولید کنن، مثل ChatGPT). حالا این مدل‌ها خیلی وارد سیستم‌های پیشنهاددهنده شدن، یعنی همون سیستم‌هایی که به کاربرا مثلاً فیلم یا آهنگ پیشنهاد میدن. جالبه که این مدل‌ها با رویکردهای جدید مثل «پرسه‌زدن بدون نیاز به آموزش قبلی»، یعنی همون Zero-shot و البته شخصی‌سازی براساس کاراکتر کاربر از طریق دستورای خاص (پرومپت)، کلی به دنیای پیشنهاددهی هیجان دادن!

حالا داستان از اینجا جالب میشه که یکی از روش‌های شخصی‌سازی، استفاده از مدل OCEAN برای شخصیت کاربرهاست. OCEAN یعنی پنج ویژگی مهم شخصیتی: Openess (گشاده‌رویی)، Conscientiousness (وظیفه‌شناسی)، Extraversion (برون‌گرایی)، Agreeableness (سازگاری) و Neuroticism (روان‌رنجور بودن). به کمک این ویژگی‌ها میشه پیشنهادا رو خیلی دقیق‌تر و شخصی‌تر کرد. ولی این دقت توی شخصیت‌بخشی، یه مشکل دیگه هم پیش میاره: شاید دیگه به عدالت بین گروه‌های مختلف توجه نشه!

اینجاست که PerFairX وارد میشه؛ یه چارچوب جدید که هدفش اینه که بتونه تعادل بین شخصیت‌محوری و برابری یا عدالت دموگرافیک (یعنی اینکه فرقی نکنه اگه سن، جنسیت یا سوابق دیگه فرق داره) رو بسنجـه. PerFairX عملاً میگه بیاید ببینیم چقدر این شخصی‌سازی برای روحیات و سلایق هرکس خوب کار می‌کنه و در کنارش چقدر هنوز انصاف رو رعایت می‌کنه.

این سیستم رو روی دو تا دیتای معروف امتحان کردن: MovieLens 10M (یه عالمه دیتای پیشنهاد فیلم) و Last.fm 360K (پیشنهادهای موسیقی بر اساس دیتای بزرگ شنونده‌ها). مدل‌هایی که بررسی شدن هم ChatGPT و DeepSeek بودن؛ هرکدوم رو با دو جور پرومپت امتحان کردن: یکیشون نسبت به شخصیت حساسه (یعنی اطلاعات شخصیتی توش لحاظ شده) و یکیش دیگه خنثی و بی‌طرفه.

نتایج چی شد؟ وقتی پرومپت‌ها شخصیتی باشن، پیشنهادهایی که هوش مصنوعی میده خیلی بهتر به کاراکتر هرکاربر می‌خوره. ولی بی‌انصافی بین گروه‌های مختلف هم بیشتر میشه. یعنی مثلاً ممکنه مدل با دقت زیادی برای یه گروه پیشنهاد بده اما برای گروه دیگه خوب عمل نکنه.

در جزئیاتش، DeepSeek توی هماهنگی روانشناختی قوی‌تر از ChatGPT عمل می‌کنه اما خیلی هم به نوع پرومپتی که می‌دین حساسه. یعنی اگه کمی دستکاری کنین دستور رو، ممکنه نتایج کلی فرق کنه! از اون طرف ChatGPT اگرچه نتایجش خیلی استیبله (یعنی ثبات داره)، ولی اون‌طور شخصی‌سازی عجیب‌غریب رو نداره.

حرف آخر: PerFairX یه معیار علمی و کاربردی بهمون میده تا بفهمیم سیستم‌های پیشنهاددهنده با هوش مصنوعی چقدر می‌تونن همزمان هم برای تک‌تک افراد شخصی و باحال باشن، هم عدالت برای همه رعایت کنن! اینجوری هم کاربرا حس می‌کنن واقعا براشون محتوا انتخاب میشه، هم هیچ گروهی حس تبعیض نخواهد داشت. خلاصه، آینده‌ی سیستم‌های پیشنهاددهنده هوشمند، قراره هم باحال باشه، هم منصف!

منبع: +