یه خبر داغ و جالب درباره هوش مصنوعی براتون دارم! محققها اومدن و روی یکی از موضوعات خیلی باحال کار کردن: اینکه آیا مدلهای زبانی بزرگ (LLMها مثلاً همون ChatGPT و رفقاش) میتونن شخصیت آدمها رو شبیهسازی کنن؟ یعنی اگه شما بهشون نقش یه آدم با شخصیت خاص رو بدی، آیا واقعا میتونن اون آدم رو درست بازی کنن یا نه؟
حالا این تحقیق که تو arXiv منتشر شده، دقیقاً روی همین موضوع دست گذاشته و یه سری چیزای مهم و بامزه کشف کرده که قراره براتون ساده و روون توضیح بدم.
داستان از اینجا شروع میشه که دانشمندها همیشه دوست داشتن بدونن هوش مصنوعیها واقعاً میتونن رفتار و شخصیت آدما رو تقلید کنن یا نه. تا حالا بیشتر آزمایشهای روانشناسی (مثلاً تستهای CFA یا همون «تجزیه و تحلیل عامل تأییدی» و اون چیزی که بهش میگن «اعتبار سازه» یا Construct Validity – یعنی اینکه یه تست واقعاً چیزی رو که باید اندازه بگیره، میگیره یا نه) بیشتر واسه آدما طراحی شده بودن و روی رباتا جواب درست و حسابی نمیدادن.
اما این گروه اومدن و یه چهارچوب ارزیابی باحالی معرفی کردن که میتونن باهاش بفهمن مدلهای زبانی چقدر خوب میتونن شخصیتها رو بازی کنن. این چهارچوب هم توی سطح فردی بررسی کرده که آیا رفتار یه نقش خاص توی مدل پایداره یا نه (یعنی هر بار همون شخصیت رو بازی میکنه یا اشتباه میشه)، هم در سطح جمعیتی دیدن آیا این مدلها میتونن گروهی از شخصیتها رو درست تقلید کنن یا نه.
یه موضوع فوقالعاده مهم که کشف کردن اینه: هرچی جزئیات و توضیحات بیشتری به هوش مصنوعی بدی که اون شخصیت چه ویژگیهایی داره، اجرای نقشش واقعاً قویتر و دقیقتر میشه! یعنی اگه یه پروفایل مفصل و پر از اطلاعات واسه شخصیت بسازی، مدل زبانی خیلی بهتر میتونه اون نقش رو دربیاره. اینو بهش میگن “Scaling Law” یا قانون مقیاسبندی – یعنی هرچی اطلاعات شخصیت بیشتر بشه، مدل بهتر و طبیعیتر نقشبازی میکنه، ولی از یه جا به بعد، اضافهکردن اطلاعات زیاد دیگه اونقدر هم تأثیر زیادی نداره (که بهش میگن «اثر فایدهی نهایی»، یعنی هرچی جلوتر میری، سودش کمتر میشه).
این تحقیق با تستهای عملی هم نشون داده بوده که همین اضافهکردن جزئیات، کیفیت شبیهسازی شخصیت رو شدیداً بالا میبره. پس دیگه لازم نیست دنبال تکنیکهای پیچیده بگردی؛ فقط باید یه پروفایل شخصیت کامل و پرجزئیات داشته باشی!
جمعبندی ماجرا اینه که این چهارچوب جدید نهتنها واسه بررسی مدلهای هوش مصنوعی توی حوزه علوم انسانی و اجتماعی خیلی به درد میخوره، بلکه یه پایه تئوریک و ابزار عملی هم میده واسه کسایی که میخوان آزمایشهای علمی با LLMها انجام بدن. خلاصه حرفشون اینه: اگه میخوای هوش مصنوعی آدمبازی کنه، جزئیات شخصیت رو دست بالا بگیر!
راستی، اصطلاحات
- LLM یا همون Large Language Models یعنی مدلهای زبانی خیلی بزرگ مثل ChatGPT که میتونن متن بسازن و نقش بازی کنن
- پروفایل شخصیت: همون توضیحات و ویژگیهای مربوط به یه شخصیت خاص
- چارچوب ارزیابی: یه مدل یا روش منظم واسه بررسی اینکه چقدر چیزی خوب جواب میده یا نه
پس اگه یه روزی خواستین هوش مصنوعی رو مجبور کنین نقش یه کاراکتر بامزه رو بازی کنه، یادتون نره باید براش دقیق و مفصل توضیح بدین طرف چه جور آدمیه 😉
منبع: +