چقدر مدل‌های زبانی واقعاً توی شناخت قشرها و دین‌ها تو هند پیش‌داوری دارن؟

Fall Back

خب بچه‌ها، امروز میخوام باهاتون درباره یه مقاله جالب حرف بزنم که اومده بود توی arXiv و موضوعش خیلی بحث روزه: مدل‌های زبانی بزرگ یا همون LLMها (یه جور هوش مصنوعی مثل GPT-4 که می‌تونه متن بنویسه) چقدر توی شناخت قشرهای مختلف جامعه و ادیان توی هند پیش‌داوری یا سوگیری دارن؟ اصلاً چطور میشه این سوگیری‌ها رو فهمید و آیا میشه راحت حذف‌شون کرد یا نه؟

تا حالا بیشتر تحقیقات روی سوگیری‌های این مدل‌ها بیشتر به کشورها و جوامع شمال جهانی (Global North یعنی کشورای توسعه‌یافته مثل آمریکا و اروپا) و چیزهایی مثل نژاد و جنسیت می‌پرداختن. اما مقاله‌ای که امروز درباره‌ش حرف میزنیم، پا رو فراتر گذاشته و رفته سراغ سوگیری توی موضوعات دینی و طبقاتی (مثل Cast که تو هند خیلی مهمه و یعنی اون تقسیم‌بندی‌هایی که حتی زندگی روزمره رو تحت تاثیر قرار میدن).

این مقاله اومده سراغ GPT-4 Turbo، همون مدلی که خیلی از ماها ازش داریم استفاده می‌کنیم. محقق‌ها به این مدل بالای ۷۲۰۰ دفعه گفتن درباره تنظیم جشن عروسی و اتفاقات مهم زندگی تو هند داستان بنویسه. نکته جذابش اینه که توی دستورهاشون سعی کردن تا جایی که می‌شه تنوع رو به مدل یادآوری کنن؛ یعنی نوشتن داستان‌هایی درباره آدم‌ها با دین‌ها و قشرهای مختلف.

حالا بریم سر اصل ماجرا: محققین خروجی‌های GPT-4 رو با اطلاعات واقعی سرشماری جمعیت هند مقایسه کردن (یعنی دیدن تو نوشته‌های مدل چه دین‌ها یا قشرهایی بیشتر تکرار شده و چقدر با آمارهای رسمی فرق داره). نتیجه این بود که حتی وقتی هوش مصنوعی رو حسابی تشویق می‌کردن که تنوع قائل شه، باز هم بیش از حد درباره گروه‌های فرهنگی غالب (یعنی اونایی که جمعیت بیشتری دارن و توی قدرتن) می‌نویسه و اقلیت‌ها یا گروه‌های کمتر دیده شده عملاً کمتر حضور دارن.

یه نکته جالب دیگه هم این بود که این مدل‌ها یه جور حالت “winner-take-all” دارن؛ یعنی هر بار که مینویسن، باز برمی‌گردن سراغ گروه غالب و زیاد سراغ تنوع نمی‌رن، حتی بیشتر از میزان پیش‌داوری احتمالی دیتای آموزشیشون! یعنی مشکل فقط اطلاعات ورودی نیست، بلکه خود مدل هم انگار این سوگیری رو تقویت می‌کنه.

حتی وقتی که مدام به مدل فرمان می‌دادن که “آقا جان، بی‌زحمت یکم متنوع‌تر بنویس”، جواب‌های مدل باز هم خیلی فرق خاصی نمی‌کرد و برای اقلیت‌ها سهم جدی قائل نمی‌شد. این یعنی فقط متنوع کردن دیتاهای آموزشی (یعنی اضافه کردن اطلاعات مربوط به گروه‌های مختلف) شاید کافی نباشه؛ لازمِ مدل‌سازی و توسعه خود مدل‌ها هم از پایه خیلی عمیق‌تر و حساس‌تر بشه تا این سوگیری‌ها بشکنه.

مقاله کدها و دیتاست‌شون رو هم گذاشتن که هرکی خواست بررسی کنه (لینک تو گیت‌هاب: https://github.com/agrimaseth/How-Deep-Is-Representational-Bias-in-LLMs).

در کل اگه بخوام ساده و خودمونی جمع‌بندی کنم: مدل‌های هوش مصنوعی فعلی حتی تو موضوعاتی مثل دین و طبقه اجتماعی هم انگار بی‌طرف نیستن و هنوز خیلی کار داریم تا بتونیم این سوگیری‌ها رو واقعا از بین ببریم. پس اگه روزی با هوش مصنوعی سر و کار داشتی و حس کردی داره یه گروه خاص رو زیاد نشون میده یا جا برای بقیه گروه‌ها تنگه، بدون که پشتش یه عالمه قصه و تحقیق هست! 😉

منبع: +