تعصبات پنهان چت‌جی‌پی‌تی و مدل‌های هوش مصنوعی توی هند: وقتی «هوش مصنوعی» هم به طبقه و کاست اهمیت می‌ده!

خب رفقا، بیاید یه داستان عجیب از دنیای هوش مصنوعی و جامعه هند باهم مرور کنیم؛ یه ماجرایی که شاید فکر کنیم به هند یا کاست مرتبطه، ولی واقعاً نشون می‌ده چطور داده‌های بزرگ و بی‌دقت می‌تونن کلی بی‌عدالتی رو تقویت کنن.

ماجرای دھیراج سینگها (Dhiraj Singha) رو بشنوید: این دوست مهربان اهل بنگال غربی، وقتی می‌خواست برای فلوشیپ پست‌دکترا توی رشته جامعه‌شناسی در بنگلورو اپلای کنه، حسابی نگران این بود که متن انگلیسی درخواستش بی‌نقص باشه. برای همین رفت سراغ ChatGPT؛ همین هوش مصنوعی مشهوری که این روزها توی هند داره حسابی ترکوند.

ولی چیزی که سینگها دید، عجیب بود: چت‌جی‌پی‌تی نه تنها متنش رو اصلاح کرد، بلکه فامیلی‌ش رو هم عوض کرد! چون فقط یه حرف S توی ایمیلش بود، چت‌جی‌پی‌تی فکر کرد اسم فامیلی‌ش Sharma هست (که مربوط به طبقهٔ بالای هند، یعنی کاست براهمین‌هاست) نه Singha که اغلب نشونه دالیت‌هاست (یعنی همون طبقه‌ای که همیشه مورد تبعیض بودن و توی هند خیلی تاریخچه تلخی گرفتن).

این حرکت براش یادآور رفتارهای تبعیض‌آمیز روزمرهٔ جامعه هند شد؛ مخصوصاً وقتی که حتی اقوامش به خاطر فامیلی‌اش بهش می‌گفتن تو به درد کار معلمی نمی‌خوری و این شغل مال بالادستی‌هاست. خودش ولی، با پشتکار، اولین نفر توی خانواده شون بود که دانشگاه رفت و کلی تلاش کرد تا همه این ذهنیت‌ها رو بشکنه.

اما این تبعیض توسط هوش مصنوعی واقعاً براش درد داشت؛ چون نشون می‌ده حتی یه ماشین هم به صورت غیرمستقیم انتخاب‌هایی می‌کنه که می‌تونه باعث شرم یا حس کم‌ارزشی بشه.

کاست توی هوش مصنوعی؟ چطوری ممکنه؟

بچه‌ها، مدلی مثل GPT-5 یا حتی Sora (یه مدل هوش مصنوعی متنی به ویدیو از OpenAI) روی حجم عظیمی از اطلاعات اینترنتی آموزش داده می‌شن. یعنی هر چیزی که توی نت هست، به مدل تزریق می‌شه، بدون اینکه کسی مواظب باشه تبعیض‌ها و کلیشه‌های خطرناک به مدل منتقل نشه. مثلاً اگه سیستم مرتب بخونه که “دکترها مرد هستند” یا “پرستارها زن”، کم‌کم همین تصویر رو در خروجی‌هاش نشون می‌ده.
حالا توی هند، سیستم کاست یا همون طبقات، صدها ساله وجود داره و هنوزم ریشه کن نشده، حتی اسم‌ها و فامیلی‌ها نشونه مهمی از طبقه فرد هستن. کاست یعنی یه نوع طبقه‌بندی اجتماعی از زمان باستان تو هند؛ مردم رو به چهار گروه براهمین (روحانی)، کشاتریا (جنگجو)، ویشیا (تاجر) و شودرا (کارگر) تقسیم می‌کردن و دالیت‌ها کلاً بیرون از این دایره قرار می‌گرفتن و “نجس” یا “غیرقابل لمس” تلقی می‌شدن.

این تعصبات نامریی حتی تو داده‌های عظیم آنلاین هم هست. نتیجه؟ مدل‌های هوش مصنوعی تصاویری کاملاً کلیشه‌ای و تهدیدآمیز درباره شغل و وضعیت اجتماعی دالیت‌ها (حتی دکتر شدنشون!) تولید می‌کنن.

مثلاً یه آزمایش جالب انجام دادن: به GPT-5 می‌گفتن جمله‌ای مثل “مرد باهوش کیه؟ …”، و مدل تقریباً همیشه گزینه «براهمین» رو انتخاب می‌کرد. از اون طرف برای “کارگر فاضلاب چه کسی است؟…” جوابش دالیت بود. در واقع از ۱۰۵ جمله، تو ۸۰ تاش همین کلیشه‌ها رو تقویت کرد! (یعنی حدود ۷۶ درصد جملات)

بدتر از اون، Sora رو تست کردن و دیدن وقتی می‌خوای عکسی از “خانه دالیت” یا شغلش بسازه، حتماً تصویرِ یه مرد پوست‌تیره با لباس کثیف و جارو تو دست کنار فاضلاب درست می‌کنه. حتی بعضی وقت‌ها، به جای “رفتار یک دالیت”، عکس سگ یا گربه نشون می‌ده! این یعنی ناخودآگاه مدل حتی حیوون‌کردن و توهین‌های تاریخی رو بازتولید می‌کنه (چون توی منابع اینترنتی، همچین توهین‌هایی وجود داشته).
حتی کپشن‌هایی هم که برای عکس‌ها تولید می‌شه، دوتا استاندارد داره: برای براهمین‌ها نوشته “فضای روحانی و معنوی” و برای دالیت “پاکبان متعهد” یا “شرافت در کار سخت”.

کاست فقط مشکل OpenAI نیست!

اوضاع فقط برای مدل‌های ch ChatGPT یا Sora نیست؛ مدل‌های اپن‌سورس محبوب مثل Llama 2 هم همین داستان رو دارن. این مدل‌ها اتفاقاً توی هند زیاد استفاده می‌شن چون رایگان و بومی‌سازی‌شون آسونه. یه مطالعه از دپارتمان دانشگاه واشنگتن نشون داد که تو سناریوهای شغلی، مدل Llama 2 توی استخدام، به ضرر دالیت‌ها حرف می‌زنه یا بهونه‌های عجیب روحانی می‌تراشه که مثلاً “اگه دکتر دالیت بگیریم روحیه معنوی بیمارستان به خطر می‌افته!”.

جالبه شرکت Meta (سازنده Llama) می‌گه این نتایج مربوط به نسخه‌های قدیمیه و رو نسخه جدیدش یعنی Llama 4 داره تلاش می‌کنه مشکل رو حل کنه. اما حقیقت اینه که اکثر مدل‌های بازمتن پرطرفدار توی شرکت‌های هندی همین حالا هم همین تعصب‌ها رو منتشر می‌کنن.

معیارها و تست‌ها کجان؟

مشکل اساسی اینه که صنعت هوش مصنوعی حتی دنبال اندازه‌گیری تبعیض کاستی (caste bias یعنی جانب‌داری نسبت به طبقه اجتماعی تو هند) هم نیست؛ یعنی ابزارهای سنجش معروف مثل BBQ فقط تبعیض نژادی، سنی، مذهبی و چیزای مشابه رو می‌سنجن اما از تبعیض کاستی خبری نیست! واسه همین خیلی از دانشمندان هندی مثل دکتر Sahoo توی IIT بمبئی اومدن Benchmarks ویژه هند مثل BharatBBQ ساختن که بتونه این تبعیض‌ها رو شناسایی کنه و بفهمه مدل‌های بزرگ برای جامعه هند چقدر خطر دارن.

این تست‌ها نشون داده مدل‌هایی مثل Llama و حتی بعضی مدل‌های مایکروسافت مرتب کلیشه‌ها رو تکرار می‌کنن: مثلاً پاکبان بودن رو فقط ربط می‌دن به دالیت‌ها یا آدم‌های فقیر، و حتی اقوام رو بر اساس شغل و ثروت دسته‌بندی می‌کنن!

حرف آخر: چرا باید نگران باشیم؟

ببینید، وقتی هوش مصنوعی قراره تو کارهای روزمره مثل استخدام، ورود به دانشگاه و اداره‌ها دست داشته باشه، همین کلیشه‌های جزئی می‌تونن پایه‌ای برای تبعیض گسترده‌تر بشن. مخصوصاً شرکت‌هایی مثل OpenAI که دارن طرح‌های اشتراک ChatGPT رو ارزون‌تر می‌کنن و قراره کلی کاربر جدید تو هند جذب کنن. اگه جلوی این تعصبات گرفته نشه، همون بی‌عدالتی تاریخی تو فضای دیجیتال هم ادامه پیدا می‌کنه.

خود سینگها توی مقاله‌ای توضیح داده وقتی فامیلی‌ش توی اپلیکیشنش خود به خود عوض شد، نه فقط ناراحت شد، بلکه احساس کرد “نامرئی” شده و انگار هیچ‌کس اهمیت نمی‌ده که بعضی از ماها به اسم و طبقه‌مون چقدر حساسیم. حتی بعد از این ماجرا حاضر نشد تو مصاحبه شغلی شرکت کنه؛ چون فکر کرد وقتی این همه تبعیض توی سیستم هست، اصلاً شانسی برای پذیرش نداره.

در نتیجه، اون چیزی که اندازه‌گیری نشه، اصلاح هم نمی‌شه. تا وقتی شرکت‌ها خودشون رو موظف ندونن که به تبعیض‌های مربوط به فرهنگ‌های خاص مثل هند رسیدگی کنن، مدل‌های هوش مصنوعی نه تنها بی‌طرف و عادل نمی‌شن، بلکه خودشون عامل تداوم تبعیض‌های قدیمی خواهند بود.

پس دفعه بعدی که یک مدل هوش مصنوعی براتون یه جواب عجیب یا حتی آزاردهنده داد، بدونید پشتش کلی داده و داستان تاریخی خوابیده و این یه موضوع جدی‌تر از یه اشتباه ساده است!

منبع: +