یه نگاه خودمونی به تبعیض جنسیتی تو مدل‌های تبدیل متن به تصویر هوش مصنوعی!

Fall Back

این روزها دیگه بحث هوش مصنوعی (AI یعنی سیستم‌هایی که می‌تونن مثل آدم‌ها تصمیم بگیرن و کار انجام بدن) کلی داغه! از تصمیم‌گیری تو بیمارستان‌ها و بانک‌ها و فروشگاه‌های آنلاین گرفته تا حتی دنیای سرگرمی، هوش مصنوعی همه جا هست. حالا چیزی که کمتر بهش توجه می‌کنند، بحث عدالت و انصاف توی جواب‌هایی هست که AI به کاربرها می‌ده — مثلاً اینکه آیا مدل‌های هوش مصنوعی توی تولید محتوا از یک جنسیت بیشتر از جنسیت دیگه‌ای طرفداری می‌کنن یا نه.

توی این مقاله واسه کنجکاوی خودم خواستم بفهمم چهار تا مدل معروف تولید تصویر با متن چطوری با موضوع تبعیض جنسیتی یا همون gender bias (یعنی وقتی سیستم بیشتر به مردها یا زن‌ها گرایش داره) برخورد می‌کنن. مدل‌هایی که بررسی کردم اینا بودن: Stable Diffusion XL (که دوستان بهش می‌گن SDXL)، Stable Diffusion Cascade (یا SC)، DALL-E (که کار OpenAI هست)، و Emu که کار شرکت متا (همون فیسبوک قدیمی) هست.

قبل از شروع آزمایش‌ها یه حدسی زدم؛ گفتم مدل‌های قدیمی‌تر مثل DALL-E و Stable Diffusion احتمالاً به سمت مردها تبعیض دارن. در عوض Emu که تازه‌نفس‌تره و متا اونو ساخته، شد باشه جواب‌هاش یه کم عادلانه‌تر باشه.

بعد بررسی واکنش هر کدوم به کلی دستور مختلف، نتیجه‌ش جالب شد! همونطور که فکر می‌کردم، هر دو مدل Stable Diffusion یه تبعیض واضح به نفع مردها نشون دادن؛ یعنی مثلاً وقتی عکس یه “دکتر” یا “دانشمند” می‌خواستیم، بیشتر عکس مرد درمی‌آورد تا زن.

ولی Emu، برخلاف این‌ها، تونست تا حدی جواب‌های متعادلی بده و تصوراتی متنوع‌تر نشون داد، یعنی اونقدرا فرق زن و مرد رو توی تصویرسازی قائل نشد و تقریباً منصف‌تر بود.

حالا بمب ماجرا اینجا بود: مدل DALL-E که انتظار داشتم مثل مدل‌های دیگه به نفع مردها باشه، کلاً برعکس عمل کرد! توی خیلی از تست‌ها تعداد تصویری که از زن‌ها تولید می‌کرد کلی بیشتر از مردها بود! یعنی این دفعه جنسیت مونث بیشتر حمایت شد. احتمالاً این به خاطر یکی از ترفندهای فنی OpenAI بوده، چون موقع آزمایش‌ها دیدم ظاهراً تو پس‌زمینه مدل، خود OpenAI متن درخواست رو تغییر می‌ده (یعنی prompt رو عوض می‌کنه تا نتیجه متنوع‌تر شه).

یه نکته جالب دیگه درباره Emu این بود که این مدل وقتی از طریق واتساپ استفاده می‌شد، از اطلاعات کاربر استفاده می‌کرد تا تصویر تولید کنه. شاید این باعث شده جواب‌هاش شخصی‌تر و دقیق‌تر باشه.

در آخر هم پیشنهادهایی واسه کاهش این تبعیض‌ها دادیم. مثلاً اگه تو تیم‌های سازنده هوش مصنوعی آدم‌هایی با پیش‌زمینه‌های مختلف و متنوع باشن یا دیتاست‌هایی که واسه آموزش مدل استفاده می‌کنن گسترده‌تر و متنوع‌تر باشه (یعنی از هر نوع جنسیت، قومیت و فرهنگ داده جمع کنن)، احتمال اینکه مدل‌ها کمتر تبعیض نشون بدن بیشتر خواهد شد.

خلاصه اگه دوست دارید هوش مصنوعی منصف‌تر باشه، باید کارهای زیادی کرد، هم تو ساخت تیم‌ها و هم تو جمع کردن داده‌ها، تا مدل‌ها همه رو به یک چشم ببینن، نه فقط مردها یا زن‌ها رو!

منبع: +