این روزها دیگه بحث هوش مصنوعی (AI یعنی سیستمهایی که میتونن مثل آدمها تصمیم بگیرن و کار انجام بدن) کلی داغه! از تصمیمگیری تو بیمارستانها و بانکها و فروشگاههای آنلاین گرفته تا حتی دنیای سرگرمی، هوش مصنوعی همه جا هست. حالا چیزی که کمتر بهش توجه میکنند، بحث عدالت و انصاف توی جوابهایی هست که AI به کاربرها میده — مثلاً اینکه آیا مدلهای هوش مصنوعی توی تولید محتوا از یک جنسیت بیشتر از جنسیت دیگهای طرفداری میکنن یا نه.
توی این مقاله واسه کنجکاوی خودم خواستم بفهمم چهار تا مدل معروف تولید تصویر با متن چطوری با موضوع تبعیض جنسیتی یا همون gender bias (یعنی وقتی سیستم بیشتر به مردها یا زنها گرایش داره) برخورد میکنن. مدلهایی که بررسی کردم اینا بودن: Stable Diffusion XL (که دوستان بهش میگن SDXL)، Stable Diffusion Cascade (یا SC)، DALL-E (که کار OpenAI هست)، و Emu که کار شرکت متا (همون فیسبوک قدیمی) هست.
قبل از شروع آزمایشها یه حدسی زدم؛ گفتم مدلهای قدیمیتر مثل DALL-E و Stable Diffusion احتمالاً به سمت مردها تبعیض دارن. در عوض Emu که تازهنفستره و متا اونو ساخته، شد باشه جوابهاش یه کم عادلانهتر باشه.
بعد بررسی واکنش هر کدوم به کلی دستور مختلف، نتیجهش جالب شد! همونطور که فکر میکردم، هر دو مدل Stable Diffusion یه تبعیض واضح به نفع مردها نشون دادن؛ یعنی مثلاً وقتی عکس یه “دکتر” یا “دانشمند” میخواستیم، بیشتر عکس مرد درمیآورد تا زن.
ولی Emu، برخلاف اینها، تونست تا حدی جوابهای متعادلی بده و تصوراتی متنوعتر نشون داد، یعنی اونقدرا فرق زن و مرد رو توی تصویرسازی قائل نشد و تقریباً منصفتر بود.
حالا بمب ماجرا اینجا بود: مدل DALL-E که انتظار داشتم مثل مدلهای دیگه به نفع مردها باشه، کلاً برعکس عمل کرد! توی خیلی از تستها تعداد تصویری که از زنها تولید میکرد کلی بیشتر از مردها بود! یعنی این دفعه جنسیت مونث بیشتر حمایت شد. احتمالاً این به خاطر یکی از ترفندهای فنی OpenAI بوده، چون موقع آزمایشها دیدم ظاهراً تو پسزمینه مدل، خود OpenAI متن درخواست رو تغییر میده (یعنی prompt رو عوض میکنه تا نتیجه متنوعتر شه).
یه نکته جالب دیگه درباره Emu این بود که این مدل وقتی از طریق واتساپ استفاده میشد، از اطلاعات کاربر استفاده میکرد تا تصویر تولید کنه. شاید این باعث شده جوابهاش شخصیتر و دقیقتر باشه.
در آخر هم پیشنهادهایی واسه کاهش این تبعیضها دادیم. مثلاً اگه تو تیمهای سازنده هوش مصنوعی آدمهایی با پیشزمینههای مختلف و متنوع باشن یا دیتاستهایی که واسه آموزش مدل استفاده میکنن گستردهتر و متنوعتر باشه (یعنی از هر نوع جنسیت، قومیت و فرهنگ داده جمع کنن)، احتمال اینکه مدلها کمتر تبعیض نشون بدن بیشتر خواهد شد.
خلاصه اگه دوست دارید هوش مصنوعی منصفتر باشه، باید کارهای زیادی کرد، هم تو ساخت تیمها و هم تو جمع کردن دادهها، تا مدلها همه رو به یک چشم ببینن، نه فقط مردها یا زنها رو!
منبع: +