عدالت کافی نیست: اصل ماجرا درباره سوگیری و بی‌کفایتی هوش مصنوعی تو استخدام‌ها!

Fall Back

احتمالاً تو دنیای امروزی خیلی شنیدی که شرکت‌ها دارن از هوش مصنوعی مخصوصاً از مدل‌های Generative AI (یعنی اون هوش مصنوعی‌هایی که مثلاً خودشون می‌تونن متن یا تصویر بسازن) برای غربال رزومه‌ها استفاده می‌کنن. حرفشون چیه؟ می‌گن ما نمی‌خوایم مثل آدما سوگیرانه باشیم، پس می‌ذاریم هوش مصنوعی تصمیم بگیره تا همه چی عادلانه‌تر پیش بره. اما راستش رو بخوای، یه مقاله جدید حسابی اومده این داستان رو نقد کرده و کلی حرف جالب داره.

نویسنده‌های این تحقیق گفتن که با اینکه همه فکر می‌کنن هوش مصنوعی خون‌سرد و بی‌طرفه، اصل ماجرا این نیست. سوال اصلی شون اینه: آیا این مدل‌های هوش مصنوعی واقعاً بلد هستن که مثل یه آدم حرفه‌ای رزومه‌ها رو بررسی کنن؟ یا نه، فقط ظاهرشون بی‌طرفه‌ست و عملاً دارن کارشونو درست انجام نمی‌دن؟

حالا جالب اینجاست که تو این مطالعه، ۸ تا از پلتفرم‌های معروف غربال‌گری رزومه با هوش مصنوعی رو بررسی کردن. دو تا آزمایش اصلی داشتن. تو آزمایش اول اومدن چک کردن که آیا مدل‌ها به نژاد یا جنسیت طرف توجه دارن یا نه. یعنی مثلاً اگه یه رزومه نشونه‌هایی از جنسیت یا نژاد فرد رو نشون بده، مدل چجوری رفتار می‌کنه؟ نتیجه چی شد؟ متاسفانه دیدن که بعضی مدل‌ها فقط به خاطر این نشونه‌ها (که می‌گیم بهش demographic signals یعنی علامت‌هایی که نشون می‌ده طرف متعلق به چه گروه جمعیتی هست)، امتیاز طرف رو پایین میارن. خلاصه، سوگیری‌های نژادی و جنسیتی هنوز هم تو بعضی مدل‌ها وجود داره و این نشون می‌ده ماجرای بی‌طرفی هوش مصنوعی هنوز حل نشده.

ولی آزمایش دوم حتی عجیب‌تر بود! اینجا درواقع competence، یعنی توانایی واقعی مدل تو تشخیص خوب از بد بودن رزومه‌ها رو بررسی کردن. برعکس انتظار، بعضی از مدل‌ها که توی آزمایش اول نشونه‌ای از سوگیری نشون نمی‌دادن، تو این آزمایش اصلاً هیچ چیز خاص و مهمی رو نمی‌فهمیدن! یعنی مثلاً فقط کلمه‌هایی رو که تو رزومه نوشته شده شناسایی می‌کردن و اصلاً نمی‌تونستن یه ارزیابی جدی و عمیق داشته باشن. اگه تو رزومه به جای مثلا «مدیریت پروژه» بنویسی «آشپزی با کدو»، هیچ چیز متوجه نمی‌شن! این حالت رو تو مقاله بهش می‌گن Illusion of Neutrality یعنی توهم بی‌طرفی؛ در واقع مدل نه اینکه سوگیر نباشه، بلکه اصلاً هیچ تصمیم درستی نمی‌تونه بگیره!

این داستان خیلی مهمه چون الان همه فکر می‌کنن مهم‌ترین چالش هوش مصنوعی تو استخدام فقط رفع سوگیری جنسیتی و نژادیه. ولی این مقاله نشون داد بی‌کفایتی مدل‌ها خود مشکل بزرگیه. یعنی حتی اگه مدل بی‌طرف باشه، اگه اصلاً بلد نباشه اصل مطلب رو بفهمه، باز فایده نداره.

در نهایت، نویسنده‌ها پیشنهاد جالبی می‌دن: از این به بعد، هرکی می‌خواد از هوش مصنوعی برای استخدام استفاده کنه (چه شرکت چه نهاد نظارتی. Regulatory bodies یعنی نهادهایی که همیشه نظارت و بررسی می‌کنن تا همه چیز شفاف و درست باشه)، باید مدل رو از دو جهت چک کنن. یکی اینکه از نظر سوگیری (مثلاً درباره نژاد و جنسیت) مدل بررسی بشه تا مطمئن شن بی‌طرفه؛ دوم اینکه واقعاً ببینن مدل competence یا همون توانایی درست سنجیدن رزومه‌ها رو داره یا نه. خلاصه صرفاً عدالت کافی نیست، کفایت و حرفه‌ای بودن مدل هم باید تایید بشه.

در کل اگه تو شرکتت گفتن می‌خوایم کار استخدام رو بزاریم دست هوش مصنوعی، حتما این ماجراها رو براشون تعریف کن! شاید بد نباشه یه بار خودتون این مدل‌ها رو هم از نظر سوگیری هم از نظر صلاحیت درست تست کنین تا خیالتون راحت باشه تصمیمات استخدامی‌تون واقعا درست و عادلانه هست.

منبع: +