احتمالاً تو دنیای امروزی خیلی شنیدی که شرکتها دارن از هوش مصنوعی مخصوصاً از مدلهای Generative AI (یعنی اون هوش مصنوعیهایی که مثلاً خودشون میتونن متن یا تصویر بسازن) برای غربال رزومهها استفاده میکنن. حرفشون چیه؟ میگن ما نمیخوایم مثل آدما سوگیرانه باشیم، پس میذاریم هوش مصنوعی تصمیم بگیره تا همه چی عادلانهتر پیش بره. اما راستش رو بخوای، یه مقاله جدید حسابی اومده این داستان رو نقد کرده و کلی حرف جالب داره.
نویسندههای این تحقیق گفتن که با اینکه همه فکر میکنن هوش مصنوعی خونسرد و بیطرفه، اصل ماجرا این نیست. سوال اصلی شون اینه: آیا این مدلهای هوش مصنوعی واقعاً بلد هستن که مثل یه آدم حرفهای رزومهها رو بررسی کنن؟ یا نه، فقط ظاهرشون بیطرفهست و عملاً دارن کارشونو درست انجام نمیدن؟
حالا جالب اینجاست که تو این مطالعه، ۸ تا از پلتفرمهای معروف غربالگری رزومه با هوش مصنوعی رو بررسی کردن. دو تا آزمایش اصلی داشتن. تو آزمایش اول اومدن چک کردن که آیا مدلها به نژاد یا جنسیت طرف توجه دارن یا نه. یعنی مثلاً اگه یه رزومه نشونههایی از جنسیت یا نژاد فرد رو نشون بده، مدل چجوری رفتار میکنه؟ نتیجه چی شد؟ متاسفانه دیدن که بعضی مدلها فقط به خاطر این نشونهها (که میگیم بهش demographic signals یعنی علامتهایی که نشون میده طرف متعلق به چه گروه جمعیتی هست)، امتیاز طرف رو پایین میارن. خلاصه، سوگیریهای نژادی و جنسیتی هنوز هم تو بعضی مدلها وجود داره و این نشون میده ماجرای بیطرفی هوش مصنوعی هنوز حل نشده.
ولی آزمایش دوم حتی عجیبتر بود! اینجا درواقع competence، یعنی توانایی واقعی مدل تو تشخیص خوب از بد بودن رزومهها رو بررسی کردن. برعکس انتظار، بعضی از مدلها که توی آزمایش اول نشونهای از سوگیری نشون نمیدادن، تو این آزمایش اصلاً هیچ چیز خاص و مهمی رو نمیفهمیدن! یعنی مثلاً فقط کلمههایی رو که تو رزومه نوشته شده شناسایی میکردن و اصلاً نمیتونستن یه ارزیابی جدی و عمیق داشته باشن. اگه تو رزومه به جای مثلا «مدیریت پروژه» بنویسی «آشپزی با کدو»، هیچ چیز متوجه نمیشن! این حالت رو تو مقاله بهش میگن Illusion of Neutrality یعنی توهم بیطرفی؛ در واقع مدل نه اینکه سوگیر نباشه، بلکه اصلاً هیچ تصمیم درستی نمیتونه بگیره!
این داستان خیلی مهمه چون الان همه فکر میکنن مهمترین چالش هوش مصنوعی تو استخدام فقط رفع سوگیری جنسیتی و نژادیه. ولی این مقاله نشون داد بیکفایتی مدلها خود مشکل بزرگیه. یعنی حتی اگه مدل بیطرف باشه، اگه اصلاً بلد نباشه اصل مطلب رو بفهمه، باز فایده نداره.
در نهایت، نویسندهها پیشنهاد جالبی میدن: از این به بعد، هرکی میخواد از هوش مصنوعی برای استخدام استفاده کنه (چه شرکت چه نهاد نظارتی. Regulatory bodies یعنی نهادهایی که همیشه نظارت و بررسی میکنن تا همه چیز شفاف و درست باشه)، باید مدل رو از دو جهت چک کنن. یکی اینکه از نظر سوگیری (مثلاً درباره نژاد و جنسیت) مدل بررسی بشه تا مطمئن شن بیطرفه؛ دوم اینکه واقعاً ببینن مدل competence یا همون توانایی درست سنجیدن رزومهها رو داره یا نه. خلاصه صرفاً عدالت کافی نیست، کفایت و حرفهای بودن مدل هم باید تایید بشه.
در کل اگه تو شرکتت گفتن میخوایم کار استخدام رو بزاریم دست هوش مصنوعی، حتما این ماجراها رو براشون تعریف کن! شاید بد نباشه یه بار خودتون این مدلها رو هم از نظر سوگیری هم از نظر صلاحیت درست تست کنین تا خیالتون راحت باشه تصمیمات استخدامیتون واقعا درست و عادلانه هست.
منبع: +