تا حالا براتون پیش اومده که یه سایت یا اپلیکیشن کاریابی یه شغل خفن، یا برعکس، یه کار عجیب پیشنهاد بده و با خودتون بگید: «خب چرا؟ اینو از کجا آورد!»؟ خیلیها دقیقاً همین حس رو دارن و اصلاً یکی از مشکلات اصلی این سیستمهای پیشنهاددهندهٔ شغل (که بهشون میگن PJRS یا Person–Job Recommendation Systems) همینه که معلوم نیست بر چه اساسی تصمیم میگیرن. دقیقا مثل یه جعبه سیاه! یعنی شما فقط نتیجه رو میبینید، ولی نمیشه فهمید چی تو سر این سیستمها گذشته.
حالا چند سالیه که بحثِ توضیحپذیری یا همون “Explainable AI” (XAI) تو این مدل سیستمها خیلی داغ شده. XAI یعنی: هوش مصنوعی بتونه کاراشو توضیح بده، نه اینکه فقط خروجی بده و بگه “همینه که هست!”.
یه تیم پژوهشی خیلی وقت گذاشتن و بررسی کردن ببینن تو این زمینه چه کارهایی انجام شده. اومدن و به سبکِ “مرور نظاممند” (Systematic Review، یعنی همهٔ تحقیقات مرتبط رو با دقت جمع و مرتب کنن)، کلی مقاله رو زیر و رو کردن. از بین ۱۵۰ تا مقالهٔ علمی و معتبر که بین سال ۲۰۱۹ تا مرداد ۲۰۲۵ منتشر شده بودن، ۸۵ تا انتخاب کردن و پایه رو گذاشتن برای یه تحلیل قوی!
حالا چی پیدا کردن؟ اومدن راهکارهای توضیحپذیری رو تو سه لایهی اصلی دستهبندی کردن:
- لایهٔ داده: اینجا تکنیکهایی مثل “Feature Attribution” هست، یعنی بررسی کنیم کدوم ویژگیها (مثلاً مهارتها یا تجربههاتون) بیشترین تاثیر رو داشتن. یا مثلاً “Causal Diagrams” که با نمودار نشون میده علت و معلول چی بوده.
- لایهٔ مدل: مثلاً “Attention Mechanism” که یعنی مدلِ هوش مصنوعی وقتی تصمیم گرفته، بیشتر حواسش به کدوم ویژگیها بوده. یا “Knowledge Graphs” یعنی مدل یه جورایی اطلاعات رو به صورت شبکهای و گرهای درمیاره تا تصمیمگیریش بازتر باشه.
- لایهٔ خروجی: ترفندهایی مثل “SHAP” و “Counterfactuals”. مثلاً SHAP به شما میگه کدوم ویژگیها باعث شدن این کار بهتون پیشنهاد شه. یا Counterfactuals – یعنی: اگر یه خصوصیت شما فرق میکرد، پیشنهاد عوض میشد یا نه؟
نتیجهشون چی بود؟ اونا همه این رویکردها رو بررسی کردن و یه “چهارچوب کامل مرحلهبهمرحله” درست کردن که میشه از اول تا آخر دید این تصمیم چطور شکل گرفته و دیگه خبری از اون حس جعبه سیاه نیست!
یه قسمت خیلی باحال دیگه این بود که شش تا از معروفترین تکنیکها رو، مثل LIME، مدلهای مبتنی بر Attention، و KG-GNN (این یکی یه مدل گراف-محور هوش مصنوعیه) کنار هم گذاشتن و مقایسه کردن. جواب خیلی جالب بود: روشهای Counterfactual بالاترین امتیاز توضیحپذیری و عملکرد رو داشتن (E-P score: 0.95). “E-P score” یعنی هر دو معیار توضیحپذیری و کارآمدی رو با هم میسنجن و هرچی به ۱ نزدیکتر باشه، بهتره.
حالا این تحقیقات چرا مهمه؟ چون اگه این سیستمها توضیحپذیر بشن، هم کارجوها راحتتر میتونن بفهمن این پیشنهاد رو بر چه اساسی گرفتن، هم کارفرماها و حتی مدیران فناوری اطلاعات (IT) میتونن با خیال راحتتر ازشون استفاده کنن. دیگه کسی نمیگه “شاید الکی گزینش شدی!”.
پژوهشگران گفتهان که هنوز کلی راه هست برای بهتر شدن این سیستمها. مثلاً بریم سراغ دادههای ترکیبی (Multimodal Causal Inference، یعنی دادههایی از جنسهای مختلف رو با هم تجزیه کنیم)، یا سیستم رو بر اساس بازخورد کاربرها هی تنظیم کنیم، یا ابزارهایی بسازیم که هم توضیح رو خوب بدن، هم سریع و کمهزینه باشن.
جمعبندی اینکه: این مقاله یه دستهبندی جامع از تکنیکهای توضیحپذیری داده، یه فریمورک ردیف معرفی کرده و حتی نشون داده کدوم روشها تو دنیای واقعی هم جواب میدن، هم قابل گفتن هستن. پس دفعهٔ بعدی که یه سایت شغل بهتون پیشنهاد بده و توضیح هم بده چرا، بدونید فناوری پشتش همونیه که اینجا بحث شد!
منبع: +