داستان سیستم‌های پیشنهاد کار: بالاخره میشه فهمید چرا یه شغل بهم پیشنهاد شد؟!

تا حالا براتون پیش اومده که یه سایت یا اپلیکیشن کاریابی یه شغل خفن، یا برعکس، یه کار عجیب پیشنهاد بده و با خودتون بگید: «خب چرا؟ اینو از کجا آورد!»؟ خیلی‌ها دقیقاً همین حس رو دارن و اصلاً یکی از مشکلات اصلی این سیستم‌های پیشنهاددهندهٔ شغل (که بهشون میگن PJRS یا Person–Job Recommendation Systems) همینه که معلوم نیست بر چه اساسی تصمیم می‌گیرن. دقیقا مثل یه جعبه سیاه! یعنی شما فقط نتیجه رو می‌بینید، ولی نمیشه فهمید چی تو سر این سیستم‌ها گذشته.

حالا چند سالیه که بحثِ توضیح‌پذیری یا همون “Explainable AI” (XAI) تو این مدل سیستم‌ها خیلی داغ شده. XAI یعنی: هوش مصنوعی بتونه کاراشو توضیح بده، نه اینکه فقط خروجی بده و بگه “همینه که هست!”.

یه تیم پژوهشی خیلی وقت گذاشتن و بررسی کردن ببینن تو این زمینه چه کارهایی انجام شده. اومدن و به سبکِ “مرور نظام‌مند” (Systematic Review، یعنی همهٔ تحقیقات مرتبط رو با دقت جمع و مرتب کنن)، کلی مقاله رو زیر و رو کردن. از بین ۱۵۰ تا مقالهٔ علمی و معتبر که بین سال ۲۰۱۹ تا مرداد ۲۰۲۵ منتشر شده بودن، ۸۵ تا انتخاب کردن و پایه رو گذاشتن برای یه تحلیل قوی!

حالا چی پیدا کردن؟ اومدن راهکارهای توضیح‌پذیری رو تو سه لایه‌ی اصلی دسته‌بندی کردن:

  1. لایهٔ داده: اینجا تکنیک‌هایی مثل “Feature Attribution” هست، یعنی بررسی کنیم کدوم ویژگی‌ها (مثلاً مهارت‌ها یا تجربه‌هاتون) بیشترین تاثیر رو داشتن. یا مثلاً “Causal Diagrams” که با نمودار نشون میده علت و معلول چی بوده.
  2. لایهٔ مدل: مثلاً “Attention Mechanism” که یعنی مدلِ هوش مصنوعی وقتی تصمیم گرفته، بیشتر حواسش به کدوم ویژگی‌ها بوده. یا “Knowledge Graphs” یعنی مدل یه جورایی اطلاعات رو به صورت شبکه‌ای و گره‌ای درمیاره تا تصمیم‌گیریش بازتر باشه.
  3. لایهٔ خروجی: ترفندهایی مثل “SHAP” و “Counterfactuals”. مثلاً SHAP به شما میگه کدوم ویژگی‌ها باعث شدن این کار بهتون پیشنهاد شه. یا Counterfactuals – یعنی: اگر یه خصوصیت شما فرق می‌کرد، پیشنهاد عوض می‌شد یا نه؟

نتیجه‌شون چی بود؟ اونا همه این رویکردها رو بررسی کردن و یه “چهارچوب کامل مرحله‌به‌مرحله” درست کردن که میشه از اول تا آخر دید این تصمیم چطور شکل گرفته و دیگه خبری از اون حس جعبه سیاه نیست!

یه قسمت خیلی باحال دیگه این بود که شش تا از معروف‌ترین تکنیک‌ها رو، مثل LIME، مدل‌های مبتنی بر Attention، و KG-GNN (این یکی یه مدل گراف-محور هوش مصنوعیه) کنار هم گذاشتن و مقایسه کردن. جواب خیلی جالب بود: روش‌های Counterfactual بالاترین امتیاز توضیح‌پذیری و عملکرد رو داشتن (E-P score: 0.95). “E-P score” یعنی هر دو معیار توضیح‌پذیری و کارآمدی رو با هم می‌سنجن و هرچی به ۱ نزدیک‌تر باشه، بهتره.

حالا این تحقیقات چرا مهمه؟ چون اگه این سیستم‌ها توضیح‌پذیر بشن، هم کارجوها راحت‌تر می‌تونن بفهمن این پیشنهاد رو بر چه اساسی گرفتن، هم کارفرماها و حتی مدیران فناوری اطلاعات (IT) می‌تونن با خیال راحت‌تر ازشون استفاده کنن. دیگه کسی نمیگه “شاید الکی گزینش شدی!”.

پژوهشگران گفته‌ان که هنوز کلی راه هست برای بهتر شدن این سیستم‌ها. مثلاً بریم سراغ داده‌های ترکیبی (Multimodal Causal Inference، یعنی داده‌هایی از جنس‌های مختلف رو با هم تجزیه کنیم)، یا سیستم رو بر اساس بازخورد کاربرها هی تنظیم کنیم، یا ابزارهایی بسازیم که هم توضیح رو خوب بدن، هم سریع و کم‌هزینه باشن.

جمع‌بندی اینکه: این مقاله یه دسته‌بندی جامع از تکنیک‌های توضیح‌پذیری داده، یه فریم‌ورک ردیف معرفی کرده و حتی نشون داده کدوم روش‌ها تو دنیای واقعی هم جواب میدن، هم قابل گفتن هستن. پس دفعهٔ بعدی که یه سایت شغل بهتون پیشنهاد بده و توضیح هم بده چرا، بدونید فناوری پشتش همونیه که اینجا بحث شد!

منبع: +