همه چیز درباره استفاده از هوش مصنوعی تو استخدام: چرا باید دست انسان هم تو کار باشه!

ببین، این روزها تقریباً هر شرکتی رو نگاه کنی، یه جایی واسه استخدام کردن آدم‌ها سراغ هوش مصنوعی (AI) رفته! یعنی همون کامپیوترهایی که خودشون می‌تونن فکر کنن و تصمیم بگیرن، بدون اینکه هی انسان پای کار باشه. کلی آدم تو دنیا دارن از AI واسه پیدا کردن و جذب کارمند استفاده می‌کنن، مخصوصاً تو بخش «اکتیو سورسینگ»؛ یعنی اون بخشی که خودشون دنبال آدم مناسب می‌گردن، نه اینکه فقط منتظر بمونن رزومه بیاد دستشون.

حالا این مقاله رفته یه قدم جلوتر و یه چارچوب یا همون «فریم ورک» واسه استفاده از AI تو اکتیو سورسینگ طراحی کرده. ولی فرق قضیه اینه که فقط به خود تکنولوژی فکر نکرده، اومده گفته “چطور می‌تونیم مطمئن بشیم هنوز انسان‌ها هم تو این فرآیند نقش دارن و هرچی AI میگه، وحی منزل نیست؟” دو کلمه مهم هست که روش تمرکز کرده: کانتستبیلیتی (Contestability) – یعنی اینکه آدم‌ها بتونن تو نتیجه‌ای که هوش مصنوعی میده، دخالت کنن یا حتی اعتراض کنن و تغییرش بدن.

تو این چارچوب چهارتا ماژول اصلی وجود داره:

  1. اکتیو سرچینگ (Active Searching): یعنی همون گشت و گذار هوش مصنوعی تو شبکه‌های کاری و سایت‌ها برای پیدا کردن آدم مناسب. اینجوری دیگه لازم نیست یه نفر ساعت‌ها خودش سرچ کنه!
  2. استخراج مهارت‌ها (Skills Extraction): این قسمت میاد رزومه‌ها و پروفایل‌ها رو می‌خونه، مهارت‌های هر آدم رو جدا می‌کنه. مثلاً یه نفر نوشته کار با Excel و PowerPoint بلده، خب هوش مصنوعی خودش می‌فهمه اینا جزو مهارت‌هاشه.
  3. تطبیق دادن مهارت‌ها (Skills Matching): حالا میان مهارت‌های افراد رو با نیاز‌های شغلی شرکت مقایسه می‌کنن و می‌گن “کی با چه شغلی جور درمیاد؟”
  4. معرفی و ارتباط خودکار و شخصی‌سازی‌شده (Automated and Personalized Approach): یعنی هوش مصنوعی خودش به آدم‌ها پیام می‌ده و دعوت به همکاری می‌کنه، اون هم با پیام‌هایی که حالت رباتی نداره و انگار واقعاً یک نفر داره باهات حرف می‌زنه.

اما چرا کانتستبیلیتی مهمه؟ چون بعضی وقتا ممکنه هوش مصنوعی اشتباه کنه یا اینکه نتایجش کاملاً شفاف نباشه. مثلاً فرض کنیه نفر بهش شغل مناسب پیشنهاد داده نمی‌شه، آیا می‌تونه بدونه چرا همچین نتیجه‌ای براش اومده؟ یا اصلاً می‌تونه اعتراض کنه؟ اگه شفافیت (Transparency) – یعنی اینکه بشه فهمید هوش مصنوعی چجوری این تصمیم رو گرفته – نباشه، آدم‌ها حس خوب و امنی ندارن.

نویسنده‌های این مقاله پیشنهاد دادن که:

  • باید راهی باشه که اگه کسی حس کرد نتیجه عادلانه نبوده یا اشتباه شده، بتونه دخالت کنه و روند تصمیم‌گیری رو تغییر بده یا توضیح بخواد.
  • باید ابزارهایی تو سیستم گذاشت که آدم‌ها بتونن دلیل تصمیم هوش مصنوعی رو ببینن و اگر لازم بود، نظرشون رو وارد ماجرا کنن.
  • وقتی صحبت اخلاق و عدالت میشه، باید حواسمون باشه که AI باعث کلی تبعیض یا مشکلات تازه نشه. واسه همین بحث‌های نظارتی (که اینجا بهش میگن مقررات اخلاقی یا Regulatory bodies) باید جدی گرفته بشه.

ته حرف این مقاله اینه که هوش مصنوعی خیلی باحاله و می‌تونه استخدام رو سریع‌تر و بهتر کنه، ولی نباید دست انسان رو کامل ببندیم. باید اجازه بدیم هر جا احساس کردیم مشکلی هست یا نتیجه‌ای درست پیش نرفته، بتونیم وارد بشیم و حتی شاید مسیر رو عوض کنیم. تازه خیلی از این مسائل هنوز نیاز به تحقیق دارن تا بشه فهمید چطور کانتستبیلیتی رو به شکل عملی و درست توی سیستم‌های کاری وارد کرد.

پس خلاصه اگه شرکت‌ها می‌خوان واقعا از هوش مصنوعی تو استخدام استفاده کنن، باید یادشون باشه که یه جای کار هم باید برای انسان‌ها باز بذارن؛ چون آخرش آدم‌ها قراره با آدم‌ها کار کنن، نه با ربات‌ها!

منبع: +