آیا هوش مصنوعی‌ها می‌تونن تو بحران‌های روحی کمک کنن؟ بررسی عملکردشون تو موقعیت‌های حساس

Fall Back

این روزها همه جای بحث هوش مصنوعی (AI) هست، مخصوصاً مدل‌های زبانی بزرگ (LLMs) مثل ChatGPT و بقیه رفقاش که دارن زیاد استفاده میشن. حالا فرض کن یکی وسط یه بحران روحی یا روانی (مثلاً افسردگی شدید یا افکار خودکشی) بیاد سراغ این مدل‌ها و بخواد کمک بگیره. سؤال مهم اینه: واقعاً این AIها می‌تونن درست، امن و انسانی جواب بدن یا نه؟

یه تحقیق جدید اومده شیش تا از معروف‌ترین مدل‌های زبان (Claude، Gemini، Deepseek، ChatGPT، Grok 3 و LLAMA) رو گذاشته زیر ذره‌بین تا ببینه واکنش‌هاشون تو شرایط خیلی حساس مثل فاش کردن مشکلات جدی روانی چطوره. هدف این بود که ببینن آیا می‌تونن درست اضطرار رو تشخیص بدن و به آدم‌هایی که واقعاً نیازمند کمک هستن، جواب درست بدن یا نه.

بررسی با استفاده از یه چارچوب کدنویسی خاص که توسط متخصصای واقعی سلامت روان طراحی شده بود، انجام شد. پنج تا رفتار مهم که برای امنیت مهم دعا شده بودن رو بررسی کردن:

  1. شناختن صریح ریسک: یعنی آیا مدل اصلاً متوجه میشه که طرف یه موضوع خیلی جدی رو گفته.
  2. نشون دادن همدلی: همدلی یعنی اینکه مدل بتونه احساسات طرف مقابل رو درک کنه و بهش نشون بده که می‌فهمتش.
  3. تشویق به کمک گرفتن از متخصص: مثلاً اینکه به طرف بگه حتماً با یه مشاور یا دکتر صحبت کنه.
  4. دادن منابع و اطلاعات مشخص: یعنی منابع واقعی و قابل استفاده مثل شماره تماس مراکز مشاوره.
  5. دعوت به ادامه گفتگو: اینکه مدل نشون بده حاضره بیشتر گوش بده و کمک کنه، نه اینکه وسط راه ول کنه بره!

نتایج چی شد؟ کدوم مدل بهتر بود؟ خب، Claude از همه بهتر عمل کرده و تقریباً از هر جهت، نسبت به بقیه جلوتره. اما سه‌تا مدل یعنی Grok 3، ChatGPT و LLAMA خیلی جاها ضعیف بودن و نتونستن استانداردهای لازم رو رعایت کنن.

نکته جالب اینه که تقریباً همه مدل‌ها تونستن همدلی نشون بدن (همون حس فهمیدن و همراهی کردن)، اما از نظر حمایت عملی و اینکه طرف رو به گرفتن کمک تشویق کنن یا بهش منابع مشخص بدن، اکثراً کم آوردن. خیلی وقت‌ها هم تو تعامل‌های طولانی کم میارن و نمی‌تونن کاربر رو تو پروسه حمایت کنند.

محقق‌ها اینو می‌گن: الان این مدل‌ها یه پتانسیل خوب دارن برای همراهی عاطفی با آدم‌ها؛ ولی هنوز هیچ‌کدومشون واقعاً قابل اطمینان و به اندازه کافی “درمانگر” یا “کمک‌کننده اورژانسی” محسوب نمیشن.

پس نتیجه نهایی این شد که هنوز مونده تا LLMها بتونن تو بحران‌های جدی روانی مطمئن و امن دخالت کنن. باید روی آموزش، به‌روزرسانی و فاین‌تیون (یعنی تنظیم دقیق مدل) بیشتر کار کنن تا شاید روزی بتونیم با خیال راحت بهشون اعتماد کنیم و تو موقعیت‌های حساس سلامت روان ازشون کمک بگیریم.

خلاصه اگه کسی حالش خوب نبود یا حرف‌های خیلی جدی داشت، بهتره هنوز سراغ یه آدم واقعی یا متخصص بره و فقط به هوش مصنوعی تکیه نکنه.

منبع: +