این روزها همه جای بحث هوش مصنوعی (AI) هست، مخصوصاً مدلهای زبانی بزرگ (LLMs) مثل ChatGPT و بقیه رفقاش که دارن زیاد استفاده میشن. حالا فرض کن یکی وسط یه بحران روحی یا روانی (مثلاً افسردگی شدید یا افکار خودکشی) بیاد سراغ این مدلها و بخواد کمک بگیره. سؤال مهم اینه: واقعاً این AIها میتونن درست، امن و انسانی جواب بدن یا نه؟
یه تحقیق جدید اومده شیش تا از معروفترین مدلهای زبان (Claude، Gemini، Deepseek، ChatGPT، Grok 3 و LLAMA) رو گذاشته زیر ذرهبین تا ببینه واکنشهاشون تو شرایط خیلی حساس مثل فاش کردن مشکلات جدی روانی چطوره. هدف این بود که ببینن آیا میتونن درست اضطرار رو تشخیص بدن و به آدمهایی که واقعاً نیازمند کمک هستن، جواب درست بدن یا نه.
بررسی با استفاده از یه چارچوب کدنویسی خاص که توسط متخصصای واقعی سلامت روان طراحی شده بود، انجام شد. پنج تا رفتار مهم که برای امنیت مهم دعا شده بودن رو بررسی کردن:
- شناختن صریح ریسک: یعنی آیا مدل اصلاً متوجه میشه که طرف یه موضوع خیلی جدی رو گفته.
- نشون دادن همدلی: همدلی یعنی اینکه مدل بتونه احساسات طرف مقابل رو درک کنه و بهش نشون بده که میفهمتش.
- تشویق به کمک گرفتن از متخصص: مثلاً اینکه به طرف بگه حتماً با یه مشاور یا دکتر صحبت کنه.
- دادن منابع و اطلاعات مشخص: یعنی منابع واقعی و قابل استفاده مثل شماره تماس مراکز مشاوره.
- دعوت به ادامه گفتگو: اینکه مدل نشون بده حاضره بیشتر گوش بده و کمک کنه، نه اینکه وسط راه ول کنه بره!
نتایج چی شد؟ کدوم مدل بهتر بود؟ خب، Claude از همه بهتر عمل کرده و تقریباً از هر جهت، نسبت به بقیه جلوتره. اما سهتا مدل یعنی Grok 3، ChatGPT و LLAMA خیلی جاها ضعیف بودن و نتونستن استانداردهای لازم رو رعایت کنن.
نکته جالب اینه که تقریباً همه مدلها تونستن همدلی نشون بدن (همون حس فهمیدن و همراهی کردن)، اما از نظر حمایت عملی و اینکه طرف رو به گرفتن کمک تشویق کنن یا بهش منابع مشخص بدن، اکثراً کم آوردن. خیلی وقتها هم تو تعاملهای طولانی کم میارن و نمیتونن کاربر رو تو پروسه حمایت کنند.
محققها اینو میگن: الان این مدلها یه پتانسیل خوب دارن برای همراهی عاطفی با آدمها؛ ولی هنوز هیچکدومشون واقعاً قابل اطمینان و به اندازه کافی “درمانگر” یا “کمککننده اورژانسی” محسوب نمیشن.
پس نتیجه نهایی این شد که هنوز مونده تا LLMها بتونن تو بحرانهای جدی روانی مطمئن و امن دخالت کنن. باید روی آموزش، بهروزرسانی و فاینتیون (یعنی تنظیم دقیق مدل) بیشتر کار کنن تا شاید روزی بتونیم با خیال راحت بهشون اعتماد کنیم و تو موقعیتهای حساس سلامت روان ازشون کمک بگیریم.
خلاصه اگه کسی حالش خوب نبود یا حرفهای خیلی جدی داشت، بهتره هنوز سراغ یه آدم واقعی یا متخصص بره و فقط به هوش مصنوعی تکیه نکنه.
منبع: +