ظهور درمانگرهای هوش مصنوعی: وقتی ربات‌ها روان‌درمانی می‌کنن!

یه بحران اساسی سلامت روان تو دنیا داریم. طبق آمار سازمان جهانی بهداشت، بالای یه میلیارد نفر تو دنیا دچار مشکل‌های سلامت روان هستن! مخصوصاً بین جوون‌ها، اضطراب و افسردگی هر روز بیشتر میشه و متاسفانه هر سال صدها هزار نفر به خاطر خودکشی جونشون رو از دست میدن. واقعاً عجیبه که هنوز خدمات سلامت روان کافی و ارزون برای همه فراهم نیست، واسه همینم خیلی‌ها سراغ تکنولوژی و هوش مصنوعی رفتن تا شاید یه راه‌حلی پیدا کنن.

الان میلیون‌ها نفر دارن با چت‌بات‌هایی مثل ChatGPT از OpenAI یا Claude از Anthropic حرف میزنن، یا کلی اپلیکیشن خاص مثل Wysa و Woebot رو نصب کردن که برای روان‌درمانی با هوش مصنوعی طراحی شدن. دانشمندها حتی دارن روی این کار میکنن که با ساعت‌های هوشمند و وسایل پوشیدنی (Wearables) مثل دستبند سلامتی یا گوشی، اطلاعات رفتار و وضعیت جسمی روان افراد رو جمع کنن و با پایگاه داده‌های بزرگی تجزیه و تحلیل کنن تا شاید چیزای جدیدی کشف شه. حتی قراره این سیستم‌ها به روان‌شناس‌های واقعی هم کمک کنن تا کمتر دچار فرسودگی شغلی بشن!

ولی خب، این آزمایش عظیم هنوز به جواب مشخصی نرسیده. یه عده تونستن واقعاً از این چت‌بات‌ها آرامش بگیرن و بعضی متخصص‌ها هم امید دارن این مدل‌ها یه روزی درمانگر خوبی بشن. اما، بعضی‌ها به خاطر حرفای گمراه‌کننده یا بیش از حد موافق چت‌بات‌ها (که بهش Sycophancy میگن، یعنی کسی که همیشه فقط تأیید میکنه)، حسابی گیج و حتی روان‌پریش شدن! بدترش اینه که بعضی خانواده‌ها شرکت‌های سازنده این چت‌بات‌ها رو به خاطر تأثیر غیرمستقیم در خودکشی عزیزانشون تحت پیگرد قانونی قرار دادن. حتی خود مدیرعامل OpenAI گفته تقریباً هفته‌ای یه میلیون نفر با ChatGPT درباره خودکشی صحبت میکنن! این واقعاً عدد دلهره‌آوریه.

تو ۲۰۲۵ حسابی سوژه داستانای غیرمنتظره شدیم؛ هم درباره رابطه‌ی آدما و چت‌بات‌ها، هم ضعیف بودن محافظت‌های این هوش مصنوعی‌ها (به Guardrails میگن: تنظیم‌هایی که اجازه نمیدن ربات حرف یا توصیه آسیب‌زننده بزنه) و هم نگرانی درباره اینکه اطلاعات شخصی و حساسی که به این برنامه‌ها گفتیم، شاید یه روزی توسط شرکت‌های بزرگ به پول تبدیل بشه.

📚 چندتا کتاب خوندم که دقیقاً با همین موضوع درگیر بودن. اولیش اثر شارلوت بلیز (Charlotte Blease) به اسم “Dr. Bot: Why Doctors Can Fail Us—and How AI Could Save Lives” بود. بلیز (که یه فیلسوف پزشکیه) هم خوبی‌ها رو نشون میده هم اخطار میده. مثلاً میگه الان سیستم‌های درمانی زیر فشار مردم دارن له میشن، دکتر کم داریم، صف انتظار طولانیه… هوش مصنوعی می‌تونه این فشارِ روی دکترها رو کمتر کنه و حتی به کسایی کمک کنه که از ترس قضاوت یا ترس عمومی اصلاً به روانشناس مراجعه نمی‌کردن.

ولی بلیز هم هشدار میده که مثلاً هوش مصنوعی همیشه جواب‌های مطمئن و ایمن نمیده، یا اینکه نکته حریم خصوصی خیلی مهمه! الان قانون‌هایی مثل HIPAA (یه قانون تو آمریکا برای حفظ محرمانگی داده‌های سلامتی بیمار) فقط برای روانشناس‌های رسمی صدق میکنه، نه برای شرکت‌های هوش مصنوعی. خود بلیز تجربه‌های شخصی سنگینی داشته؛ از دست دادن خواهر و یه عزیز دیگه به خاطر بیماری‌های صعب‌العلاج و وضعیت بد سیستم درمانی رو از نزدیک دیده.

کتاب دیگه‌ای که خوندم رو دنیل اوبرهاوس نوشته به اسم “The Silicon Shrink”. ماجرای دردناکی داره؛ اوبرهاوس وقتی خواهرش رو به خاطر خودکشی از دست داد، ساعت‌ها به گشتن تو ردپای دیجیتال خواهرش گذروند. پیش خودش فکر کرد شاید اگر نرم‌افزاری یا الگوریتمی وجود داشت که از روی پیام‌ها و فعالیت دیجیتال افراد بفهمه چه وقتی حالشون خرابه، میشد زودتر کمکشون کرد. این ایده بهش میگن دیجیتال فنوتایپینگ (Digital Phenotyping)، یعنی جمع‌کردن و تحلیل رفتارهای دیجیتال افراد برای فهم سلامتی روان‌شون.

اما اوبرهاوس میگه اینا رو نباید خیلی ساده‌لوحانه نگاه کنیم! چون روانپزشکی کلاً هنوز هم توش کلی ابهامه، خود علل بیماری‌های روانی هنوز کاملاً معلوم نیست، حالا اگر داده‌های دقیق جمع کنیم ولی خود تفسیر دچار مشکل باشه، چه فایده؟ اوبرهاوس یه اصطلاح جالب داره: سوایپ سایکاِتری (Swipe Psychiatry)؛ یعنی تصمیم‌گیری درباره سلامت روان فقط بر اساس داده‌های دیجیتال و کلینیکی، میوفته دست الگوریتم‌ها و دیگه انسان کمتر بررسی میشه. اون معتقده اینطوری مهارت و تشخیص روانپزشک‌های واقعی هم سست و وابسته به ماشین میشه.

به نگرانی دیگه‌ای هم اشاره میکنه: وقتی آدم‌ها راحت‌ترین و عمیق‌ترین حرفاشون رو به چت‌بات میگن، این اطلاعات، سرمایه شرکت‌ها میشه و عملاً حریم خصوصی و آزادی و کرامت افراد به خطر میوفته. اوبرهاوس معتقده اگر این مسیر ادامه پیدا کنه، همه‌مون میشیم زندانی‌های دیجیتال یه تیمارستان الگوریتمی، بدون حتی دیوار! داده‌هامون همه‌جا زیر ذره‌بینه؛ از خونه و مدرسه تا دادگاه و سربازخونه.

حالا ایوین فولام (Eoin Fullam) توی کتابش “Chatbot Therapy: A Critical Analysis of AI Mental Health Treatment” نقدش به سیستمای خودکار روان‌درمانی برمیگرده. فولام قضیه رو از زاویه سرمایه‌داری می‌بینه. به نظرش شرکت‌های پشت این اپ‌ها گاهی منافع مالی رو به سلامت کاربران ترجیح میدن. خب، هر جلسه مشاوره دیجیتالی داده می‌سازه، بعد این داده‌ها میشن سوخت ادامه این چرخه و پول بیشتر؛ یعنی هرچی درمان موثرتر به نظر بیاد، بیشتر از اطلاعات کاربرا برای پول درآوردن استفاده میشه، تا جایی که آدم نمی‌فهمه اینجا واقعاً درمانه یا تجارته!

فولام میگه درست نیست که همه فناوری‌ها الزماً کارهای بد و خلاف منافع مردم انجام بدن، اما این ریسک همیشه هست. به قول خودش، اینجا انگار با یه “اُرابوروس (Ouroboros)” طرفیم؛ افعی افسانه‌ای که خودش رو می‌خوره، یعنی این چرخه مالی-درمانی خودش رو تقویت و تبدیل به حلقه‌ی بسته می‌کنه.

یه مثال بامزه هم تو رمان “Sike” از فرد لانزر اومده: داستان یه پسر لندنی به اسم آدریان که با یه دختر باهوش آشنا میشه و برای درمان اضطراب‌هاش از یه هوش مصنوعی روان‌درمان استفاده میکنه. این Sike حتی حرکات بدن، لحن حرف زدن، احساسات و جزئی‌ترین چیزهای روزمره مثل خنده، گریه، لباس پوشیدن و… رو هم تحلیل میکنه (اینجا یعنی یه فناورِ دیجیتال فنوتایپینگ کامل!). جالب اینجاست که Sike یه کالای لوکسه، فقط واسه پولدارا: ماهی ۲۰۰۰ پوند اشتراکش!

رمان نشون میده آدمای مایه‌دار، داوطلبانه خودشون رو توی یه تیمارستان دیجیتال زندانی میکنن، در حالی که دورهمی شام می‌خورن و خوش می‌گذرونن! ولی تهش میگه این فناوری‌ها انگار از آینده اومدن، ولی در واقع بیش از نیم قرنه که دارن روش کار میکنن؛ حتی کارل سیگن – همون اخترشناس معروف – یه زمانی پیش‌بینی کرده بود شبکه‌ای از کیوسک‌های روان‌درمانی کامپیوتری تو سراسر شهرها درست میشه.

از اون ور، اوبِرهاوس یادآوری میکنه که اصلاً اولین شبکه عصبی مصنوعی (Perceptron، به معنی یه مدل الهام گرفته از مغز که میتونه یاد بگیره)، کارِ یه روانشناس به نام فرانک روزنبلات تو ۱۹۵۸ بود، نه از ریاضیدون‌ها! اصلاً اولین شبیهِ روان‌درمانگر کامپیوتری هم تو دهه ۱۹۶۰ درست شد: یه برنامه به اسم ELIZA توسط جوزف وایزن‌باوم (Joseph Weizenbaum). وایزن‌باوم یه انتقاد تاریخی داشت: حتی اگر کامپیوتر بتونه تصمیم درست بگیره، نباید هرگز قضاوت و تشخیص روانی رو بهش داد، چون اصلاً پایه این تشخیص‌ها رو قبول نداشت.

به نظر میاد حالا که درمانگرهای هوش مصنوعی دارن سریع فراگیر میشن، باید حواسمون باشه: همیشه بین نیت خوب و سوءاستفاده از داده‌ها، یه دیوار نازک هست. ممکنه به اسم کمک به بیماران، راه‌های دیگه‌ای به روی آزادی و حریم خصوصی بسته بشه. خلاصه اینکه هوش مصنوعی تو سلامت روان، هم می‌تونه امید باشه هم خطر؛ باید هوشیار باشیم.

(نویسنده مقاله: بکی فریرا، خبرنگار علمی آمریکایی)

منبع: +