کمک! مشاورم یواشکی داره از ChatGPT استفاده می‌کنه؟!

احتمالاً تا حالا شنیدی که توی سیلیکون ولی (همین جایی که همه شرکتای بزرگ تکنولوژی جمع شدن) یه عده فکر می‌کنن آینده‌مون طوریه که هوش مصنوعی (AI یعنی همین برنامه‌های باهوشی که خودشون یاد می‌گیرن و تولید محتوا می‌کنن) می‌تونن حتی نقش روان‌شناس و مشاور رو برامون بازی کنن! یعنی میلیون‌ها نفر بدون نیاز به روان‌شناس آدم – با درس خوندنای سخت و بیمه و اینجور داستانا – فقط برن سراغ یه چت‌بات مثل ChatGPT و درد دل کنن! اما بیای بریم سراغ چیزی که واقعاً داره اتفاق میفته…

چند وقت پیش یه داستان جالب منتشر شد که واقعاً بامزّه بود! ماجرا این بود که یه سری آدم فهمیدن مشاور یا روان‌شناسشون یواشکی داره وسط جلسه‌های مشاوره از ChatGPT کمک می‌گیره. مثلاً یه مورد خیلی بانمک: طرف توی جلسه آنلاین بود که یهو روان‌شناسش تصادفاً صفحه‌ی دسکتاپش رو شیر می‌کنه و مریض می‌بینه همونجا روان‌شناس داره حرفای خودش رو به ChatGPT می‌نویسه تا چت‌بات جواب و راهکار بده و اون دوباره همونا رو به مریضش بگه! یعنی دقیقاً همون چیزی که شرکت‌های تکنولوژی می‌گن استفاده کنین، ملت دارن انجام می‌دن و خب، باحالیاش رو هم داره، ولی گاهی خیلی شلم شوربا میشه!

حالا بیای با هم فکر کنیم: اگه واقعاً هوش مصنوعی می‌تونه تو درمان و مشاوره نقش داشته باشه، مشکلی هست؟ جالب اینجاست که چند وقت پیش هم اولین آزمایش بالینی رسمی روی یه ربات درمانگر AI انجام شد (آزمایش بالینی یعنی یه آزمایش علمی که واقعاً دارن کارکرد یه چیز رو در درمان آدم‌ها اندازه‌گیری می‌کنن). نتایجش هم خوب بوده و نشون داده شاید این روش به درمان افسردگی کمک کنه! اما بحث مهم اینجاست که تو اون آزمایش، ربات AI دقیقاً برای همین کار ساخته شده بود و حسابی روش کار شده بود. این فرق داره با اینکه یه نفر سرخود بره وسط جلسه مشاوره اطلاعات خصوصی آدم رو بریزه تو چت‌بات‌هایی مثل ChatGPT که اصلاً برای درمان ساخته نشدن.

یه نکته جالب دیگه: همه روان‌شناس‌ها که نمی‌خوان برن راه چت‌بات‌ها رو پیش بگیرن! خیلی از اونایی که خبرنگار باهاشون حرف زده گفته بودن که بیشتر به عنوان صرفه‌جویی در زمان ممکنه سراغ AI برن؛ مثلاً نوشتن گزارش جلسه‌ها براشون کلی زمان‌بره و دوست دارن یه ابزار کمکی باشه. ولی تقریباً همه‌شون تاکید کردن که اصلاً روی مشاوره و نحوه برخورد با مریض نمی‌تونن به AI اعتماد کنن و ترجیح می‌دن با همکاراشون یا منابع علمی مشورت کنن. تازه کلی هم نگرانن که اطلاعات شخصی آدم‌ها رو تو این سایت‌ها وارد کنن که ممکنه خطرناک باشه.

خود ابزارای هوش مصنوعی، مخصوصاً اونی که برای درمان خاص مثل CBT ساخته شده (CBT یعنی “رفتاردرمانی شناختی” که یه روش خاص روان‌درمانیه)، احتمالاً می‌تونن یه جاهایی موثر باشن. اما ChatGPT و بقیه چت‌باتای عمومی که برای مشاوره ساخته نشدن، واقعاً جایگزین درمان تخصصی و آدمی نمی‌شن.

یه نکته مهم دیگه هم بحث اخلاق و قانونیه! تا الان انجمن روان‌شناسی آمریکا (American Counseling Association یعنی همون سازمانی که قوانین رسمی روان‌شناسی رو تعیین می‌کنه) گفته مشاورها نباید از AI برای تشخیص بیماری یا راهکار درمانی استفاده کنن. تازه بعضی ایالت‌های آمریکا مثل نوادا (Nevada) و ایلی‌نوی (Illinois) هم قانون گذاشتن که روان‌شناس‌ها حق ندارن هیچ تصمیم درمانی رو با کمک AI بگیرن. احتمالاً ایالت‌های دیگه هم از این کارها کنن.

جالبه بدونی حتی سام آلتمن (Sam Altman) که مدیر OpenAI هست (OpenAI همون شرکتیه که ChatGPT رو ساخته)، گفته خیلی‌ها از این چت‌بات مثل روان‌شناس استفاده می‌کنن و خودش هم این رو چیز خوبی می‌دونه! ولی واقعاً آیا این چیزی که شرکت‌های تکنولوژی نشون می‌دن، همونی هست که مردم بهش احتیاج دارن؟

این رو باید بدونیم که شرکتای تکنولوژی شاید دارن مردم رو تشویق می‌کنن به همین نوع استفاده‌ها چون باعث میشه مردم بیشتر وابسته محصولاتشون بشن. اما چیزی که از این ابزارا می‌گیریم الزاماً “درمان واقعی” نیست. روان‌درمانی واقعی یعنی کسی تو رو به چالش می‌کشه، گاهی حرفای ناراحت کننده می‌زنه، و باهات کار می‌کنه تا خودت رو بهتر کشف کنی. چت‌بات‌ها شاید فقط حرفات رو تایید کنن یا باهات همدلی کنن اما هیچ وقت جای درمان واقعی رو نمی‌گیرن.

در کل اگه داری پیش روان‌شناس میری، خیلی منطقیه که اگه درباره استفاده از AI چیزی نمی‌دونی، حتماً ازش بپرسی! چون اعتماد، بزرگترین پایه یه رابطه درمانیه و اگه ببینی ناخواسته اطلاعاتت رو به ابزارهای ناشناخته داده شدن، واقعاً به اون اعتماد آسیب می‌زنه.

منبع: +