وقتی تراپیستت از چت‌جی‌پی‌تی کمک می‌گیره و تو نمی‌دونی!

راستشو بخواید، خیلی‌ها اصلاً فکر نمی‌کنن تراپیستشون ممکنه سر جلسه درمان یا حتی موقع جواب دادن به ایمیل‌هاشون سراغ هوش مصنوعی مثل ChatGPT بره. اما داستان از جایی شروع میشه که یه روز دکلن (Declan)، یکی از همین مراجعین، وسط جلسۀ آنلاینش با تراپیستش، به خاطر یه اختلال فنی، یهویی می‌بینه صفحه نمایش تراپیست داره شیر میشه و داره بازخوردها و حرفای دکلن رو عیناً توی ChatGPT وارد می‌کنه. حالا ChatGPT هم چیزی شبیه یه ربات چت خیلی پیشرفته‌ست که می‌تونه متن و جواب تولید کنه، اما خب یه رباته دیگه!

دکلن واقعاً شاخ درمیاره! جلسه براش عجیب و غریب میشه چون هر چی ChatGPT به تراپیست پیشنهاد میده، همون رو خودش زودتر میگه و تراپیست هم ذوق‌زده میشه. آخرش هم توی جلسه بعدی به تراپیستش میگه قضیه رو فهمیده و فضا حسابی سنگین و غم‌انگیز میشه. جالب اینجاست که تراپیستش می‌زنه زیر گریه و میگه چون حس می‌کردن به بن‌بست خوردن، خواستن جوابای بهتر و ایده‌های جدید بگیرن. اما آخرش هم پول اون جلسه رو ازش گرفتن!

این مدل ماجراها فقط مختص دکلن نیست. کلی آدم دیگه هم تو سایت‌ها و فروم‌هایی مثل ردیت نوشتن که حس کردن بعضی جوابایی که از تراپیستشون گرفتن خیلی ماشینی و غیراحساسی بوده و بعد فهمیدن پشتش هوش مصنوعی بوده. مثلاً یکی به اسم Hope بعد از مرگ سگش، به تراپیست پیام میده و جواب reçoit می‌کنه که کاملاً آروم‌بخش به نظر می‌رسه؛ فقط اینکه بالای متن یه جمله بوده: “Here’s a more human, heartfelt version…” یعنی این جواب رو هوش مصنوعی با لحن انسانی‌تر نوشته بوده! خب، Hope هم حسابی شوکه میشه و حس می‌کنه اعتمادش از بین رفته، مخصوصاً چون دلیل مراجعه Hope هم خودش به مشکل اعتماد ربط داشته!

یه موضوع مهم این وسط، بحث رازداری و امنیت اطلاعاته. خیلی از مردم اصلاً نمی‌دونن ChatGPT طبق قانون‌های آمریکا (HIPAA – قانونی که اطلاعات سلامت مردم رو محافظت می‌کنه) اصلاً مجوز نگهداری داده‌های روان‌درمانی رو نداره. پارادیس امامی نایینی، متخصص حوزه کامپیوتر، میگه حتی اگر اسم و فامیل رو حذف کنیم، اطلاعات حساس ممکنه از چیزای به ظاهر بی‌خطر هم برداشت بشه؛ پس برخلاف چیزی که خیلی‌ها فکر می‌کنن، ChatGPT اصلاً امن یا بی‌خطر برای این کارها نیست.

از طرف دیگه، بعضی پژوهشا (مثلاً مطالعاتی که توی PLOS Mental Health یا دانشگاه کرنل انجام شده) میگن که حتی بعضی وقتا جواب‌های ChatGPT بهتر از تراپیست‌ها به نظر میان! البته تا وقتی که مراجع ندونه پشتش چیه؛ همین که بفهمه جواب‌ها ماشینیه، دیگه حس خوبی نمی‌گیره. چون توی تراپی مخصوصاً آدم‌ها دنبال اصالت و حس واقعی بودن هستن.

خیلی از سرویس‌های آنلاین مثل BetterHelp هم اتهام گرفتن که تراپیست‌هاشون با کمک هوش مصنوعی جواب میدن. این وسط آدم‌ها واقعاً حس خیانت و نگرانی نسبت به امنیت داده‌هاشون پیدا کردن. بعضی شرکت‌ها مثلاً نسخه‌های اختصاصی، ایمن و رمزنگاری‌شده برای تراپیست‌ها ساختن، مثل Heidi Health یا Blueprint. اینا قول میدن که مطابق مقررات و امن کار می‌کنن، اما وقتی یه هک بزرگ (مثلاً حمله به یه شرکت مشاوره فنلاندی تو 2020) بشه و اطلاعات روان‌درمانیِ هزاران نفر لو بره، همه حسابی می‌ترسن.

ضمن اینکه استفاده از ChatGPT تو جلسات، علاوه بر مشکل امنیت و اعتماد، ایرادای تخصصی هم داره. پژوهشای Stanford نشون داده ChatGPT ممکنه حرف مراجعه رو بیخودی تایید کنه یا راه‌حل‌هاشو کلی و نادقیق بده. یعنی اصلاً مثل یه انسان واقعی ارتباطات عمیق رو بررسی نمی‌کنه؛ فقط جواب سطحی میده یا تکرار می‌کنه.

آخرش مهمه بدونیم: هوش مصنوعی برای کارهایی مثل خلاصه‌نویسی یا ایمیل شاید بد نباشه (اگه با رضایت و اطلاع مراجعه باشه)، ولی وقتی پای حساسیت اطلاعات و اعتماد وسطه، حتماً باید شفافیت وجود داشته باشه و تراپیست بگه که داره از ابزار استفاده می‌کنه. وگرنه، شاید چند دقیقه زمان صرفه‌جویی بشه، اما اعتماد، انگیزه و سلامت ذهنی مراجعه رو به خطر می‌ندازن. چون واقعاً روان‌درمانگر بودن یعنی بتونی فکر کنی، تحلیل کنی و اهمیت بدی – نه فقط تکرار کنی چیزی که یه ربات گفته.

منبع: +