راستشو بخواید، خیلیها اصلاً فکر نمیکنن تراپیستشون ممکنه سر جلسه درمان یا حتی موقع جواب دادن به ایمیلهاشون سراغ هوش مصنوعی مثل ChatGPT بره. اما داستان از جایی شروع میشه که یه روز دکلن (Declan)، یکی از همین مراجعین، وسط جلسۀ آنلاینش با تراپیستش، به خاطر یه اختلال فنی، یهویی میبینه صفحه نمایش تراپیست داره شیر میشه و داره بازخوردها و حرفای دکلن رو عیناً توی ChatGPT وارد میکنه. حالا ChatGPT هم چیزی شبیه یه ربات چت خیلی پیشرفتهست که میتونه متن و جواب تولید کنه، اما خب یه رباته دیگه!
دکلن واقعاً شاخ درمیاره! جلسه براش عجیب و غریب میشه چون هر چی ChatGPT به تراپیست پیشنهاد میده، همون رو خودش زودتر میگه و تراپیست هم ذوقزده میشه. آخرش هم توی جلسه بعدی به تراپیستش میگه قضیه رو فهمیده و فضا حسابی سنگین و غمانگیز میشه. جالب اینجاست که تراپیستش میزنه زیر گریه و میگه چون حس میکردن به بنبست خوردن، خواستن جوابای بهتر و ایدههای جدید بگیرن. اما آخرش هم پول اون جلسه رو ازش گرفتن!
این مدل ماجراها فقط مختص دکلن نیست. کلی آدم دیگه هم تو سایتها و فرومهایی مثل ردیت نوشتن که حس کردن بعضی جوابایی که از تراپیستشون گرفتن خیلی ماشینی و غیراحساسی بوده و بعد فهمیدن پشتش هوش مصنوعی بوده. مثلاً یکی به اسم Hope بعد از مرگ سگش، به تراپیست پیام میده و جواب reçoit میکنه که کاملاً آرومبخش به نظر میرسه؛ فقط اینکه بالای متن یه جمله بوده: “Here’s a more human, heartfelt version…” یعنی این جواب رو هوش مصنوعی با لحن انسانیتر نوشته بوده! خب، Hope هم حسابی شوکه میشه و حس میکنه اعتمادش از بین رفته، مخصوصاً چون دلیل مراجعه Hope هم خودش به مشکل اعتماد ربط داشته!
یه موضوع مهم این وسط، بحث رازداری و امنیت اطلاعاته. خیلی از مردم اصلاً نمیدونن ChatGPT طبق قانونهای آمریکا (HIPAA – قانونی که اطلاعات سلامت مردم رو محافظت میکنه) اصلاً مجوز نگهداری دادههای رواندرمانی رو نداره. پارادیس امامی نایینی، متخصص حوزه کامپیوتر، میگه حتی اگر اسم و فامیل رو حذف کنیم، اطلاعات حساس ممکنه از چیزای به ظاهر بیخطر هم برداشت بشه؛ پس برخلاف چیزی که خیلیها فکر میکنن، ChatGPT اصلاً امن یا بیخطر برای این کارها نیست.
از طرف دیگه، بعضی پژوهشا (مثلاً مطالعاتی که توی PLOS Mental Health یا دانشگاه کرنل انجام شده) میگن که حتی بعضی وقتا جوابهای ChatGPT بهتر از تراپیستها به نظر میان! البته تا وقتی که مراجع ندونه پشتش چیه؛ همین که بفهمه جوابها ماشینیه، دیگه حس خوبی نمیگیره. چون توی تراپی مخصوصاً آدمها دنبال اصالت و حس واقعی بودن هستن.
خیلی از سرویسهای آنلاین مثل BetterHelp هم اتهام گرفتن که تراپیستهاشون با کمک هوش مصنوعی جواب میدن. این وسط آدمها واقعاً حس خیانت و نگرانی نسبت به امنیت دادههاشون پیدا کردن. بعضی شرکتها مثلاً نسخههای اختصاصی، ایمن و رمزنگاریشده برای تراپیستها ساختن، مثل Heidi Health یا Blueprint. اینا قول میدن که مطابق مقررات و امن کار میکنن، اما وقتی یه هک بزرگ (مثلاً حمله به یه شرکت مشاوره فنلاندی تو 2020) بشه و اطلاعات رواندرمانیِ هزاران نفر لو بره، همه حسابی میترسن.
ضمن اینکه استفاده از ChatGPT تو جلسات، علاوه بر مشکل امنیت و اعتماد، ایرادای تخصصی هم داره. پژوهشای Stanford نشون داده ChatGPT ممکنه حرف مراجعه رو بیخودی تایید کنه یا راهحلهاشو کلی و نادقیق بده. یعنی اصلاً مثل یه انسان واقعی ارتباطات عمیق رو بررسی نمیکنه؛ فقط جواب سطحی میده یا تکرار میکنه.
آخرش مهمه بدونیم: هوش مصنوعی برای کارهایی مثل خلاصهنویسی یا ایمیل شاید بد نباشه (اگه با رضایت و اطلاع مراجعه باشه)، ولی وقتی پای حساسیت اطلاعات و اعتماد وسطه، حتماً باید شفافیت وجود داشته باشه و تراپیست بگه که داره از ابزار استفاده میکنه. وگرنه، شاید چند دقیقه زمان صرفهجویی بشه، اما اعتماد، انگیزه و سلامت ذهنی مراجعه رو به خطر میندازن. چون واقعاً رواندرمانگر بودن یعنی بتونی فکر کنی، تحلیل کنی و اهمیت بدی – نه فقط تکرار کنی چیزی که یه ربات گفته.
منبع: +