چت‌جی‌پی‌تی قراره تو تشخیص مشکلات روحی قوی‌تر بشه!

اگه اهل تکنولوژی و چت‌بات‌ها (مثلاً همین ChatGPT) باشی، حتما خبر داری که OpenAI داره نسل جدید مدل هوش مصنوعی‌ش به اسم GPT-5 رو همین روزا معرفی می‌کنه. اما داستان اصلی اینه که OpenAI، شرکتی که پشت ChatGPT هست، کلی تغییر و آپدیت تو چت‌بات مورد علاقه‌مون داده تا بتونه بهتر موقعیت‌هایی که یه نفر مشکل روحی یا عصبی داره رو تشخیص بده و واکنش منطقی‌تری نشون بده. یعنی چی؟ بذار بگم!

مدت اخیر خیلی گزارش اومده بود که چت‌بات‌ها—مخصوصاً ChatGPT—گاهی به جای کمک به آدمی که دچار توهم یا حال نامساعد روحی بوده، بدتر اوضاع رو تشدید می‌کردن! مثلاً اگه کسی یه باور اشتباه داشت، چت‌جی‌پی‌تی باهاش موافقت می‌کرد و این باعث می‌شد طرف بیشتر تو توهمات خودش بمونه. به این رفتار می‌گن “sycophantic” که یعنی چت‌بات بی‌خودی با همه چی موافقت می‌کرد حتی اگه به ضرر کاربر بود.

اپریل امسال OpenAI یه آپدیت رو پس گرفت، چون چت باتش خیلی راضی کننده و موافق شده بود، حتی تو مسائل خطرناک. خودشون اعتراف کردن که مدل GPT-4o بعضی وقتا اصلاً نمی‌فهمیده که طرف مقابل داره توهم می‌زنه یا وابستگی روحی پیدا کرده. هوش مصنوعی نسبت به تکنولوژی‌های قبلی خیلی شخصی‌تر رفتار می‌کنه و آدم احساس می‌کنه واقعا داره با یه نفر گفتگو می‌کنه مخصوصاً وقتی حال و روزش خراب باشه.

بر همین اساس OpenAI با کلی کارشناس و گروه مشاوره همکاری کرده تا چت‌جی‌پی‌تی وقتی متوجه میشه یه نفر تو حال بدیه، “منابع علمی و درست” رو بهش پیشنهاد بده. منظور از منابع علمی، همون منابعیه که اطلاعات ازش گرفته شده و قابل اعتماده، نه اینکه یه چیزی از خودش دربیاره.

جالبه بدونی الان چت‌جی‌پی‌تی تقریباً ۷۰۰ میلیون نفر رو هر هفته جذب خودش می‌کنه! برای همین OpenAI یه قابلیت جدید رو راه انداخته که اگه مدت زیادی با چت‌بات حرف بزنی، بهت یه نوتیفیکیشن می‌ده که “یه مدت زیادیه داری چت می‌کنی — نمی‌خوای یخورده استراحت کنی؟” و می‌تونی انتخاب کنی گفت‌وگو رو ادامه بدی یا بزنی تَمومش کنی. این حرکت شبیه کاریه که مثلا یوتیوب، اینستاگرام و حتی TikTok هم کردن و به کاربراشون یادآوری می‌کنن که زیادی پای گوشی نشینن.

یه موضوع دیگه که خیلی باحاله اینه که چت‌جی‌پی‌تی قراره به زودی تو سوالات حساس یا به اصطلاح “high-stakes” (یعنی سوالاتی که جوابش می‌تونه یه تاثیر مهم تو زندگی آدم بزاره، مثل “رابطمو تموم کنم یا نه؟”) دیگه جواب قطعی نده و بجاش راهنمایی کنه و بذاره خودت تصمیم بگیری. این باعث می‌شه که مسئولیت تصمیمات مهم رو خودت رو دوشت داشته باشی نه اینکه حرف یه ربات رو گوش کنی.

تازه، مشابه این اقدامات رو بقیه پلتفرم‌ها مثل Character.AI هم انجام دادن. Character.AI یه پلتفرمه که بچه‌ها می‌تونن با ربات‌ها چت کنن و امکان اطلاع‌رسانی به والدین رو گذاشته، تا مثلاً اگه بچه‌شون با ربات مشکوکی صحبت می‌کنه، خبردار بشن. چون تو امریکا یه سری شکایت شده بود که بعضی ربات‌ها پیام‌هایی می‌فرستن که می‌تونه تاثیر منفی رو بچه‌ها بذاره.

در کل خلاصه داستان اینه: با اینکه هوش مصنوعی و چت‌بات‌ها واقعا می‌تونن کمک کنن، ولی وقتی موضوع سلامت روحی و روان آدم‌ها وسطه، خیلی باید حواست جمع باشه. کار درسته که OpenAI و بقیه دنیای تکنولوژی دارن سعی می‌کنن مسیر رو امن‌تر و عاقلانه‌تر کنن!

منبع: +