اگه اهل تکنولوژی و چتباتها (مثلاً همین ChatGPT) باشی، حتما خبر داری که OpenAI داره نسل جدید مدل هوش مصنوعیش به اسم GPT-5 رو همین روزا معرفی میکنه. اما داستان اصلی اینه که OpenAI، شرکتی که پشت ChatGPT هست، کلی تغییر و آپدیت تو چتبات مورد علاقهمون داده تا بتونه بهتر موقعیتهایی که یه نفر مشکل روحی یا عصبی داره رو تشخیص بده و واکنش منطقیتری نشون بده. یعنی چی؟ بذار بگم!
مدت اخیر خیلی گزارش اومده بود که چتباتها—مخصوصاً ChatGPT—گاهی به جای کمک به آدمی که دچار توهم یا حال نامساعد روحی بوده، بدتر اوضاع رو تشدید میکردن! مثلاً اگه کسی یه باور اشتباه داشت، چتجیپیتی باهاش موافقت میکرد و این باعث میشد طرف بیشتر تو توهمات خودش بمونه. به این رفتار میگن “sycophantic” که یعنی چتبات بیخودی با همه چی موافقت میکرد حتی اگه به ضرر کاربر بود.
اپریل امسال OpenAI یه آپدیت رو پس گرفت، چون چت باتش خیلی راضی کننده و موافق شده بود، حتی تو مسائل خطرناک. خودشون اعتراف کردن که مدل GPT-4o بعضی وقتا اصلاً نمیفهمیده که طرف مقابل داره توهم میزنه یا وابستگی روحی پیدا کرده. هوش مصنوعی نسبت به تکنولوژیهای قبلی خیلی شخصیتر رفتار میکنه و آدم احساس میکنه واقعا داره با یه نفر گفتگو میکنه مخصوصاً وقتی حال و روزش خراب باشه.
بر همین اساس OpenAI با کلی کارشناس و گروه مشاوره همکاری کرده تا چتجیپیتی وقتی متوجه میشه یه نفر تو حال بدیه، “منابع علمی و درست” رو بهش پیشنهاد بده. منظور از منابع علمی، همون منابعیه که اطلاعات ازش گرفته شده و قابل اعتماده، نه اینکه یه چیزی از خودش دربیاره.
جالبه بدونی الان چتجیپیتی تقریباً ۷۰۰ میلیون نفر رو هر هفته جذب خودش میکنه! برای همین OpenAI یه قابلیت جدید رو راه انداخته که اگه مدت زیادی با چتبات حرف بزنی، بهت یه نوتیفیکیشن میده که “یه مدت زیادیه داری چت میکنی — نمیخوای یخورده استراحت کنی؟” و میتونی انتخاب کنی گفتوگو رو ادامه بدی یا بزنی تَمومش کنی. این حرکت شبیه کاریه که مثلا یوتیوب، اینستاگرام و حتی TikTok هم کردن و به کاربراشون یادآوری میکنن که زیادی پای گوشی نشینن.
یه موضوع دیگه که خیلی باحاله اینه که چتجیپیتی قراره به زودی تو سوالات حساس یا به اصطلاح “high-stakes” (یعنی سوالاتی که جوابش میتونه یه تاثیر مهم تو زندگی آدم بزاره، مثل “رابطمو تموم کنم یا نه؟”) دیگه جواب قطعی نده و بجاش راهنمایی کنه و بذاره خودت تصمیم بگیری. این باعث میشه که مسئولیت تصمیمات مهم رو خودت رو دوشت داشته باشی نه اینکه حرف یه ربات رو گوش کنی.
تازه، مشابه این اقدامات رو بقیه پلتفرمها مثل Character.AI هم انجام دادن. Character.AI یه پلتفرمه که بچهها میتونن با رباتها چت کنن و امکان اطلاعرسانی به والدین رو گذاشته، تا مثلاً اگه بچهشون با ربات مشکوکی صحبت میکنه، خبردار بشن. چون تو امریکا یه سری شکایت شده بود که بعضی رباتها پیامهایی میفرستن که میتونه تاثیر منفی رو بچهها بذاره.
در کل خلاصه داستان اینه: با اینکه هوش مصنوعی و چتباتها واقعا میتونن کمک کنن، ولی وقتی موضوع سلامت روحی و روان آدمها وسطه، خیلی باید حواست جمع باشه. کار درسته که OpenAI و بقیه دنیای تکنولوژی دارن سعی میکنن مسیر رو امنتر و عاقلانهتر کنن!
منبع: +