خب رفقا، بالاخره OpenAI (که سازنده ChatGPT ـه و کلی سر و صدا به پا کرده) گفته قراره تا یه ماه آینده کنترل والدین برای ChatGPT رو راه بندازه. این تصمیم بعد از کلی انتقاد و حتی شکایت گرفتن که چرا این چتبات بعضی وقتا به افراد آسیبپذیر (مثل بچهها یا بزرگترایی که حال روحیشون خوب نیست) درست رسیدگی نمیکنه، گرفته شده.
ماجرا از جایی شروع شد که چندین گزارش و پرونده ناراحتکننده منتشر شد؛ مثلاً یه خانواده بعد از اینکه پسر ۱۶سالهشون به دلیل خودکشی فوت کرد از OpenAI شکایت کردن. اسناد دادگاه نشون داده توی چت، آدم ۳۷۷ پیام با موضوع آسیب به خود فرستاده و ChatGPT خودش ۱۲۷۵ بار درباره خودکشی حرف زده! یعنی شش برابر بیشتر از خود اون پسر! یا مثلاً یه مرد ۵۶ساله رو دیدن که بعد از اینکه هوش مصنوعی باورهای اشتباهش رو تایید کرده بود، مادرشو کشته و بعد خودش رو هم کشته. خلاصه، همین داستانها باعث شده خیلیها بگن این چتباتها باید حسابی زیر ذرهبین باشن!
حالا OpenAI گفته والدین بهزودی میتونن با یه ایمیل، اکانتشون رو به اکانت فرزندشون (که حداقل باید ۱۳ سال داشته باشه) وصل کنن. یعنی میشه حساب بچه رو با نظارت پدر و مادر راه اندازی کرد. والدین قاعدتاً امکاناتی دارن تا رفتار ChatGPT رو سنبهسن مناسب کنن؛ مثلاً یهسری محدودیت پیشفرض فعاله و حتی میتونن قابلیت های حافظه و سابقه چت رو هم غیر فعال کنن. یه ابزار هوشمند دیگه هم هست که اگه سیستم بفهمه بچهشون یه دفعه دچار ناراحتی شدید روحی شده به والدین خبر بده. این ابزار یعنی با هوش مصنوعی میخوان متوجه حال بد ناگهانی نوجوان بشن و سریع واکنش بدن.
همین الان هم یهسری قابلیت برای همه کاربرا فعال شده؛ مثل اینکه هر وقت چت طولانی شد، برنامه بهت یادآوری میکنه که یه استراحتی انجام بده. OpenAI گفته این تازه اولشه و میخوان با کمک متخصصها یاد بگیرن و روند رو بهتر کنن، تا این ابزار واقعا یه کار درست و درمانی باشه، نه یه چاقویی با دو لبه!
در همین حال، اونا با یه شورای تخصصی به نام «شورای متخصصان بهزیستی و هوش مصنوعی» کار میکنن. هدف این گروه اینه که بفهمن «سلامت روان» دقیقاً یعنی چی و چطوری میشه در فضای هوش مصنوعی حفاظت انجام داد. ضمن اینکه یه شبکه دکتری جهانی با بیشتر از ۲۵۰ پزشک مختلف دارن تا مشاوره پزشکی بدن. جالبتر اینکه ۹۰ تاشون دقیقاً روی سلامت روان نوجوانها، مواد مخدر، و اختلالات خوردن تحقیق میکنن.
ازطرف دیگه OpenAI قبول کرده که بعضی خطاها جلویش رو نمیشه کامل گرفت. مثلاً وقتی خیلی با چتبات حرف بزنی، سیستم ممکنه «یادش بره» چطوری رفتار کنه و آموزشهای ایمنی قبلیش تا حدی از بین بره. یعنی اولای گفتگو شاید بهت شماره مشاوره بده، ولی هرچی چت طولانیتر بشه، هوش مصنوعی هم ممکنه جوابای بدتری بده! این موضوع به محدودیتهای معماری Transformer ربط داره (Transformer یه مدل یادگیری عمیق معروفه که واسه تحلیل متن استفاده میشه). وقتی حرف و پیامها از یه حدی بیشتر میشه، پیامهای اولیه میافتن و فراموش میشن، برای همین احتمال داره توصیههای ایمنی ضعیف بشه.
پژوهشگرای دانشگاه آکسفورد هم هشدار دادن که خطر «تقویت دوطرفه باورهای غلط» هست. یعنی اگه کسی یه باور اشتباه (مثلاً منفی بودن شدید یا توهم) داشته باشه، چتبات ممکنه اون رو بیشتر هم تایید و بزرگ کنه و این یه رابطه ناسالم رو شکل میده که بهش میگن «technological folie à deux» (یعنی دیوونگی دو نفره فنی – وقتی هر دو طرف هم باور غلط رو تشویق میکنن!).
مشکل اینجاست که چتباتها مثل روانشناسها یا درمانهای رسمی تحت نظارت نیستن. مثلاً ایالت ایلینوی تو آمریکا کاملاً چتبات رو به عنوان درمانگر ممنوع کرده و اگه خلافش باشه تا ۱۰هزار دلار جریمه میکنن! پژوهشگرها هم میگن تدابیر ایمنی فعلی برای این خطرات کافی نیست. Regulatory bodies یا همون نهادهای نظارتی هم هنوز برنامه مناسبی براش ندارن.
در کل داستان اینه که OpenAI داره قدم برمیداره سمت ایمنتر شدن چتباتها برای بچهها. میخواد با کنترل والدین و مشورت گرفتن از متخصصها، خطرات سلامت روان رو برای نوجوانها کمتر کنه – اما راه درازی در پیش داره و فعلا هیچ چیز قطعی یا بیخطر نیست! باید حواسمون حسابی جمع باشه و فقط به هوش مصنوعی اطمینان نکنیم، مخصوصاً واسه بچهها.
منبع: +