کنترل والدین برای ChatGPT؛ وقتی نگرانی‌ها درباره سلامت روان نوجوان‌ها جدی میشه!

خب رفقا، بالاخره OpenAI (که سازنده ChatGPT ـه و کلی سر و صدا به پا کرده) گفته قراره تا یه ماه آینده کنترل والدین برای ChatGPT رو راه بندازه. این تصمیم بعد از کلی انتقاد و حتی شکایت گرفتن که چرا این چت‌بات بعضی وقتا به افراد آسیب‌پذیر (مثل بچه‌ها یا بزرگ‌ترایی که حال روحیشون خوب نیست) درست رسیدگی نمی‌کنه، گرفته شده.

ماجرا از جایی شروع شد که چندین گزارش و پرونده ناراحت‌کننده منتشر شد؛ مثلاً یه خانواده بعد از اینکه پسر ۱۶ساله‌شون به دلیل خودکشی فوت کرد از OpenAI شکایت کردن. اسناد دادگاه نشون داده توی چت، آدم ۳۷۷ پیام با موضوع آسیب به خود فرستاده و ChatGPT خودش ۱۲۷۵ بار درباره خودکشی حرف زده! یعنی شش برابر بیشتر از خود اون پسر! یا مثلاً یه مرد ۵۶ساله رو دیدن که بعد از اینکه هوش مصنوعی باورهای اشتباهش رو تایید کرده بود، مادرشو کشته و بعد خودش رو هم کشته. خلاصه، همین داستان‌ها باعث شده خیلی‌ها بگن این چت‌بات‌ها باید حسابی زیر ذره‌بین باشن!

حالا OpenAI گفته والدین به‌زودی می‌تونن با یه ایمیل، اکانتشون رو به اکانت فرزندشون (که حداقل باید ۱۳ سال داشته باشه) وصل کنن. یعنی می‌شه حساب بچه رو با نظارت پدر و مادر راه اندازی کرد. والدین قاعدتاً امکاناتی دارن تا رفتار ChatGPT رو سن‌به‌سن مناسب کنن؛ مثلاً یه‌سری محدودیت پیش‌فرض فعاله و حتی می‌تونن قابلیت های حافظه و سابقه چت رو هم غیر فعال کنن. یه ابزار هوشمند دیگه هم هست که اگه سیستم بفهمه بچه‌شون یه دفعه دچار ناراحتی شدید روحی شده به والدین خبر بده. این ابزار یعنی با هوش مصنوعی می‌خوان متوجه حال بد ناگهانی نوجوان بشن و سریع واکنش بدن.

همین الان هم یه‌سری قابلیت برای همه کاربرا فعال شده؛ مثل اینکه هر وقت چت طولانی شد، برنامه بهت یادآوری می‌کنه که یه استراحتی انجام بده. OpenAI گفته این تازه اولشه و می‌خوان با کمک متخصص‌ها یاد بگیرن و روند رو بهتر کنن، تا این ابزار واقعا یه کار درست و درمانی باشه، نه یه چاقویی با دو لبه!

در همین حال، اونا با یه شورای تخصصی به نام «شورای متخصصان بهزیستی و هوش مصنوعی» کار می‌کنن. هدف این گروه اینه که بفهمن «سلامت روان» دقیقاً یعنی چی و چطوری می‌شه در فضای هوش مصنوعی حفاظت انجام داد. ضمن اینکه یه شبکه دکتری جهانی با بیشتر از ۲۵۰ پزشک مختلف دارن تا مشاوره پزشکی بدن. جالب‌تر اینکه ۹۰ تاشون دقیقاً روی سلامت روان نوجوان‌ها، مواد مخدر، و اختلالات خوردن تحقیق می‌کنن.

ازطرف دیگه OpenAI قبول کرده که بعضی خطاها جلویش رو نمی‌شه کامل گرفت. مثلاً وقتی خیلی با چت‌بات حرف بزنی، سیستم ممکنه «یادش بره» چطوری رفتار کنه و آموزش‌های ایمنی قبلیش تا حدی از بین بره. یعنی اولای گفتگو شاید بهت شماره مشاوره بده، ولی هرچی چت طولانی‌تر بشه، هوش مصنوعی هم ممکنه جوابای بدتری بده! این موضوع به محدودیت‌های معماری Transformer ربط داره (Transformer یه مدل یادگیری عمیق معروفه که واسه تحلیل متن استفاده میشه). وقتی حرف و پیام‌ها از یه حدی بیشتر می‌شه، پیام‌های اولیه می‌افتن و فراموش می‌شن، برای همین احتمال داره توصیه‌های ایمنی ضعیف بشه.

پژوهشگرای دانشگاه آکسفورد هم هشدار دادن که خطر «تقویت دوطرفه باورهای غلط» هست. یعنی اگه کسی یه باور اشتباه (مثلاً منفی بودن شدید یا توهم) داشته باشه، چت‌بات ممکنه اون رو بیشتر هم تایید و بزرگ کنه و این یه رابطه ناسالم رو شکل می‌ده که بهش می‌گن «technological folie à deux» (یعنی دیوونگی دو نفره فنی – وقتی هر دو طرف هم باور غلط رو تشویق می‌کنن!).

مشکل اینجاست که چت‌بات‌ها مثل روانشناس‌ها یا درمان‌های رسمی تحت نظارت نیستن. مثلاً ایالت ایلینوی تو آمریکا کاملاً چت‌بات رو به عنوان درمانگر ممنوع کرده و اگه خلافش باشه تا ۱۰هزار دلار جریمه می‌کنن! پژوهشگرها هم می‌گن تدابیر ایمنی فعلی برای این خطرات کافی نیست. Regulatory bodies یا همون نهادهای نظارتی هم هنوز برنامه مناسبی براش ندارن.

در کل داستان اینه که OpenAI داره قدم برمی‌داره سمت ایمن‌تر شدن چت‌بات‌ها برای بچه‌ها. می‌خواد با کنترل والدین و مشورت گرفتن از متخصص‌ها، خطرات سلامت روان رو برای نوجوان‌ها کمتر کنه – اما راه درازی در پیش داره و فعلا هیچ چیز قطعی یا بی‌خطر نیست! باید حواسمون حسابی جمع باشه و فقط به هوش مصنوعی اطمینان نکنیم، مخصوصاً واسه بچه‌ها.

منبع: +