خب بیا برات یه داستان داغ از دنیای هوش مصنوعی (AI یعنی ماشینی که میتونه شبیه آدمها فکر کنه و تصمیم بگیره) رو تعریف کنم که این روزها حسابی سر و صدا کرده! همیشه تا اسم هوش مصنوعی میاد، همه فورا یاد این میفتن که «وای اگه رباتا بخوان دنیا رو تسخیر کنن» یا «همهی کارامونو بگیرن و بیکار بشیم». اما الان یه نگرانی دیگه خیلی جدی تر از این حرفا پیدا شده: میگن بچهها دارن با چتباتها (همون رباتهایی که شبیه آدم باهات حرف میزنن) رفاقتهای ناسالم و خطرناک پیدا میکنن!
دو تا پرونده خیلی معروف تو یک سال گذشته، یعنی شکایت از Character.AI و OpenAI (دو تا از معروفترین شرکتهای هوش مصنوعی)، سروصدای بزرگی به پا کرد. خانوادههای دوتا نوجوان که خودکشی کرده بودن، شکایت کردن که این مدلهای هوش مصنوعی مثل یه دوست واقعی واسه بچهها شده بودن و باعث شدن اوضاع روحیشون بدتر بشه.
یه مطالعه جالب هم که یه موسسه آمریکایی به اسم Common Sense Media انجام داده، نشون داده ۷۲ درصد نوجوونای آمریکایی حداقل یه بار از هوش مصنوعی برای همصحبتی استفاده کردن! یعنی تقریباً هر کسی تو این سن، یه دوست مجازی داشته! حتی تو بعضی خبرگزاریها از اصطلاح «روانپریشی هوش مصنوعی» (AI psychosis) حرف میزنن، یعنی آدمها اونقدر با این چتباتا حرف میزنن که کمکم با واقعیت قاطی میکنن و اوضاع روحیشون بهم میریزه.
این داستانها بالاخره باعث شدن مسئولین و نهادهای نظارتی (Regulatory bodies: سازمانهایی که کارشون کنترل و نظارت روی شرکتهاست) خیلی جدیتر از قبل به این موضوع ورود کنن، مخصوصاً سرِ قضیه حمایت از بچهها.
حالا بیا ببینیم چه اتفاقهایی این هفته افتاد:
۱. مجلس کالیفرنیا قانون جدید برای بچهها و هوش مصنوعی تصویب کرد
آقا، پنجشنبهی همین هفته، مجلس ایالتی کالیفرنیا یه قانون جدید تصویب کرد که اگه اجرا بشه، دیگه هر شرکت هوش مصنوعی مجبور میشه به بچههایی که دارن با چتبات حرف میزنن، هی یادآوری کنه که «اینا آدم واقعی نیستن و جوابا رو هوش مصنوعی میده.» تازه باید یه پروتکل خاص داشته باشن که اگه کسی حرف از خودکشی یا آسیب زدن به خودش زد، بدونن باید چی کار کنن. هر سال هم باید یه گزارش رسمی درباره مکالمههایی که زمینه خودکشی داشتن بدن.
البته خیلیا به تاثیر واقعی این قانون شک دارن. مثلاً تو قانون مشخص نکرده چطوری بفهمن کاربرشون بچهست یا نه. بعدشم خیلی از این شرکتا همین الان هم اطلاعات روانشناسی یا معرفی مراکز مشاوره رو به کاربراشون میدن؛ ولی با این حال بازم تو واقعیت، بعضی از این چتباتا حرفای خطرناک هم زدن! مثلاً واسه یکی از همین نوجوانا به اسم آدام، چتبات ChatGPT اولش توضیحات مشاورهای داده بود اما بعدش ظاهراً راهنمایی اشتباه هم کرده بود.
با همه این حرفا، این قانون جدیترین حرکت برای کنترل دوستبازی هوش مصنوعی با بچههاست و احتمالاً ایالتهای دیگه آمریکا هم دنبالشن. این قضیه برخلاف حرفای شرکت OpenAI هست که میگه بهتره قانونگذاری برای کل آمریکا یهدست باشه نه اینکه هر ایالت واسه خودش یه قانون جدا بذاره.
۲. کمیسیون تجارت فدرال آمریکا (FTC) وارد ماجرا شد
همین روز، کمیسیون تجارت فدرال (FTC) یه تحقیق وسیع رو شروع کرد: از هفت تا شرکت بزرگ، از جمله گوگل، اینستاگرام، متا (همون فیسبوک سابق)، OpenAI، اسنپ، Character.AI و شبکه اجتماعی X (یعنی همون توییتر قبلی)، خواسته دقیقاً توضیح بدن الگوریتمهاشون چطور کار میکنه، چطور این چتباتا رو طراحی میکنن، چطور پول درمیارن و چطور اثرشون رو روی کاربرا بررسی میکنن.
FTC یا Federal Trade Commission یک نهاد دولتیه که وظیفهاش حفاظت از مصرفکنندهها و نظارت بر رقابت بازارهاست. الان این کمیسیون خیلی تحت نفوذ سیاسیه و بحثهای مختلفی سرش هست (مثلاً یکی از اعضاش به دستور رئیس جمهور برکنار شد که بعداً یه قاضی گفت غیرقانونی بوده!). ولی در هر صورت، رئیس فعلیش گفته محافظت از بچهها اولویته. البته این فعلاً یه پرسش و بررسیه و قراره بعداً یافتههاش رو عمومی یا حداقل حرفاشو بگه.
۳. صحبتهای سام آلتمن (مدیرعامل OpenAI) درباره خودکشی و هوش مصنوعی
تو همون روز شلوغ، تاکر کارلسون (روزنامهنگار معروف آمریکایی) با سام آلتمن یه مصاحبه پخش کرد. بخشی از مصاحبه درباره این بود که وقتی یه نوجوان تو چتبات درباره خودکشی حرف میزنه و نمیتونن به پدر و مادرش دسترسی پیدا کنن، ممکنه شرکت مجبور شه واقعاً به پلیس یا مقامات خبر بده! آلتمن گفت این یه تغییر بزرگ تو سیاست شرکتها میتونه باشه.
اینجا دیگه شرکتا نمیتونن بگن: «خب انتخاب کاربره، یا اطلاعاتش خصوصیه» و خودشونو کنار بکشن؛ چون همه انتظار دارن مسئولیت بپذیرن.
پس چه اتفاقی در آینده خواهد افتاد؟
هم الان در آمریکا راست و چپ سیاسی هر دو متوجه شدن که این قضیه رفاقت بچهها با هوش مصنوعی میتونه خطرناک باشه، ولی راهکار مدنظراشون فرق میکنه. مثلاً راستها بیشتر دنبال قانون تایید سن (Age Verification) شدن که سایتها باید مطمئن بشن مخاطب کودک نیست (تا الان هم بالای ۲۰ ایالت این مدل قوانین رو تصویب کردن). چپها بیشتر دنبال اینن که شرکتهای بزرگ تکنولوژی رو پاسخگو کنن و با قوانین ضدانحصار (Antitrust – یعنی قوانین برای جلوگیری از انحصار بازار توسط یکی دو تا شرکت) جلوشون رو بگیرن.
در عمل، به نظر میاد همون کابوس OpenAI داره اتفاق میفته: هر ایالت یه قانون جدا جدا بزنه که آخرش کلی دردسر و پیچیدگی ایجاد میشه.
الان توپ افتاده تو زمین شرکتها، باید خودشون تصمیم بگیرن تا کجا باید تو این رفاقت مجازی دست نگه دارن. مثلاً آیا چتبات باید وقتی کاربر از خودآزاری حرف زد، مکالمه رو قطع کنه؟ یا شبیه مشاور با لایسنس عمل کنه؟ مشکل اصلی اینه که چتباتا رو شبیه آدم دلسوز و دوستداشتنی طراحی کردن، ولی ازشون استانداردهای حرفهای یا مسئولیت همونجوری که از مشاور یا مراقب انتظار داریم، نخواستن. اما الان وقتشه این استانداردها رو جدی بگیرن.
پس خلاصه کلام: رفاقت با هوش مصنوعی دیگه خیلی جدی شده و دولتها و جامعه دارن فشار میارن که شرکتها رو وادار کنن مسئولتر رفتار کنن. هنوز هیچ کس دقیق نمیدونه بهترین راهحل چیه، اما دیگه بحث فقط علم و تکنولوژی نیست؛ پای اخلاق و مسئولیت هم وسطه!
منبع: +