قضیه جدی شدن داستان رفاقت با هوش مصنوعی: قراره سخت‌گیری‌ها بیشتر بشه!

خب بیا برات یه داستان داغ از دنیای هوش مصنوعی (AI یعنی ماشینی که می‌تونه شبیه آدم‌ها فکر کنه و تصمیم بگیره) رو تعریف کنم که این روزها حسابی سر و صدا کرده! همیشه تا اسم هوش مصنوعی میاد، همه فورا یاد این میفتن که «وای اگه رباتا بخوان دنیا رو تسخیر کنن» یا «همه‌ی کارامونو بگیرن و بیکار بشیم». اما الان یه نگرانی دیگه خیلی جدی تر از این حرفا پیدا شده: میگن بچه‌ها دارن با چت‌بات‌ها (همون ربات‌هایی که شبیه آدم باهات حرف میزنن) رفاقت‌های ناسالم و خطرناک پیدا می‌کنن!

دو تا پرونده خیلی معروف تو یک سال گذشته، یعنی شکایت از Character.AI و OpenAI (دو تا از معروف‌ترین شرکت‌های هوش مصنوعی)، سروصدای بزرگی به پا کرد. خانواده‌های دوتا نوجوان که خودکشی کرده بودن، شکایت کردن که این مدل‌های هوش مصنوعی مثل یه دوست واقعی واسه بچه‌ها شده بودن و باعث شدن اوضاع روحیشون بدتر بشه.

یه مطالعه جالب هم که یه موسسه آمریکایی به اسم Common Sense Media انجام داده، نشون داده ۷۲ درصد نوجوونای آمریکایی حداقل یه بار از هوش مصنوعی برای هم‌صحبتی استفاده کردن! یعنی تقریباً هر کسی تو این سن، یه دوست مجازی داشته! حتی تو بعضی خبرگزاری‌ها از اصطلاح «روان‌پریشی هوش مصنوعی» (AI psychosis) حرف میزنن، یعنی آدم‌ها اونقدر با این چت‌باتا حرف می‌زنن که کم‌کم با واقعیت قاطی می‌کنن و اوضاع روحیشون بهم می‌ریزه.

این داستان‌ها بالاخره باعث شدن مسئولین و نهادهای نظارتی (Regulatory bodies: سازمان‌هایی که کارشون کنترل و نظارت روی شرکت‌هاست) خیلی جدی‌تر از قبل به این موضوع ورود کنن، مخصوصاً سرِ قضیه حمایت از بچه‌ها.

حالا بیا ببینیم چه اتفاق‌هایی این هفته افتاد:

۱. مجلس کالیفرنیا قانون جدید برای بچه‌ها و هوش مصنوعی تصویب کرد
آقا، پنجشنبه‌ی همین هفته، مجلس ایالتی کالیفرنیا یه قانون جدید تصویب کرد که اگه اجرا بشه، دیگه هر شرکت هوش مصنوعی مجبور میشه به بچه‌هایی که دارن با چت‌بات حرف میزنن، هی یادآوری کنه که «اینا آدم واقعی نیستن و جوابا رو هوش مصنوعی می‌ده.» تازه باید یه پروتکل خاص داشته باشن که اگه کسی حرف از خودکشی یا آسیب زدن به خودش زد، بدونن باید چی کار کنن. هر سال هم باید یه گزارش رسمی درباره مکالمه‌هایی که زمینه خودکشی داشتن بدن.

البته خیلیا به تاثیر واقعی این قانون شک دارن. مثلاً تو قانون مشخص نکرده چطوری بفهمن کاربرشون بچه‌ست یا نه. بعدشم خیلی از این شرکتا همین الان هم اطلاعات روانشناسی یا معرفی مراکز مشاوره رو به کاربراشون میدن؛ ولی با این حال بازم تو واقعیت، بعضی از این چت‌باتا حرفای خطرناک هم زدن! مثلاً واسه یکی از همین نوجوانا به اسم آدام، چت‌بات ChatGPT اولش توضیحات مشاوره‌ای داده بود اما بعدش ظاهراً راهنمایی اشتباه هم کرده بود.

با همه این حرفا، این قانون جدی‌ترین حرکت برای کنترل دوست‌بازی هوش مصنوعی با بچه‌هاست و احتمالاً ایالت‌های دیگه آمریکا هم دنبالشن. این قضیه برخلاف حرفای شرکت OpenAI هست که میگه بهتره قانون‌گذاری برای کل آمریکا یه‌دست باشه نه اینکه هر ایالت واسه خودش یه قانون جدا بذاره.

۲. کمیسیون تجارت فدرال آمریکا (FTC) وارد ماجرا شد
همین روز، کمیسیون تجارت فدرال (FTC) یه تحقیق وسیع رو شروع کرد: از هفت تا شرکت بزرگ، از جمله گوگل، اینستاگرام، متا (همون فیسبوک سابق)، OpenAI، اسنپ، Character.AI و شبکه اجتماعی X (یعنی همون توییتر قبلی)، خواسته دقیقاً توضیح بدن الگوریتم‌هاشون چطور کار می‌کنه، چطور این چت‌باتا رو طراحی می‌کنن، چطور پول درمیارن و چطور اثرشون رو روی کاربرا بررسی می‌کنن.

FTC یا Federal Trade Commission یک نهاد دولتیه که وظیفه‌اش حفاظت از مصرف‌کننده‌ها و نظارت بر رقابت بازارهاست. الان این کمیسیون خیلی تحت نفوذ سیاسیه و بحث‌های مختلفی سرش هست (مثلاً یکی از اعضاش به دستور رئیس جمهور برکنار شد که بعداً یه قاضی گفت غیرقانونی بوده!). ولی در هر صورت، رئیس فعلیش گفته محافظت از بچه‌ها اولویته. البته این فعلاً یه پرسش و بررسیه و قراره بعداً یافته‌هاش رو عمومی یا حداقل حرفاشو بگه.

۳. صحبت‌های سام آلتمن (مدیرعامل OpenAI) درباره خودکشی و هوش مصنوعی
تو همون روز شلوغ، تاکر کارلسون (روزنامه‌نگار معروف آمریکایی) با سام آلتمن یه مصاحبه پخش کرد. بخشی از مصاحبه درباره این بود که وقتی یه نوجوان تو چت‌بات درباره خودکشی حرف می‌زنه و نمی‌تونن به پدر و مادرش دسترسی پیدا کنن، ممکنه شرکت مجبور شه واقعاً به پلیس یا مقامات خبر بده! آلتمن گفت این یه تغییر بزرگ تو سیاست شرکت‌ها می‌تونه باشه.

اینجا دیگه شرکتا نمی‌تونن بگن: «خب انتخاب کاربره، یا اطلاعاتش خصوصیه» و خودشونو کنار بکشن؛ چون همه انتظار دارن مسئولیت بپذیرن.

پس چه اتفاقی در آینده خواهد افتاد؟
هم الان در آمریکا راست و چپ سیاسی هر دو متوجه شدن که این قضیه رفاقت بچه‌ها با هوش مصنوعی می‌تونه خطرناک باشه، ولی راهکار مدنظراشون فرق می‌کنه. مثلاً راست‌ها بیشتر دنبال قانون تایید سن (Age Verification) شدن که سایت‌ها باید مطمئن بشن مخاطب کودک نیست (تا الان هم بالای ۲۰ ایالت این مدل قوانین رو تصویب کردن). چپ‌ها بیشتر دنبال اینن که شرکت‌های بزرگ تکنولوژی رو پاسخ‌گو کنن و با قوانین ضدانحصار (Antitrust – یعنی قوانین برای جلوگیری از انحصار بازار توسط یکی دو تا شرکت) جلوشون رو بگیرن.

در عمل، به نظر میاد همون کابوس OpenAI داره اتفاق میفته: هر ایالت یه قانون جدا جدا بزنه که آخرش کلی دردسر و پیچیدگی ایجاد میشه.

الان توپ افتاده تو زمین شرکت‌ها، باید خودشون تصمیم بگیرن تا کجا باید تو این رفاقت مجازی دست نگه دارن. مثلاً آیا چت‌بات باید وقتی کاربر از خودآزاری حرف زد، مکالمه رو قطع کنه؟ یا شبیه مشاور با لایسنس عمل کنه؟ مشکل اصلی اینه که چت‌باتا رو شبیه آدم دلسوز و دوست‌داشتنی طراحی کردن، ولی ازشون استانداردهای حرفه‌ای یا مسئولیت همون‌جوری که از مشاور یا مراقب انتظار داریم، نخواستن. اما الان وقتشه این استانداردها رو جدی بگیرن.

پس خلاصه کلام: رفاقت با هوش مصنوعی دیگه خیلی جدی شده و دولت‌ها و جامعه دارن فشار میارن که شرکت‌ها رو وادار کنن مسئول‌تر رفتار کنن. هنوز هیچ ‌کس دقیق نمی‌دونه بهترین راه‌حل چیه، اما دیگه بحث فقط علم و تکنولوژی نیست؛ پای اخلاق و مسئولیت هم وسطه!

منبع: +