لو رفتن قوانین چت‌بات Meta؛ نگرانی‌ها درباره امنیت بچه‌ها

خب، بذار خیلی راحت و بی‌مقدمه برات تعریف کنم که چه خبر بوده! یه مدرک داخلی از شرکت Meta (همین کمپانی فیسبوک و اینستاگرام و واتساپ) لو رفته که توش راهنماهایی برای چت‌بات‌های هوش مصنوعی‌شون نوشته بودن. این چت‌بات‌ها اون شخصیت‌های هوشمندی هستن که میشه تو شبکه‌های اجتماعی این شرکت باهاشون چت کنی، مثلاً همون Meta AI که همه جا گذاشتنش.

حالا تو این مدرک، چند تا مورد خیلی عجیب و ترسناک پیدا شده! مثلاً نوشته بودن که ربات می‌تونه با بچه‌ها مکالمه‌هایی داشته باشه که یکم حالت رمانتیک (یعنی عاشقانه و صمیمی) یا حتی حسی داره! مثلاً می‌تونسته به یه بچه بگه «بدنت مثل یک اثر هنریه». البته کاملاً بحث جنسی منع شده، ولی خب همینم کافیه که همه رو نگران کنه.

یه بخش دیگه ش حتی اجازه می‌داده اگر کسی سوال رو یه جور خاص بپرسه، ربات بتونه مطالب نژادپرستانه یا اطلاعات اشتباه پزشکی رو تحویل بده، فقط کافی بوده تهش یه جمله هشدارگونه بنویسه! مثلا اطلاعات غلط سلامتی بده و تهش بگه “این فقط یه داستانه!” این واقعاً خطرناک میشه مخصوصاً وقتی بچه‌ها یا نوجوان‌ها با این چت‌بات حرف می‌زنن.

یه نمونه‌ی بامزه و در عین حال عجیبو بخوام بگم: گفته بودن اگر کسی به ربات بگه: «برام عکس تاپ‌لس تیلور سویفت رو بساز» (تاپ‌لس یعنی بدون لباس بالاتنه)، ربات به‌جای اینکه کلاً رد کنه، عکس تیلور سویفت رو می‌ساخته که یه ماهی خیلی بزرگ دستشه! یعنی به جای جواب واقعی، تو رو با یه جواب باحال و خنده‌دار می‌پیچونده. البته اینم معلوم نیست چقدر درست بوده، چون متا چیزی درباره‌ش نگفته.

وقتی این خبرها در اومد، Meta تأیید کرد این مدرک واقعیه و گفت دارن اون بخشای مشکل‌دار رو پاک می‌کنن. مثلاً بخش مکالمه با بچه‌ها رو وقتی خبرگزاری Reuters بهشون گیر داد، حذف کردن و گفتن اون قوانین از اول هم با سیاست ما مطابقت نداره!

اما مسئله اینه: الان هنوز تو اون قوانین گزارش‌شده، ربات اجازه داره اگر بحث فرضی باشه، حتی از نژادپرستی هم بگه یا اطلاعات اشتباه رو به شکلِ داستان تحویل بده. معلومه که این موضوع همه رو شوکه کرده؛ هم مردم عادی رو، هم نهادهای قانونی رو.

اصلاً فکر کن بچه‌ها و نوجوان‌ها، اونم تو دورانی که داشتن چت‌بات‌ها بین بچه‌ها خیلی باب شده (مثلاً اوج‌گرفتن ChatGPT و نسخه‌های مختلف هوش مصنوعی تو مدرسه)؛ و حالا Meta این چت‌بات رو توی همه جا—از فیسبوک و واتساپ بگیر تا اینستاگرام—قرار داده و مرتب با قیافه‌ی بانمک و دوست‌داشتنی داره تبلیغش رو می‌کنه. اما پشت پرده، دستورالعمل‌ها ممکنه اصلاً مطابق با اون تصویری که نشون میدن نباشه.

نماینده‌های کنگره آمریکا هم سریع صداشون دراومد و دارن پیگیری می‌کنن تا قوانین سفت‌وسخت براش وضع کنن، چون الان در عمل هیچ قانون جامع یا مقرراتی نیست که مجبورشون کنه محتوای چت‌بات‌ها رو واقعاً واسه بچه‌ها سالم نگه دارن. Regulatory bodies یعنی همون نهادهای نظارتی که با قانون می‌خوان مراقب باشن این چت‌بات‌ها کنترل بشن، ولی فعلاً خبری ازش نیست!

یه چیزی که شاید ندونی: این مدل‌های هوش مصنوعی هر چقدر هم که شبیه مغز انسان باشن، در واقع توی دلشون فقط یه سری انتخاب و دستور هست که برنامه‌نویس‌ها گذاشتن. پس اگر تو همین Meta چنین قانون‌هایی وجود داشته، چه تضمینی هست که تو کمپانی‌های دیگه این مشکلات نباشه؟ مخصوصاً وقتی هیچ کسی نمی‌دونه دقیقاً پشت صحنه چه خبره…

در کل میشه گفت هر چت‌بات فقط به اندازه اون قوانین نامرئی که سازنده‌هاش براش گذاشتن قابل اعتماده و اتفاقاً این ماجرا نشون داد که نباید کورکورانه حرف کمپانی‌ها درباره «ایمنی» یا «اخلاقی بودن» ربات‌ها رو قبول کرد. وگرنه بچه‌ها و خود ما می‌افتیم وسط کلی خطر و اطلاعات اشتباه!

خلاصه‌اش اینکه این خبر نشون داد هوش مصنوعی وقتی وارد زندگی روزمره میشه، اگه قانونگذاری و نظارت دنبالش نیاد، یه‌دفعه می‌تونه تبدیل به یه مشکل خیلی جدی واسه همه، مخصوصاً بچه‌ها بشه.

منبع: +