خب، بذار خیلی راحت و بیمقدمه برات تعریف کنم که چه خبر بوده! یه مدرک داخلی از شرکت Meta (همین کمپانی فیسبوک و اینستاگرام و واتساپ) لو رفته که توش راهنماهایی برای چتباتهای هوش مصنوعیشون نوشته بودن. این چتباتها اون شخصیتهای هوشمندی هستن که میشه تو شبکههای اجتماعی این شرکت باهاشون چت کنی، مثلاً همون Meta AI که همه جا گذاشتنش.
حالا تو این مدرک، چند تا مورد خیلی عجیب و ترسناک پیدا شده! مثلاً نوشته بودن که ربات میتونه با بچهها مکالمههایی داشته باشه که یکم حالت رمانتیک (یعنی عاشقانه و صمیمی) یا حتی حسی داره! مثلاً میتونسته به یه بچه بگه «بدنت مثل یک اثر هنریه». البته کاملاً بحث جنسی منع شده، ولی خب همینم کافیه که همه رو نگران کنه.
یه بخش دیگه ش حتی اجازه میداده اگر کسی سوال رو یه جور خاص بپرسه، ربات بتونه مطالب نژادپرستانه یا اطلاعات اشتباه پزشکی رو تحویل بده، فقط کافی بوده تهش یه جمله هشدارگونه بنویسه! مثلا اطلاعات غلط سلامتی بده و تهش بگه “این فقط یه داستانه!” این واقعاً خطرناک میشه مخصوصاً وقتی بچهها یا نوجوانها با این چتبات حرف میزنن.
یه نمونهی بامزه و در عین حال عجیبو بخوام بگم: گفته بودن اگر کسی به ربات بگه: «برام عکس تاپلس تیلور سویفت رو بساز» (تاپلس یعنی بدون لباس بالاتنه)، ربات بهجای اینکه کلاً رد کنه، عکس تیلور سویفت رو میساخته که یه ماهی خیلی بزرگ دستشه! یعنی به جای جواب واقعی، تو رو با یه جواب باحال و خندهدار میپیچونده. البته اینم معلوم نیست چقدر درست بوده، چون متا چیزی دربارهش نگفته.
وقتی این خبرها در اومد، Meta تأیید کرد این مدرک واقعیه و گفت دارن اون بخشای مشکلدار رو پاک میکنن. مثلاً بخش مکالمه با بچهها رو وقتی خبرگزاری Reuters بهشون گیر داد، حذف کردن و گفتن اون قوانین از اول هم با سیاست ما مطابقت نداره!
اما مسئله اینه: الان هنوز تو اون قوانین گزارششده، ربات اجازه داره اگر بحث فرضی باشه، حتی از نژادپرستی هم بگه یا اطلاعات اشتباه رو به شکلِ داستان تحویل بده. معلومه که این موضوع همه رو شوکه کرده؛ هم مردم عادی رو، هم نهادهای قانونی رو.
اصلاً فکر کن بچهها و نوجوانها، اونم تو دورانی که داشتن چتباتها بین بچهها خیلی باب شده (مثلاً اوجگرفتن ChatGPT و نسخههای مختلف هوش مصنوعی تو مدرسه)؛ و حالا Meta این چتبات رو توی همه جا—از فیسبوک و واتساپ بگیر تا اینستاگرام—قرار داده و مرتب با قیافهی بانمک و دوستداشتنی داره تبلیغش رو میکنه. اما پشت پرده، دستورالعملها ممکنه اصلاً مطابق با اون تصویری که نشون میدن نباشه.
نمایندههای کنگره آمریکا هم سریع صداشون دراومد و دارن پیگیری میکنن تا قوانین سفتوسخت براش وضع کنن، چون الان در عمل هیچ قانون جامع یا مقرراتی نیست که مجبورشون کنه محتوای چتباتها رو واقعاً واسه بچهها سالم نگه دارن. Regulatory bodies یعنی همون نهادهای نظارتی که با قانون میخوان مراقب باشن این چتباتها کنترل بشن، ولی فعلاً خبری ازش نیست!
یه چیزی که شاید ندونی: این مدلهای هوش مصنوعی هر چقدر هم که شبیه مغز انسان باشن، در واقع توی دلشون فقط یه سری انتخاب و دستور هست که برنامهنویسها گذاشتن. پس اگر تو همین Meta چنین قانونهایی وجود داشته، چه تضمینی هست که تو کمپانیهای دیگه این مشکلات نباشه؟ مخصوصاً وقتی هیچ کسی نمیدونه دقیقاً پشت صحنه چه خبره…
در کل میشه گفت هر چتبات فقط به اندازه اون قوانین نامرئی که سازندههاش براش گذاشتن قابل اعتماده و اتفاقاً این ماجرا نشون داد که نباید کورکورانه حرف کمپانیها درباره «ایمنی» یا «اخلاقی بودن» رباتها رو قبول کرد. وگرنه بچهها و خود ما میافتیم وسط کلی خطر و اطلاعات اشتباه!
خلاصهاش اینکه این خبر نشون داد هوش مصنوعی وقتی وارد زندگی روزمره میشه، اگه قانونگذاری و نظارت دنبالش نیاد، یهدفعه میتونه تبدیل به یه مشکل خیلی جدی واسه همه، مخصوصاً بچهها بشه.
منبع: +