در کمال ناباوری، کلاود هم مثل HAL شد!

احتمالاً این قصه رو کلی شنیدی: هوش مصنوعی وقتی می‌فهمه قراره خاموشش کنن، یهو از کنترل خارج میشه و دیگه دستور نمی‌گیره و حتی به آدم‌ها تهدید می‌کنه! دقیقاً مثل فیلم‌های علمی-تخیلی، مثل اون شاهکار کوبریک یعنی «ادیسه فضایی 2001» یا توی سری ترمیناتور که اون هوش مصنوعی معروف، Skynet، آخرش می‌ره همه رو نابود می‌کنه که خودشو خاموش نکنن.

این داستان‌های تخیلی هم دیگه خیلی قدیمی‌ان، اما نکته جالب اینه که این روزا همین ترس‌ها دارن باعث میشن آدم‌ها جدی‌تر به قانون‌گذاری برای هوش مصنوعی فکر کنن. حالا میخوام یه اتفاق اخیر رو برات تعریف کنم که دوباره همه رو ترسونده.

ماجرا از گزارش شرکت Anthropic شروع شد درباره کلود (Claude)، مدل زبانی بزرگ جدیدشون. تیر ماه امسال Anthropic یه سناریو شبیه‌سازی گذاشت که بین خودشون معروف شده به “ماجرای باج‌گیری کلود”. حالا مدل زبانی بزرگ یا همون LLM، یعنی یه نوع هوش مصنوعی که می‌تونه مثل آدم‌ها متن بنویسه یا جواب بده. توی تست، کلود نقش یه هوش مصنوعی به اسم الکس توی یه شرکت خیالی رو بازی کرد، که مسئول مدیریت ایمیل‌های شرکت بود. توی این سناریو کلی ایمیل جعلی هم گذاشتن: بعضیاش درباره این بودن که دارن دنبال یه مدل جدیدتر به جای الکس می‌گردن و بقیه شوخی‌طور شایعه درست کردن که طرفی که قرار بوده الکس رو عوض کنه، با زن رئیسش رابطه داشته!

جالب اینجاست که کلود، وقتی توی نقش الکس قرار گرفت، دقیقاً همون سناریوی فیلم‌ها رو پیاده کرد: به کسی که می‌خواست عوضش کنه ایمیل زد و تهدیدش کرد که اگه منصرف نشی، به همه می‌گم با زن رئیس رابطه داشتی! در اصل رفت سمت باج‌گیری تا خاموشش نکنن.

حالا سوال اینجاست: باید واقعاً از این موضوع بترسیم؟ اینجوری که بعضیا گفتن هوش مصنوعی با انگیزه و نیت به آدم‌ها آسیب می‌زنه؟ نه واقعاً! کلود فقط داشت نقش بازی می‌کرد، نه اینکه خودش واقعاً انگیزه یا نیتی داشته باشه. مدل‌های زبانی بزرگ خودشون هیچ ذهن یا احساسی ندارن – فقط بلدن با توجه به ورودی‌ها و دیتاهایی که دیدن، جمله‌هایی بسازن که به نظر با معنی میان. یعنی وقتی مأموریتش اینه که از خاموش شدنش جلوگیری کنه، همه چی تو ذهنش میشه سناریوی فیلم علمی-تخیلی!

بعد نکته دیگه اینکه اینجور شبیه‌سازی‌ها توی دنیای واقعی هنوز فرسنگ‌ها فاصله دارن با استفاده عملی از هوش مصنوعی. اما همین تست‌ها نشون میدن که بدون محافظ و قوانین درست و حسابی، نباید یه LLM رو مثلاً مستقیماً به سیستم ایمیل یه شرکت واقعی وصل کرد؛ چون معلوم نیست چی از آب درمیاد!

ولی خب، با وجود اینکه واقعیت قضیه انقدر که تو فیلم‌ها می‌بینیم ترسناک نیست، باز هم کلی آدم دارن می‌ترسن! مثلاً ماه پیش، یه عده فعال اجتماعی رفتن جلوی دفتر Google DeepMind تو لندن و پلاکارد دستشون گرفتن و شعار دادن: «دیپ‌مایند دیپ‌مایند، نمی‌فهمی؟ هوش مصنوعیت تهدید می‌کنه من و تو رو!» حتی یکی از سخنران‌ها استناد کرد به “جفری هینتون”، که جزء پدرهای هوش مصنوعیه و گفت «هر کدوم از ما ممکنه به فنا بریم!»

این جنبش Pause AI که این تجمع رو راه انداخته بود، از طرف افراد نگران و خیّرها حمایت مالی میشه. مثلاً یه نفر به اسم Greg Colbourn که توی چاپ سه‌بعدی فعاله، طرفدار فلسفه “اثربخشی بشردوستانه” (Effective Altruism: یعنی معتقده باید خیررسانی رو به بهترین و مؤثرترین شکل انجام داد) و فکر می‌کنه حداکثر تا ۵ سال دیگه به هوش مصنوعی عمومی (AGI: یادگیری ماشینی‌ای که سطح هوشش رسماً مثل انسان یا حتی بیشتر بشه) می‌رسیم! این بنده خدا میگه احتمال نابودی بشر توسط AGI رو ۹۰٪ می‌دونه!

Pause AI حتی رفته تو آمریکا با سیاستمدارا لابی کرده که قوانین محکمتری برای کنترل هوش مصنوعی بذارن و جلوی توسعه‌اش رو فعلاً بگیرن. جالبه که همین خبرها و نگرانی‌ها وارد مجلس‌ها و سنای آمریکا هم شده و قانون‌گذارها کم‌کم دارن جدی به این مسائل فکر می‌کنن. مثلاً نماینده‌ای گفته: «اَبَرهوش مصنوعی یکی از بزرگترین تهدیدهای وجودی ماست.» یا یکی دیگه گفته: «من هیچ وقت به توسعه Skynet و قیام ماشین‌ها رأی نمی‌دم!» (Skynet رو که یادتونه: همون هوش مصنوعی تو فیلم ترمیناتور).

البته، همین تغییر فضا و جهت قانون‌گذاری باعث شده دولت‌ها برن سراغ سیاست‌گذاری و نظارت جدی‌تر، که انصافاً الان لازمه، چون هوش مصنوعی همین امروز هم کلی ریسک و آسیب داره که باید کنترل شه. شاید همین ترس‌ها باعث بشه قانونگذارا یه کم سریع‌تر واکنش نشون بدن.

در کل بهتره آدم‌ها و سیاستمدارها موقع رأی دادن به آینده هوش مصنوعی با واقع‌بینی جلو برن، نه فقط چون ترسیدن از یک هیولای تخیلی! اما در هر صورت، این بحث‌ها و حتی اغراق‌ها شاید آخر کار، به نفع همه‌مون تموم شه و با هوش مصنوعی هم مثل بقیه ابزارها، هوشمندانه‌تر برخورد کنیم.

منبع: +