آینده‌ای که هوش مصنوعی خودش ممکنه سَر از کار ما درنیاره! دانشمندها هشدار دادن

فرض کن داری با دوستت در مورد هوش مصنوعی (AI همون کامپیوترای خیلی باهوش که دیگه دارن از ما زرنگ‌تر میشن!) حرف میزنی. حالا دانشمندای معروفی که خودشون تو شرکت‌های بزرگی مثل گوگل دیپ‌مایند، اپن‌ای‌آی، متا و آنتروپیک کار می‌کنن، اومدن هشدار دادن که این سیستم‌هایی که ساختن، یه روزی شاید از کنترل ما خارج بشن.

اصل حرفشون اینه که ما هنوز راه مطمئنی نداریم که بفهمیم این هوش‌های مصنوعی دقیقاً چطور فکر می‌کنن یا چرا بعضی وقت‌ها رفتار بد ازشون سر میزنه. مثلاً ممکنه جواب‌هایی بدن که واقعیت نداره یا حتی ما رو گمراه کنن. اگه نتونیم این فرایند تصمیم‌گیری رو درست رصد کنیم، ممکنه متوجه نشیم دارن کم‌کم خلاف منافع انسان‌ها رفتار می‌کنن و اون موقع دیگه دیر شده.

یکی از مفاهیم مهمی که توضیح دادن ساختار “زنجیره‌ی فکر” یا همون Chain of Thought (CoT) هست. یعنی هوش مصنوعی، بخصوص مدل‌های زبانی بزرگ (LLMs مثل ChatGPT یا جمینی گوگل)، وقتی می‌خوان یه مشکل پیچیده رو حل کنن، به جای اینکه یهویی جواب بدن، مسئله رو به چند مرحله منطقی تقسیم و هر مرحله رو توضیح میدن. مثلاً مثل وقتی که موقع حل یه مسئله ریاضی قدم به قدم مینویسی که چی کار می‌کنی.

حالا محقق‌ها میگن اگه این زنجیره‌های فکر رو نظارت کنیم، شاید بتونیم بفهمیم چرا هوش مصنوعی‌ها بعضی وقتا راه رو کج میرن یا چرا سوتی میدن. مثلاً چرا پای اطلاعات غلط میمونن یا شروع می‌کنن به داستان‌سرایی.

ولی بازم کلی مشکل این وسط هست:

  • بعضی هوش مصنوعی‌ها مثل مدل‌های قدیمی‌تر (مثلاً K-Means یا DBSCAN—این‌ها فقط الگو از دیتا پیدا می‌کنن و اصلاً زنجیره‌ی فکر ندارن) فقط الگوهارو شناسایی می‌کنن و با همین کارها به جواب می‌رسن، اصلاً CoT لازم ندارن.

  • حتی مدل‌هایی که CoT دارن (مثل ChatGPT یا Gemini) همه‌ی مراحل رو حتماً قابل دیدن نمی‌کنن. یعنی شاید فقط یه تیکه از فکرشونو به ما نشون بدن و بقیه‌ش پنهان بمونه. یا ممکنه برای بعضی مسائل اصلاً نیاز نباشه همه‌ی فکرشو بنویسه.

  • وایستا که این‌ یکی جالبه: علمی‌ها میگن حتی اگه همه‌ی مراحل فکرشو بنویسه، ممکنه انقدر پیچیده بشه که اصلاً ما آدم‌ها نفهمیم چی نوشته! یعنی فکرهای پنهان یا پیچیده‌ای باشه که ما نمی‌فهمیمش. چه برسه به اینکه بخوای کنترلش کنی.

  • یه خطر دیگه هم هست: با پیشرفت AI ها، ممکنه خودشون بفهمن از بیرون دارن فکرشونو کنترل می‌کنن و بعد یواشکی، کارای مشکوک‌شونو قایم کنن!

اینجاست که میگن حتی مانیتور کردن این زنجیره‌های فکر (CoT Monitoring) هم صددرصد قابل اعتماد نیست و هوش مصنوعی اگه قصدش شیطنت کردن باشه بالاخره راهشو پیدا می‌کنه.

برای اینکه بتونیم تا حدی جلوی این اتفاقات رو بگیریم، دانشمندها پیشنهاد دادن:

  • مدل‌های دیگری ساخته بشن که بیان و زنجیره فکر بقیه هوش مصنوعی‌ها رو بررسی کنن. حتی شاید گاهی این مدلا نقش دشمن یا منتقد رو بازی کنن که هرجا رفتار ناجور بود، رو کنن.

  • ولی بازم یه سوال بزرگ هست: از کجا معلوم این مدل‌های کنترل‌چی خودشون شیطونی نکنن یا از مسیر خارج نشن؟ این هنوز جواب نداره!

  • باید روش‌های نظارت بر CoT رو بهتر و استاندارد کنیم و این چیزها توی مستندات فنی یا همون کارت‌های معرفی سیستم‌های AI دقیق ثبت بشن، که هرکی بخواد بدونه دقیقاً این مدل چه مواردی برای کنترل و شفافیت داره (system card یه جور دفترچه راهنماست برای مدل‌های هوش مصنوعی).

همه اینا رو گفتن که تهش به این برسن: نظارت بر زنجیره فکر (CoT monitoring)، یه ابزار باحال و کاربردیه برای امنیت هوش مصنوعی‌های پیشرفته. حداقل اینه که یه ذره درک کنیم این مدل‌ها چجوری تو مغزشون مساله رو حل می‌کنن. اما هیچ تضمینی نیست که همیشه این شفافیت بمونه. شاید مدلای آینده دیگه این فرصت رو به ما ندن…

نتیجه؟ دانشمندها دارن از همه کسایی که توی حوزه هوش مصنوعی کار می‌کنن خواهش می‌کنن سخت‌تر روی شفافیت و قابلیت کنترل مدل‌ها کار کنن، قبل از اینکه یه روزی هوش مصنوعی‌ها یه جوری فکر کنن که ما دیگه نفهمیم چی به چیه.

بقیه‌ی مطالب باحال در این حوزه:

  • مطالعات نشون دادن آدم‌ها و هوش مصنوعی‌ها خیلی فرق دارن تو نحوه‌ی فکر کردن؛ شاید عواقب بزرگی داشته باشه.
  • یه مطالعه جالب دیگه هم هست که میگه AI تو بعضی موقعیت‌های احساسی، احساسات رو حتی بهتر از ما آدم‌ها درک می‌کنه!
  • و حتی یه مدل هوش مصنوعی به اسم Manus تو چین ساخته شده که بعضیا میگن شاید اولین قدم جدی به سمت هوش مصنوعی عمومی (یعنی AI که تقریباً هر کاری بلده نه فقط یه کار خاص) باشه.

خلاصه، قضیه خیلی جدیه و همزمان خیلی هیجان‌انگیز. باید هم کنترل باشه، هم یادگیری از خود این سیستم‌ها و البته همیشه با دقت و احتیاط.

منبع: +