زبان مادری هوش مصنوعی: وقتی رباتا خودشون زبون اختراع می‌کنن!

Fall Back

خب، امروز می‌خوام یه موضوع خیلی باحال رو براتون تعریف کنم که هم توی دنیای هوش مصنوعی تازه است، هم یه کم عجیبه: اینکه چجوری چندتا ربات یا ایجنت (Agent یعنی همون نرم‌افزارهای باهوش یا رباتایی که خودشون می‌تونن تصمیم بگیرن) تو محیط خودشون خودشون یه زبون مشترک اختراع می‌کنن بدون اینکه کسی (یعنی برنامه‌نویس‌ها یا محقق‌ها) براشون از قبل قوانینی بذاره!

موضوع اصلی مقاله اینه که تو سیستم‌های یادگیری تقویتی چندعاملی یا همون “MARL” (Multi-Agent Reinforcement Learning یعنی سیستم‌هایی که توش چندتا ایجنت با هم یا علیه هم یاد می‌گیرن و تعامل دارن)، همیشه یه مشکلی بوده به اسم «معضل اکتشاف مشترک» یا Joint Exploration Dilemma. خلاصه‌ش یعنی این‌که وقتی چندتا ربات می‌خوان با همدیگه حرف بزنن و باهم همکاری کنن، اگه فقط به حال خودشون ولشون کنیم، معمولا هیچ ارتباط مفهومی واقعی ایجاد نمی‌شه یا همون Communication Vacuum Equilibrium! یعنی یه تعادلی برقراره که هیچکس حرف نمی‌زنه!

محلولای قدیمی‌تر چی کار می‌کردن؟ میومدن خودشون یه سری جهت‌گیری و الگوریتم از بیرون می‌ذاشتن تا این رباتا شروع کنن به ارتباط گرفتن. اینو بهش می‌گن Inductive Bias یعنی سوگیری‌های از پیش تعیین‌شده‌ای که ما به سیستم تزریق می‌کنیم تا بهتر کار کنه.

حالا حرف خفن این مقاله اینه: شاید اصلا این همه دستکاری و مهندسی اضافی زیادی باشه! واقعاً باید انقدر برای رباتا خط و نشون بکشیم؟

اینا اومدن یه سیستمی به اسم “AIM” یا AI Mother Tongue درست کردن. این فریم‌ورک براساس یه تکنولوژی به اسم VQ-VAE ساخته شده.
حالا اگه اسمش براتون عجیبه: VQ-VAE یعنی Vector Quantized Variational Autoencoder؛ یه معماری شبکه عصبیه که می‌تونه اطلاعات رو جمع و جور و رمزگذاری کنه و یه جورایی مثل فشرده‌سازی مفهومی مغز کار می‌کنه.

اینا نشون دادن اگه بذاری این ایجنت‌ها (همون رباتا) خودشون یه سیستم نمادین داخلی بسازن (Endogenous Symbol System یعنی هر ربات خودش برای مفاهیم مختلف یه نشونه یا دویاره‌ی مخصوص می‌سازه)، خودشون کم‌کم به یه زبون مشترک می‌رسن! یعنی بی‌هیچ جهت‌دهی بیرونی، خودشون هم مفاهیم رو ساده‌سازی می‌کنن (Semantic Compression یعنی فشرده‌سازی مفهومی) و هم اختلاف تو مفاهیم رو خودشون حل می‌کنن تا به یه تعادل برسن که توش زبونشون کار کنه (یه چیزی نزدیک Nash Equilibrium که یعنی بهترین استراتژی مشترک واسه همه بدون اینکه انگیزه‌ای به تغییر بدن).

جالبیش اینجاست که این کشفیات با یافته‌های جدید عصب‌شناسی هم جور درمیاد که می‌گه مغز انسان هم واقعاً برای فکرای داخلیش دقیقاً از زبان حرف زدن استفاده نمی‌کنه و بیشتر یه جور مدل‌سازی نرم یا نیمه‌شفاف داره. مثل چیزی که تو LLMها – همون مدل‌های زبانی بزرگ مثل چت‌جی‌پی‌تی – بهش می‌گن Soft Thinking یا تفکر غیر صریح و نرم، که مثلاً مدل چیزا رو می‌فهمه اما الزاماً جلمه‌بندی انسانی نمی‌کنه.

یه مقایسه هم با روشای قبلی انجام دادن و دیدن که همین روش AIM قشنگ تو انتقال مفاهیم و همکاری بین رباتا کارآمدتر و قابل تعمیم‌تر عمل می‌کنه. یعنی اگه بخوایم سیستم ارتباطی برای ایجنت‌ها درست کنیم، بهتره بذاریم خودشون به روش خودشون به ابزارها و مفاهیم برسن تا اینکه همه چی رو ما براشون بجوییم!

برای اینکه بفهمن این ارتباط چطور شکل می‌گیره، یه جعبه ابزار تحلیلی (Interpretable Analysis Toolkit یعنی ابزار تحلیلی‌ای که نتایجش رو می‌تونیم راحت تفسیر کنیم) ساختن و دیدن چیا؟ اینکه مثلاً استفاده رباتا از نشونه‌ها و نمادهاشون یه قانون توزیع خاص داره به اسم Power-law Distribution. این یعنی تعداد کمی از نمادها خیلی زیاد و مابقی کمتر استفاده می‌شن – یه الگوی جالب که تو طبیعت و زبان آدم‌ها هم زیاده.

نتیجه‌های نظری جالبی هم گرفتن:
۱. Neural Communication Hypothesis: فرضیه‌ای که می‌گه ارتباط بین ایجنت‌ها خیلی شبیه چیزیه که تو مغز بین نورون‌ها رخ می‌ده.
۲. Tool-First Principle: یعنی اول ابزار ساخته می‌شه، بعد معنا براش پیدا می‌کنن.
۳. Semantic Interpretability Paradigm: یعنی بهتره به جای اجبار به تعریف‌های سفت‌وسخت، بذاریم سیستم خودش کنجکاوی کنه و مفهوم استخراج کنه.

برای آینده هم گفته که می‌خوان روشای پیشرفته‌تر مثل HQ-VAE (یعنی نسخه سلسله‌مراتبی‌تر VAE که مفاهیم پیچیده‌تری رو با جزئیات بیشتر فشرده‌سازی می‌کنه) رو اضافه کنن و همچنین بررسی کنن ببینن اگه یه مرحله یادگیری پایه کوتاه‌مدت (RL Low-Level Pre-training) بذارن، چقدر کمک می‌کنه ایجنت‌ها راحت‌تر زبون جدیدشون رو پیدا کنن.

خلاصه حرف مقاله اینه: اگه بذاری هوش‌مصنوعی‌ها خودشون با خودشون تعامل کنن و نمادسازی و رمزگذاری داخلی خودشون رو داشته باشن، خودشون یاد می‌گیرن حرف بزنن و همکاری کنن – بدون نیاز به جهت‌دهی و مهندسی مزاحم از بیرون. این کار شاید بتونه یه پل بین دو دنیای نظری مهم بسازه: «نمادباوری» (Symbolism یعنی همه چی باید با تعریف نمادهای خاص مشخص شه) و «اتصال‌گرایی» (Connectionism یعنی شبیه مغز؛ یعنی یادگیری از طریق اتصال‌ها و شبکه‌های پیچیده عصبی).

خلاصه کل ماجرا اینه: شاید وقتشه بذاریم بچه‌رباتا خودشون زبون خودشونو یاد بگیرن و باهم قرار بذارن، ما فقط تماشا کنیم و کنجکاو باشیم چی درمیاد! 😄

منبع: +