محدودیت‌های مدل‌های زبانی بزرگ در استدلال و محاسبات

محدودیت‌های استدلال مدل‌های زبانی بزرگ
خوشم اومد 0
خوشم نیومد 0

تحقیقات جدید نشان می‌دهد مدل‌های زبانی بزرگ (LLMها) در استدلال واقعی و انجام محاسبات، بیشتر به روش‌های ابتکاری و حفظ کردن متکی هستند تا یادگیری عمیق. با بررسی سازوکارهای درونی این مدل‌ها، محققان مدارهای خاصی را که مسئول عملکرد آن‌ها در وظایف ریاضی هستند شناسایی کرده‌اند و به محدودیت‌های استدلال هوش مصنوعی بینش‌های ارزشمندی افزوده‌اند.

بررسی محدودیت‌های مدل‌های زبانی بزرگ در استدلال و ریاضیات

این پرسش که آیا مدل‌های زبانی بزرگ (LLMها) وظایف استدلالی را از طریق الگوریتم‌های عمومی یا صرفاً حفظ کردن حل می‌کنند، مدت‌هاست ذهن محققان را به خود مشغول کرده است. مطالعه‌ای جدید به این موضوع پرداخته و نشان می‌دهد LLMها اغلب وظایف استدلالی را با استفاده از روش‌های ابتکاری، به‌جای «یادگیری» واقعی، تقریب می‌زنند. این تحقیق با تشریح فرآیندهای درونی LLMها، بر اتکای آن‌ها به مدارهای خاصی که استدلال را شبیه‌سازی می‌کنند اما فاقد انعطاف‌پذیری هستند، تأکید می‌کند. درنتیجه، محدودیت‌های ذاتی این مدل‌ها در دستیابی به هوش عمومی آشکار می‌شود.

اهمیت استدلال در هوش مصنوعی

استدلال برای هوش مصنوعی (AI) ضروری است. استدلال به سیستم‌ها توانایی تصمیم‌گیری، حل مسئله و تقلید فرآیندهای فکری انسان را می‌دهد. مقاله تأثیرگذار فرانسوا شوله در سال ۲۰۱۹، “در مورد سنجش هوش”، هوش را “کارایی کسب مهارت” تعریف می‌کند. او بر انعطاف‌پذیری و تعمیم، به‌جای عملکرد خاص وظیفه، تأکید دارد. این دیدگاه، معیارهای رایج که صرفاً توانایی سیستم را برای انجام وظایف از پیش تعریف‌شده می‌سنجند، به چالش می‌کشد.

برای نزدیک شدن سیستم‌های هوش مصنوعی به هوش عمومی مصنوعی (AGI)، باید توانایی کسب مهارت‌های جدید و حل مسائل جدید را بدون اتکا به دانش قبلی گسترده یا داده‌های آموزشی نشان دهند. معیارهای فعلی اغلب در سنجش این انعطاف‌پذیری ناکام می‌مانند، زیرا بر مهارت‌هایی تمرکز می‌کنند که تحت تأثیر حفظ کردن و حجم داده‌های آموزشی هستند. هوش واقعی، آن‌طور که شوله تعریف می‌کند، در توانایی سیستم برای حل مشکلات جدید با تعمیم از اطلاعات محدود نهفته است – شاهکاری که LLMها در دستیابی به آن با مشکل روبرو هستند.

انواع استدلال و جایی که LLMها کم می‌آورند

استدلال را می‌توان به چندین نوع طبقه‌بندی کرد که هر کدام چالش‌های منحصر به فردی را برای سیستم‌های هوش مصنوعی ایجاد می‌کنند:

  • استدلال قیاسی: نتیجه‌گیری خاص از مقدمات کلی. LLMها در این نوع استدلال، وقتی قوانین به‌وضوح تعریف شده باشند، عملکرد نسبتاً خوبی دارند.
  • استدلال استقرایی: استنتاج تعمیم‌ها از مشاهدات خاص. در حالی که LLMها می‌توانند الگوها را تقلید کنند، تعمیم‌های آن‌ها اغلب فاقد عمق است.
  • استدلال ابداکتیو: فرض محتمل‌ترین توضیح برای داده‌های ناقص. LLMها به دلیل عدم درک واقعی از زمینه، در این نوع استدلال با مشکل مواجه هستند.
  • استدلال عقل سلیم: به‌کارگیری دانش روزمره در موقعیت‌های معمولی. LLMها اغلب در وظایفی که نیاز به دانش تجربی یا علّی دارند، شکست می‌خورند.
  • استدلال غیر یکنواخت: تجدیدنظر در نتیجه‌گیری بر اساس اطلاعات جدید. LLMها در این نوع استدلال به ویژه ضعیف هستند، زیرا معماری آن‌ها اجازه به‌روزرسانی پویای دانش قبلی را نمی‌دهد.

در میان این موارد، استدلال عقل سلیم و استدلال غیر یکنواخت برای LLMها به‌طور خاص چالش‌برانگیز هستند. اتکای آن‌ها به روابط ایستا بین مفاهیم و فقدان دانش تجربی، مانع از تنظیم پویای آن‌ها با زمینه‌های جدید یا ادغام مؤثر چندین بخش از اطلاعات می‌شود.

نقش روش‌های ابتکاری در عملکرد LLM

برای درک چرایی مشکل LLMها در استدلال واقعی، بررسی مفهوم روش‌های ابتکاری ضروری است.

روش‌های ابتکاری چیست؟

روش‌های ابتکاری، میانبرهای ذهنی یا قواعد سرانگشتی هستند که برای حل سریع مسائل استفاده می‌شوند و اغلب دقت را فدای سرعت می‌کنند. در هوش مصنوعی، روش‌های ابتکاری یافتن راه‌حل‌های “قابل قبول” را بر راه‌حل‌های کامل ترجیح می‌دهند. برای LLMها، روش‌های ابتکاری به شکل الگوهایی که در طول آموزش آموخته می‌شوند، ظاهر می‌شوند و سپس برای تقریب راه‌حل‌ها برای وظایف جدید اعمال می‌شوند.

چگونه روش‌های ابتکاری رفتار LLM را شکل می‌دهند

LLMها به‌شدت به مکانیسم‌های ابتکاری برای شبیه‌سازی استدلال متکی هستند. معماری آن‌ها اساساً برای تشخیص الگو به‌جای درک واقعی طراحی شده است. برای مثال:

  • الگوهای عددی را تشخیص می‌دهند (مثلاً تشخیص محدوده‌ها یا دنباله‌ها).
  • ارتباط‌های از پیش آموخته‌شده بین ورودی‌ها و خروجی‌ها را به کار می‌برند.
  • از روابط احتمالی برای پیش‌بینی محتمل‌ترین پاسخ بر اساس داده‌های آموزشی استفاده می‌کنند.

در حالی که این روش‌ها می‌توانند نتایج قابل قبولی ایجاد کنند، زمانی که با سناریوهای جدید یا پیچیده‌ای که نیاز به تعمیم واقعی دارند مواجه می‌شوند، ناکام می‌مانند.

رمزگشایی جعبه سیاه: چگونه LLMها حساب را شبیه‌سازی می‌کنند

برای بررسی چگونگی مدیریت وظایف محاسباتی و استدلالی توسط LLMها، محققان از تحلیل علّی برای شناسایی مدارهای عصبی خاص مسئول این عملکردها استفاده کردند. یافته‌های کلیدی عبارتند از:

  • نورون‌های ابتکاری: گروه کوچکی از نورون‌ها از روش‌های ابتکاری ساده برای تشخیص الگوهای ورودی عددی و تولید خروجی‌های متناظر استفاده می‌کنند.
  • مدار حسابی: این زیرمجموعه کوچک از اجزای عصبی – شامل پرسپترون‌های چندلایه (MLPها) خاص و هدهای توجه – محاسبات حسابی را با مسیریابی اطلاعات عملوند و عملگر انجام می‌دهد.
  • استفاده پراکنده: تنها حدود ۱.۵٪ از نورون‌ها در هر لایه به طور فعال در وظایف حسابی درگیر هستند، با این حال آن‌ها ۹۶٪ از دقت حسابی مدل را تشکیل می‌دهند.

وصله‌گذاری فعال‌سازی: شناسایی اجزای حیاتی

محققان از تکنیکی به نام وصله‌گذاری فعال‌سازی برای شناسایی اجزای عصبی ضروری برای عملیات حسابی استفاده کردند. با جایگزینی انتخابی فعال‌سازی‌ها از یک مسئله با مسئله دیگر، آن‌ها مشخص کردند کدام نورون‌ها و هدهای توجه برای حل وظایف خاص حیاتی هستند.

ظهور روش‌های ابتکاری در طول آموزش

این مطالعه مکانیسم “مجموعه‌ای از روش‌های ابتکاری” را نشان داد، جایی که چندین محاسبه مستقل برای تولید نتیجه نهایی ترکیب می‌شوند. این روش‌های ابتکاری در اوایل آموزش ظاهر می‌شوند و در طول آن ثابت می‌مانند، که نشان می‌دهد آن‌ها الگوهای بنیادی هستند نه بهینه‌سازی‌های مرحله آخر.

درک مدارها به تفصیل: تجزیه گام به گام

در اینجا چگونگی پردازش یک مسئله حسابی ساده مانند “۲۲۶–۶۸ =” توسط LLM آمده است:

  1. نشانه‌گذاری اولیه: اعداد و عملگرها نشانه‌گذاری می‌شوند و به اجزای عصبی خاص هدایت می‌شوند.
  2. فعال‌سازی ابتکاری: نورون‌های مختلف در وظایفی مانند تشخیص محدوده اعداد، مدیریت قرض گرفتن یا تراز کردن ارقام تخصص دارند. برای مثال:
  3. نورون A برای اعداد در محدوده ۲۰۰-۳۰۰ فعال می‌شود.
  4. نورون B زمانی را که قرض گرفتن لازم است شناسایی می‌کند.
  5. نورون C رقم ده‌ها را پس از قرض گرفتن محاسبه می‌کند.
  6. ترکیب نهایی: خروجی‌های این نورون‌های تخصصی برای تولید پاسخ نهایی (مثلاً ۱۵۸) ترکیب می‌شوند.

این فرآیند به‌شدت به الگوهای از پیش آموخته‌شده متکی است و زمانی که با مسائلی خارج از توزیع آموزشی مدل، مانند حساب چند رقمی با محدوده اعداد ناآشنا، مواجه می‌شود، شکست می‌خورد.

چرا LLMها از استدلال واقعی کوتاهی می‌کنند

اتکا به مکانیسم‌های ابتکاری، محدودیت اساسی LLMها را آشکار می‌کند: آن‌ها استدلال را تقریب می‌زنند اما واقعاً آن را درک یا تعمیم نمی‌دهند. نقاط ضعف کلیدی عبارتند از:

  • فقدان علیت: LLMها روابط علت و معلولی را درک نمی‌کنند و این آن‌ها را مستعد خطا در استدلال منطقی می‌کند.
  • پایگاه دانش ایستا: برخلاف انسان‌ها، LLMها نمی‌توانند درک خود را هنگام ارائه اطلاعات جدید یا متناقض به‌طور پویا به‌روز کنند.
  • ناتوانی در تعمیم: عملکرد آن‌ها زمانی که با مسائل جدید خارج از داده‌های آموزشی خود مواجه می‌شوند، به‌طور قابل‌توجهی کاهش می‌یابد.

این محدودیت‌ها بر چالش دستیابی به AGI با معماری‌های فعلی مبتنی بر ترانسفورماتور، که کارایی را بر انعطاف‌پذیری واقعی ترجیح می‌دهند، تأکید می‌کند.

نتیجه‌گیری

یافته‌ها واقعیت مهمی را تأیید می‌کنند: LLMهای مبتنی بر ترانسفورماتور به معنای واقعی کلمه استدلال را یاد نمی‌گیرند – آن‌ها آن را از طریق روش‌های ابتکاری پیچیده تقریب می‌زنند. این محدودیت فقط یک مانع فنی نیست، بلکه یک محدودیت اساسی خود معماری است. در حالی که این مدل‌ها در شبیه‌سازی استدلال برای وظایف از پیش تعریف‌شده برتری دارند، زمانی که از آن‌ها خواسته می‌شود به سناریوهای جدید تعمیم دهند یا با آن‌ها سازگار شوند، ناکام می‌مانند.

برای پیشرفت هوش مصنوعی به سمت AGI، محققان باید فراتر از روش‌های ابتکاری نگاه کنند و معماری‌هایی را توسعه دهند که قادر به انتزاع و انعطاف‌پذیری واقعی باشند و شکاف بین عملکرد خاص وظیفه و هوش واقعی را پر کنند.

اگر به خواندن کامل این مطلب علاقه‌مندید، روی لینک مقابل کلیک کنید: medium

خوشم اومد 0
خوشم نیومد 0