تکامل زنجیره فکری پیشرفته: نگاهی عمیق به CoT

زنجیره فکری پیشرفته
خوشم اومد 0
خوشم نیومد 0

به دنیای پیچیده زنجیره فکری پیشرفته (CoT)، یکی از روش‌های نوآورانه برای استدلال در مدل‌های زبانی بزرگ، وارد می‌شویم. در این بررسی، سیر تحول CoT را از مراحل ابتدایی استدلال گام به گام تا تکنیک‌های پیشرفته‌تر، شامل رمزگشایی و رویکردهای مبتنی بر درخت، دنبال می‌کنیم. همچنین یاد می‌گیریم چگونه این تکنیک‌ها می‌توانند دقت و عمق خروجی‌های مدل را بهبود بخشند.

درک زنجیره فکری (CoT)

زنجیره فکری (Chain of Thought : CoT) روشی برای استدلال است. این روش به مدل‌های زبانی بزرگ (LLM) کمک می‌کند تا فرآیند فکری خود را آشکار کنند. CoT که در سال ۲۰۲۲ توسط دیپ‌مایند معرفی شد، مدل‌ها را قادر می‌سازد مسائل پیچیده را به گام‌های منطقی کوچک‌تر تقسیم کنند. این تقسیم‌بندی به دستیابی به پاسخ‌های دقیق‌تر منجر می‌شود. CoT با درخواست از مدل‌ها برای “فکر کردن گام به گام” از توانایی‌های استدلال ذاتی آنها بهره می‌برد. این بهره‌وری چه با رویکرد بدون نمونه (zero-shot) و چه با رویکرد کم‌نمونه (few-shot) امکان‌پذیر است.

به عنوان مثال، اضافه کردن عبارت “بیایید گام به گام فکر کنیم” به یک درخواست، می‌تواند عملکرد بسیاری از LLMها مانند ChatGPT و Claude و سایرین را به طور قابل توجهی بهبود دهد. از آن زمان، این رویکرد الهام‌بخش مجموعه‌ای از تکنیک‌های پیشرفته برای بهبود و تطبیق CoT با کاربردهای مختلف شده است.

تکامل تکنیک‌های CoT

ساخت زنجیره‌های استدلال

در ابتدا، CoT بر مسیرهای استدلال خطی تمرکز داشت. در این روش، مدل از ابتدا تا انتها در یک رشته واحد روی مسئله کار می‌کرد. اما پیشرفت‌هایی مانند سیستم بنجامین کلیگر، CoT را به سطح جدیدی رسانده است. این سیستم، استدلال را به چندین زنجیره تکراری تقسیم می‌کند. در این سیستم‌ها، هر مرحله بر اساس مرحله قبلی ساخته می‌شود. این تکرار تا زمانی ادامه می‌یابد که مدل به پاسخ خود اطمینان پیدا کند.

برای مثال، در پاسخ به سوال “چند حرف R در کلمه Strawberry وجود دارد؟” این روش تضمین می‌کند که مدل قبل از نتیجه‌گیری، هر مرحله را با دقت بررسی کند. این رویکرد بهبود قابل توجهی در عملکرد، به ویژه با مدل‌های بزرگتر مانند Llama 3.1 70B، در وظایف ریاضی نشان داده است.

تنظیم دقیق برای استدلال

تنظیم دقیق مدل‌های کوچک‌تر روی مجموعه داده‌های CoT برای نزدیک کردن توانایی‌های استدلال آنها به مدل‌های بزرگتر، مورد بررسی قرار گرفته است. اگرچه این مسیر امیدوارکننده است، اما نتایج فعلی هنوز پیشرفت چشمگیری نسبت به مدل‌های پایه نشان نداده‌اند. مخازن متن‌باز حاوی مجموعه داده‌های CoT، منابع زیادی برای آزمایش فراهم می‌کنند. اما برای شکوفا شدن پتانسیل کامل تنظیم دقیق برای استدلال CoT، به مدل‌ها و مستندات بهتری نیاز داریم.

فراتر از درخواست: تکنیک‌های تولید پیشرفته

CoT اغلب به درخواست متکی است. اما روش‌های جایگزینی مانند استراتژی‌های رمزگشایی نیز وجود دارند. این روش‌ها می‌توانند خروجی‌های مدل را بدون نیاز به دستورالعمل‌های صریح بهینه کنند. این روش‌ها عبارتند از:

  • رمزگشایی حریصانه (Greedy Decoding): این روش، مدل را مجبور می‌کند در هر مرحله محتمل‌ترین نشانه را انتخاب کند. این امر می‌تواند به پاسخ‌های قطعی‌تر منجر شود.
  • نمونه‌گیری دما و Top-p: این پارامترها به ترتیب تصادفی بودن و تنوع انتخاب نشانه را کنترل می‌کنند. برای مثال، دماهای بالاتر خلاقیت را افزایش می‌دهند، اما ممکن است دقت را کاهش دهند. مقادیر پایین‌تر top-p، مجموعه نشانه‌ها را به کاندیداهای با احتمال بالا محدود می‌کنند.

رمزگشایی CoT

رمزگشایی CoT، نوآوری مهمی در روش‌های رمزگشایی است که توسط دیپ‌مایند معرفی شده است. این تکنیک، نمرات اطمینان داخلی مدل را در چندین مسیر استدلال ارزیابی می‌کند. با انتخاب مسیری با بالاترین امتیاز احتمال، رمزگشایی CoT دقیق‌ترین و مطمئن‌ترین پاسخ را ارائه می‌دهد. این روش نتایج بهتری نسبت به رویکردهای ساده‌تر مانند رمزگشایی حریصانه نشان داده است.

ظهور روش‌های مبتنی بر درخت

زنجیره فکری با خودسازگاری (CoT-SC)

CoT-SC چندین مسیر استدلال ایجاد می‌کند و سازگاری آنها را برای انتخاب قابل اعتمادترین پاسخ ارزیابی می‌کند. این رویکرد، بهبود ۱ تا ۸ درصدی را در وظایفی مانند استدلال حسابی نشان داده است.

درخت افکار (ToT)

ToT که توسط دانشگاه پرینستون و دیپ‌مایند در اواخر سال ۲۰۲۳ معرفی شد، رشته‌های استدلال را به صورت پویا در حین پیشرفت ارزیابی می‌کند. برخلاف CoT-SC که مسیرها را تنها پس از تکمیل ارزیابی می‌کند، ToT رشته‌های کم‌امیدکننده را در میانه راه حذف می‌کند و منابع محاسباتی را بر روی راه‌حل‌های عملی متمرکز می‌کند.

ToT را می‌توان با جستجوی درخت مونت کارلو (MCTS) بهبود بخشید. MCTS، پس انتشار را برای اصلاح تصمیمات قبلی بر اساس اطلاعات جدید معرفی می‌کند. این ترکیب، امکان استدلال کارآمدتر و دقیق‌تر، به ویژه در حوزه‌های حساس که دقت بسیار مهم است، را فراهم می‌کند.

هزینه و کارایی در کاربردهای CoT

تکنیک‌های پیشرفته CoT دقت را بهبود می‌بخشند، اما هزینه‌های محاسباتی و تأخیر را نیز افزایش می‌دهند. برای مثال، برخی از روش‌ها به حداکثر هشت برابر قدرت پردازش بیشتر برای هر سوال نیاز دارند. این امر به هزینه‌های عملیاتی بالاتر برای برنامه‌هایی مانند خدمات مشتری یا تصمیم‌گیری سازمانی منجر می‌شود.

در چنین مواردی، تنظیم دقیق مدل‌ها برای گنجاندن مستقیم استدلال CoT می‌تواند هزینه‌ها را کاهش دهد، اگرچه این همچنان یک حوزه تحقیقاتی فعال است. ایجاد تعادل بین دقت و کارایی، کلید تعیین زمان و نحوه استقرار تکنیک‌های CoT است.

پیاده‌سازی عملی: رمزگشایی CoT

برای نشان دادن کاربرد عملی تکنیک‌های CoT، می‌توان یک سیستم رمزگشایی CoT را با استفاده از یک مدل متن‌باز مانند Llama 3.1 8B پیاده‌سازی کرد. این سیستم به صورت پویا پیچیدگی یک سوال را برای تعیین تعداد مسیرهای استدلال (k) مورد نیاز ارزیابی می‌کند. با استفاده از logits (نمرات اطمینان خام) و ایجاد چندین مسیر استدلال، سیستم مطمئن‌ترین پاسخ را انتخاب می‌کند.

فرآیند پیاده‌سازی شامل موارد زیر است:
1. راه‌اندازی مدل: دانلود و ذخیره وزن‌ها از Hugging Face برای دسترسی سریع.
2. تعریف پارامترها: پیکربندی تنظیمات رمزگشایی مانند مقادیر k و معیارهای ارزیابی.
3. توسعه API: ایجاد یک نقطه پایانی با استفاده از پلتفرم‌هایی مانند Beam.Cloud برای ارائه مدل و مدیریت درخواست‌های کاربر.

نتیجه یک سیستم هوشمند است که می‌تواند پاسخ‌های دقیق با نمرات اطمینان ارائه دهد و پیچیدگی استدلال خود را بر اساس دشواری سوال تنظیم کند.

افکار نهایی

زنجیره فکری و انواع پیشرفته آن، نشان دهنده جهش بزرگی در قابلیت‌های LLM هستند. از استدلال گام به گام ساده گرفته تا روش‌های پیچیده مبتنی بر درخت، این تکنیک‌ها مدل‌ها را قادر می‌سازند تا با دقت بیشتری به مسائل پیچیده بپردازند. در حالی که چالش‌هایی مانند کارایی هزینه و مقیاس‌پذیری همچنان وجود دارد، CoT به عنوان پایه‌ای برای مهندسی درخواست و استراتژی‌های استدلال هوش مصنوعی در حال تکامل است.

با درک و پیاده‌سازی این چارچوب‌ها، توسعه‌دهندگان می‌توانند امکانات جدیدی برای ساخت سیستم‌های هوشمند و انعطاف‌پذیر متناسب با کاربردهای مختلف ایجاد کنند.

اگر به خواندن کامل این مطلب علاقه‌مندید، روی لینک مقابل کلیک کنید: towardsdatascience.com

2676-2662-2604-2421-2389-2365-2296-2266-2250-2228-2171-2169-2140-2072-2050-2046-1964-1884-1870-1864-1827-1825-1722-1718-1669-1661-1652-1633-1605-1583-1573-1565-1528-1503-1424-1289-2658-2647-2645-2626-2614-2612-2590-2581-2517-2475-2454-2442-2431-2379-2373-2371-2336-2332-2324-2322-2316-2294-2280-2274-2258-2256-2248-2246-2234-2230-2198-2173-2167-2155-2153-2148-2132-2124-2112-2092-2090-2070-2068-2030-2028-2007-1978-1976-1965-1916-1890-1888-1874-1866-1819-1813-1740-1738-1736-1726-1724-1713-1709-1705-1702-1700-1698-1692-1667-1665-1663-1646-1640-1638-1630-1604-1600-1587-1585-1567-1557-1551-1539-1534-1533-1522-1518-1470-1467-1464-1415-1412-1409-1403-1397-1385-1376-1373-1370-1361-1358-1355-1352-1349-1346-1340-1337-1334-1331-1328-1322-1313-1310-1307-1298-1295-1292-1279-814-2619-2608-2596-2417-2369-2367-2346-2286-2200-2176-2165-2134-2128-2056-2036-2023-2015-2000-1995-1962-1923-1918-1876-1730-1694-1615-1406-1394-1319-850-845-839-717-702-486-2680-2678-2674-2672-2670-2666-2664-2660-2656-2654-2652-2650-2642-2640-2638-2636-2634-2632-2630-2628-2623-2621-2617-2610-2606-2602-2600-2598-2594-2592-2587-2585-2583-2579-2577-2575-2573-2571-2568-2566-2564-2562-2560-2558-2553-2551-2549-2547-2545-2542
خوشم اومد 0
خوشم نیومد 0

موضوع مورد علاقه خود را انتخاب کنید:

| | | |

محدودیت‌های مدل‌های زبانی بزرگ در استدلال و محاسبات

محدودیت‌های استدلال مدل‌های زبانی بزرگ
خوشم اومد 0
خوشم نیومد 0

تحقیقات جدید نشان می‌دهد مدل‌های زبانی بزرگ (LLMها) در استدلال واقعی و انجام محاسبات، بیشتر به روش‌های ابتکاری و حفظ کردن متکی هستند تا یادگیری عمیق. با بررسی سازوکارهای درونی این مدل‌ها، محققان مدارهای خاصی را که مسئول عملکرد آن‌ها در وظایف ریاضی هستند شناسایی کرده‌اند و به محدودیت‌های استدلال هوش مصنوعی بینش‌های ارزشمندی افزوده‌اند.

بررسی محدودیت‌های مدل‌های زبانی بزرگ در استدلال و ریاضیات

این پرسش که آیا مدل‌های زبانی بزرگ (LLMها) وظایف استدلالی را از طریق الگوریتم‌های عمومی یا صرفاً حفظ کردن حل می‌کنند، مدت‌هاست ذهن محققان را به خود مشغول کرده است. مطالعه‌ای جدید به این موضوع پرداخته و نشان می‌دهد LLMها اغلب وظایف استدلالی را با استفاده از روش‌های ابتکاری، به‌جای «یادگیری» واقعی، تقریب می‌زنند. این تحقیق با تشریح فرآیندهای درونی LLMها، بر اتکای آن‌ها به مدارهای خاصی که استدلال را شبیه‌سازی می‌کنند اما فاقد انعطاف‌پذیری هستند، تأکید می‌کند. درنتیجه، محدودیت‌های ذاتی این مدل‌ها در دستیابی به هوش عمومی آشکار می‌شود.

اهمیت استدلال در هوش مصنوعی

استدلال برای هوش مصنوعی (AI) ضروری است. استدلال به سیستم‌ها توانایی تصمیم‌گیری، حل مسئله و تقلید فرآیندهای فکری انسان را می‌دهد. مقاله تأثیرگذار فرانسوا شوله در سال ۲۰۱۹، “در مورد سنجش هوش”، هوش را “کارایی کسب مهارت” تعریف می‌کند. او بر انعطاف‌پذیری و تعمیم، به‌جای عملکرد خاص وظیفه، تأکید دارد. این دیدگاه، معیارهای رایج که صرفاً توانایی سیستم را برای انجام وظایف از پیش تعریف‌شده می‌سنجند، به چالش می‌کشد.

برای نزدیک شدن سیستم‌های هوش مصنوعی به هوش عمومی مصنوعی (AGI)، باید توانایی کسب مهارت‌های جدید و حل مسائل جدید را بدون اتکا به دانش قبلی گسترده یا داده‌های آموزشی نشان دهند. معیارهای فعلی اغلب در سنجش این انعطاف‌پذیری ناکام می‌مانند، زیرا بر مهارت‌هایی تمرکز می‌کنند که تحت تأثیر حفظ کردن و حجم داده‌های آموزشی هستند. هوش واقعی، آن‌طور که شوله تعریف می‌کند، در توانایی سیستم برای حل مشکلات جدید با تعمیم از اطلاعات محدود نهفته است – شاهکاری که LLMها در دستیابی به آن با مشکل روبرو هستند.

انواع استدلال و جایی که LLMها کم می‌آورند

استدلال را می‌توان به چندین نوع طبقه‌بندی کرد که هر کدام چالش‌های منحصر به فردی را برای سیستم‌های هوش مصنوعی ایجاد می‌کنند:

  • استدلال قیاسی: نتیجه‌گیری خاص از مقدمات کلی. LLMها در این نوع استدلال، وقتی قوانین به‌وضوح تعریف شده باشند، عملکرد نسبتاً خوبی دارند.
  • استدلال استقرایی: استنتاج تعمیم‌ها از مشاهدات خاص. در حالی که LLMها می‌توانند الگوها را تقلید کنند، تعمیم‌های آن‌ها اغلب فاقد عمق است.
  • استدلال ابداکتیو: فرض محتمل‌ترین توضیح برای داده‌های ناقص. LLMها به دلیل عدم درک واقعی از زمینه، در این نوع استدلال با مشکل مواجه هستند.
  • استدلال عقل سلیم: به‌کارگیری دانش روزمره در موقعیت‌های معمولی. LLMها اغلب در وظایفی که نیاز به دانش تجربی یا علّی دارند، شکست می‌خورند.
  • استدلال غیر یکنواخت: تجدیدنظر در نتیجه‌گیری بر اساس اطلاعات جدید. LLMها در این نوع استدلال به ویژه ضعیف هستند، زیرا معماری آن‌ها اجازه به‌روزرسانی پویای دانش قبلی را نمی‌دهد.

در میان این موارد، استدلال عقل سلیم و استدلال غیر یکنواخت برای LLMها به‌طور خاص چالش‌برانگیز هستند. اتکای آن‌ها به روابط ایستا بین مفاهیم و فقدان دانش تجربی، مانع از تنظیم پویای آن‌ها با زمینه‌های جدید یا ادغام مؤثر چندین بخش از اطلاعات می‌شود.

نقش روش‌های ابتکاری در عملکرد LLM

برای درک چرایی مشکل LLMها در استدلال واقعی، بررسی مفهوم روش‌های ابتکاری ضروری است.

روش‌های ابتکاری چیست؟

روش‌های ابتکاری، میانبرهای ذهنی یا قواعد سرانگشتی هستند که برای حل سریع مسائل استفاده می‌شوند و اغلب دقت را فدای سرعت می‌کنند. در هوش مصنوعی، روش‌های ابتکاری یافتن راه‌حل‌های “قابل قبول” را بر راه‌حل‌های کامل ترجیح می‌دهند. برای LLMها، روش‌های ابتکاری به شکل الگوهایی که در طول آموزش آموخته می‌شوند، ظاهر می‌شوند و سپس برای تقریب راه‌حل‌ها برای وظایف جدید اعمال می‌شوند.

چگونه روش‌های ابتکاری رفتار LLM را شکل می‌دهند

LLMها به‌شدت به مکانیسم‌های ابتکاری برای شبیه‌سازی استدلال متکی هستند. معماری آن‌ها اساساً برای تشخیص الگو به‌جای درک واقعی طراحی شده است. برای مثال:

  • الگوهای عددی را تشخیص می‌دهند (مثلاً تشخیص محدوده‌ها یا دنباله‌ها).
  • ارتباط‌های از پیش آموخته‌شده بین ورودی‌ها و خروجی‌ها را به کار می‌برند.
  • از روابط احتمالی برای پیش‌بینی محتمل‌ترین پاسخ بر اساس داده‌های آموزشی استفاده می‌کنند.

در حالی که این روش‌ها می‌توانند نتایج قابل قبولی ایجاد کنند، زمانی که با سناریوهای جدید یا پیچیده‌ای که نیاز به تعمیم واقعی دارند مواجه می‌شوند، ناکام می‌مانند.

رمزگشایی جعبه سیاه: چگونه LLMها حساب را شبیه‌سازی می‌کنند

برای بررسی چگونگی مدیریت وظایف محاسباتی و استدلالی توسط LLMها، محققان از تحلیل علّی برای شناسایی مدارهای عصبی خاص مسئول این عملکردها استفاده کردند. یافته‌های کلیدی عبارتند از:

  • نورون‌های ابتکاری: گروه کوچکی از نورون‌ها از روش‌های ابتکاری ساده برای تشخیص الگوهای ورودی عددی و تولید خروجی‌های متناظر استفاده می‌کنند.
  • مدار حسابی: این زیرمجموعه کوچک از اجزای عصبی – شامل پرسپترون‌های چندلایه (MLPها) خاص و هدهای توجه – محاسبات حسابی را با مسیریابی اطلاعات عملوند و عملگر انجام می‌دهد.
  • استفاده پراکنده: تنها حدود ۱.۵٪ از نورون‌ها در هر لایه به طور فعال در وظایف حسابی درگیر هستند، با این حال آن‌ها ۹۶٪ از دقت حسابی مدل را تشکیل می‌دهند.

وصله‌گذاری فعال‌سازی: شناسایی اجزای حیاتی

محققان از تکنیکی به نام وصله‌گذاری فعال‌سازی برای شناسایی اجزای عصبی ضروری برای عملیات حسابی استفاده کردند. با جایگزینی انتخابی فعال‌سازی‌ها از یک مسئله با مسئله دیگر، آن‌ها مشخص کردند کدام نورون‌ها و هدهای توجه برای حل وظایف خاص حیاتی هستند.

ظهور روش‌های ابتکاری در طول آموزش

این مطالعه مکانیسم “مجموعه‌ای از روش‌های ابتکاری” را نشان داد، جایی که چندین محاسبه مستقل برای تولید نتیجه نهایی ترکیب می‌شوند. این روش‌های ابتکاری در اوایل آموزش ظاهر می‌شوند و در طول آن ثابت می‌مانند، که نشان می‌دهد آن‌ها الگوهای بنیادی هستند نه بهینه‌سازی‌های مرحله آخر.

درک مدارها به تفصیل: تجزیه گام به گام

در اینجا چگونگی پردازش یک مسئله حسابی ساده مانند “۲۲۶–۶۸ =” توسط LLM آمده است:

  1. نشانه‌گذاری اولیه: اعداد و عملگرها نشانه‌گذاری می‌شوند و به اجزای عصبی خاص هدایت می‌شوند.
  2. فعال‌سازی ابتکاری: نورون‌های مختلف در وظایفی مانند تشخیص محدوده اعداد، مدیریت قرض گرفتن یا تراز کردن ارقام تخصص دارند. برای مثال:
  3. نورون A برای اعداد در محدوده ۲۰۰-۳۰۰ فعال می‌شود.
  4. نورون B زمانی را که قرض گرفتن لازم است شناسایی می‌کند.
  5. نورون C رقم ده‌ها را پس از قرض گرفتن محاسبه می‌کند.
  6. ترکیب نهایی: خروجی‌های این نورون‌های تخصصی برای تولید پاسخ نهایی (مثلاً ۱۵۸) ترکیب می‌شوند.

این فرآیند به‌شدت به الگوهای از پیش آموخته‌شده متکی است و زمانی که با مسائلی خارج از توزیع آموزشی مدل، مانند حساب چند رقمی با محدوده اعداد ناآشنا، مواجه می‌شود، شکست می‌خورد.

چرا LLMها از استدلال واقعی کوتاهی می‌کنند

اتکا به مکانیسم‌های ابتکاری، محدودیت اساسی LLMها را آشکار می‌کند: آن‌ها استدلال را تقریب می‌زنند اما واقعاً آن را درک یا تعمیم نمی‌دهند. نقاط ضعف کلیدی عبارتند از:

  • فقدان علیت: LLMها روابط علت و معلولی را درک نمی‌کنند و این آن‌ها را مستعد خطا در استدلال منطقی می‌کند.
  • پایگاه دانش ایستا: برخلاف انسان‌ها، LLMها نمی‌توانند درک خود را هنگام ارائه اطلاعات جدید یا متناقض به‌طور پویا به‌روز کنند.
  • ناتوانی در تعمیم: عملکرد آن‌ها زمانی که با مسائل جدید خارج از داده‌های آموزشی خود مواجه می‌شوند، به‌طور قابل‌توجهی کاهش می‌یابد.

این محدودیت‌ها بر چالش دستیابی به AGI با معماری‌های فعلی مبتنی بر ترانسفورماتور، که کارایی را بر انعطاف‌پذیری واقعی ترجیح می‌دهند، تأکید می‌کند.

نتیجه‌گیری

یافته‌ها واقعیت مهمی را تأیید می‌کنند: LLMهای مبتنی بر ترانسفورماتور به معنای واقعی کلمه استدلال را یاد نمی‌گیرند – آن‌ها آن را از طریق روش‌های ابتکاری پیچیده تقریب می‌زنند. این محدودیت فقط یک مانع فنی نیست، بلکه یک محدودیت اساسی خود معماری است. در حالی که این مدل‌ها در شبیه‌سازی استدلال برای وظایف از پیش تعریف‌شده برتری دارند، زمانی که از آن‌ها خواسته می‌شود به سناریوهای جدید تعمیم دهند یا با آن‌ها سازگار شوند، ناکام می‌مانند.

برای پیشرفت هوش مصنوعی به سمت AGI، محققان باید فراتر از روش‌های ابتکاری نگاه کنند و معماری‌هایی را توسعه دهند که قادر به انتزاع و انعطاف‌پذیری واقعی باشند و شکاف بین عملکرد خاص وظیفه و هوش واقعی را پر کنند.

اگر به خواندن کامل این مطلب علاقه‌مندید، روی لینک مقابل کلیک کنید: medium

خوشم اومد 0
خوشم نیومد 0

موضوع مورد علاقه خود را انتخاب کنید:

| | | |