کُلی خوش‌گذرونی با اون بیرون! آزمایش شبکه‌های عصبی و برنامه‌سازی خودکار توی دنیای ARC-AGI

Fall Back

خب ببین! امروز می‌خوام یه موضوع خیلی خفن رو باهات در میون بذارم که کلا با هوش مصنوعی و برنامه‌سازی عصبی و این چیزها سر و کار داره. یه مقاله جدید اومده توی آرشیو (arXiv، که مخزن مقالات علمی آنلاین هست) که درباره «عمومی‌سازی خارج از توزیع» یا Out-of-Distribution Generalization توی حوزه ARC-AGI حرف می‌زنه.

حالا شاید بپرسی خب این ARC-AGI اصلاً چیه؟ جریان اینه که انسوی AGI یا Artificial General Intelligence یعنی هوش مصنوعی‌ای که می‌تونه هر جور مسئله‌ای رو مثل آدم حل کنه. ARC-AGI یه دامنه یا فضای مسئله است (یعنی یه جور زمین آزمایش برای مدل‌های هوش مصنوعی) که اتفاقاً مخصوص این طراحی شده که مدل‌ها بتونن با مسائل عجیب و غریب و جدیدی روبرو بشن، بطوری که این مسائل خیلی با اون چیزهایی که مدل‌ها قبلاً باهاشون تمرین کردن فرق دارن.

توی این تحقیق اومدن و گفتن: «بیاید دو تا روش معروف رو برای برنامه‌سازی عصبی (یعنی Neural Program Synthesis) و تنظیم‌کردن مدل سرِ آزمون (که بهش می‌گن Test-Time Fine-Tuning یا TTFT؛ یعنی مدل رو همون موقعِ امتحان کمی تنظیم کنیم تا بهتر جواب بده) با هم مقایسه کنیم و ببینیم کدوم بهتر جواب می‌ده».

کل هدف اینه بفهمن کدوم روش بهتر می‌تونه در مقابل مسائل جدیدی (که قبلاً ندیده) راه‌حل‌های تازه بچیند و سرپا بمونه؛ چون همونطور که گفتیم این “خارج از توزیع” بودن یعنی این که سوالا با اون چیزهایی که مدل قبلاً یاد گرفته زمین تا آسمون فرق دارن.

حالا نتایج چی شد؟ جالب اینجاست که اون روش برنامه‌سازی عصبی که با راهنمای اجرا جلو می‌ره (Execution-Guided Neural Program Synthesis، یعنی مدل یه جورایی وسط نوشتن برنامه‌هاش مدام بررسی می‌کنه که آیا جواب درست درمیاد و با توجه به نتیجه‌ها کارش رو پیش می‌بره) اساسی بقیه روش‌ها رو خاک کرده! یعنی وقتی کار به این می‌کشه که یه مدل باید مثل یه برنامه‌نویس خلاق راه‌حل جدید سر هم کنه، این Execution-Guided عالی عمل می‌کنه و حسابی همه رو جا می‌ذاره.

در مورد اون TTFT هم یک نکته جالب پیدا کردند: ظاهرش اینه که این روش خیلی به مدل کمک می‌کنه تا همون چیزهایی که قبلاً توی داده‌های آموزشیش بوده رو – ولی شاید خودش سرراست ازشون استفاده نمی‌کرده – الآن جلوی چشمش بیاره و استفاده کنه. به عبارتی بیشتر به درد همون “درون توزیعی” می‌خوره، یعنی سوالاتی که مدل قبلاً حدودی مثلشون رو دیده بوده.

خلاصه، اگه طرفدار هوش مصنوعی و برنامه‌سازی عصبی هستی، این مقاله نشون می‌ده برای دنیای مسئله‌های جدید و تکراری‌نشده، باید بریم سراغ روش‌هایی که خودشون وسطِ کار هی جواب‌ها رو بررسی و اصلاح می‌کنن. اون چیزی که باعث پیشرفت می‌شه فقط تنظیمات ریز سر آزمون نیست؛ هوش خلاقانه و کنترل در لحظه – مثل همون Execution-Guided Neural Program Synthesis – نقش اساسی‌تری داره.

کلاً پیشنهاد می‌کنم اگه دنبال این هستی که مدل‌هات قوی‌تر در مقابل سوالای عجیب و غریب بمونن، حتماً به برنامه‌سازی عصبی راهنمای اجرا یه نگاهی بنداز! اینجوری مدل‌ها می‌تونن به جای تکرار چیزهایی که قبلاً بهشون یاد دادیم، خودشون واقعا خلاقیت داشته باشن و پاسخ‌های نو بسازن.

منبع: +