خب ببین! امروز میخوام یه موضوع خیلی خفن رو باهات در میون بذارم که کلا با هوش مصنوعی و برنامهسازی عصبی و این چیزها سر و کار داره. یه مقاله جدید اومده توی آرشیو (arXiv، که مخزن مقالات علمی آنلاین هست) که درباره «عمومیسازی خارج از توزیع» یا Out-of-Distribution Generalization توی حوزه ARC-AGI حرف میزنه.
حالا شاید بپرسی خب این ARC-AGI اصلاً چیه؟ جریان اینه که انسوی AGI یا Artificial General Intelligence یعنی هوش مصنوعیای که میتونه هر جور مسئلهای رو مثل آدم حل کنه. ARC-AGI یه دامنه یا فضای مسئله است (یعنی یه جور زمین آزمایش برای مدلهای هوش مصنوعی) که اتفاقاً مخصوص این طراحی شده که مدلها بتونن با مسائل عجیب و غریب و جدیدی روبرو بشن، بطوری که این مسائل خیلی با اون چیزهایی که مدلها قبلاً باهاشون تمرین کردن فرق دارن.
توی این تحقیق اومدن و گفتن: «بیاید دو تا روش معروف رو برای برنامهسازی عصبی (یعنی Neural Program Synthesis) و تنظیمکردن مدل سرِ آزمون (که بهش میگن Test-Time Fine-Tuning یا TTFT؛ یعنی مدل رو همون موقعِ امتحان کمی تنظیم کنیم تا بهتر جواب بده) با هم مقایسه کنیم و ببینیم کدوم بهتر جواب میده».
کل هدف اینه بفهمن کدوم روش بهتر میتونه در مقابل مسائل جدیدی (که قبلاً ندیده) راهحلهای تازه بچیند و سرپا بمونه؛ چون همونطور که گفتیم این “خارج از توزیع” بودن یعنی این که سوالا با اون چیزهایی که مدل قبلاً یاد گرفته زمین تا آسمون فرق دارن.
حالا نتایج چی شد؟ جالب اینجاست که اون روش برنامهسازی عصبی که با راهنمای اجرا جلو میره (Execution-Guided Neural Program Synthesis، یعنی مدل یه جورایی وسط نوشتن برنامههاش مدام بررسی میکنه که آیا جواب درست درمیاد و با توجه به نتیجهها کارش رو پیش میبره) اساسی بقیه روشها رو خاک کرده! یعنی وقتی کار به این میکشه که یه مدل باید مثل یه برنامهنویس خلاق راهحل جدید سر هم کنه، این Execution-Guided عالی عمل میکنه و حسابی همه رو جا میذاره.
در مورد اون TTFT هم یک نکته جالب پیدا کردند: ظاهرش اینه که این روش خیلی به مدل کمک میکنه تا همون چیزهایی که قبلاً توی دادههای آموزشیش بوده رو – ولی شاید خودش سرراست ازشون استفاده نمیکرده – الآن جلوی چشمش بیاره و استفاده کنه. به عبارتی بیشتر به درد همون “درون توزیعی” میخوره، یعنی سوالاتی که مدل قبلاً حدودی مثلشون رو دیده بوده.
خلاصه، اگه طرفدار هوش مصنوعی و برنامهسازی عصبی هستی، این مقاله نشون میده برای دنیای مسئلههای جدید و تکرارینشده، باید بریم سراغ روشهایی که خودشون وسطِ کار هی جوابها رو بررسی و اصلاح میکنن. اون چیزی که باعث پیشرفت میشه فقط تنظیمات ریز سر آزمون نیست؛ هوش خلاقانه و کنترل در لحظه – مثل همون Execution-Guided Neural Program Synthesis – نقش اساسیتری داره.
کلاً پیشنهاد میکنم اگه دنبال این هستی که مدلهات قویتر در مقابل سوالای عجیب و غریب بمونن، حتماً به برنامهسازی عصبی راهنمای اجرا یه نگاهی بنداز! اینجوری مدلها میتونن به جای تکرار چیزهایی که قبلاً بهشون یاد دادیم، خودشون واقعا خلاقیت داشته باشن و پاسخهای نو بسازن.
منبع: +