یه قدم به یادگیری شبیه مغز: شبکه عصبی جدید با پیوندهای اضافی و تنظیم بازخورد!

Fall Back

اگه همیشه برات جالب بوده که چطور میشه یه سیستم هوشمند واقعاً شبیه مغز انسان ساخت، این مقاله دقیقاً همون چیزیه که باید بخونی! داستان از این قراره که خیلی از شبکه‌های عصبی‌ای که ما الان باهاشون کار میکنیم (هم اونایی که توی هوش مصنوعی و یادگیری ماشین می‌بینی)، اصلاً شبیه مغز کار نمی‌کنن. در واقع الگوریتم معروف backpropagation (که بهش بک‌پراپ هم میگن و یعنی همون روشی که شبکه خودش رو اصلاح می‌کنه) خیلی منطقی و کارآمده ولی با چیزی که توی مغز ما اتفاق می‌افته فرق داره.

توی این مقاله یه روش جالب به اسم Equilibrium Propagation یا EP معرفی شده. این روش، سر و شکل یادگیری مغز رو شبیه‌سازی می‌کنه؛ یعنی طوری یاد میگیره که انگار واقعاً مغز آدمه! حالا مشکل اینجاست که نسخه‌های قبلی این روش EP یه سری دردسر داشتن: هم خیلی بی‌ثبات بودن، هم کلی منابع و زمان می‌خواستن که عملاً کار کردن باهاشون رو خیلی سخت می‌کرد.

حالا تیم نویسنده‌ها اومدن یه الگوریتم جدید ساختن به اسم FRE-RNN یا همون Feedback-regulated REsidual recurrent neural network. خب، این اسم شاید پیچیده به نظر برسه، ولی بذار شکلاتش کنم: یه مدل شبکه عصبی بازگشتی یا همون Recurrent Neural Network (که بهش RNN هم میگن، کلی تو هوش مصنوعی استفاده داره و میتونه اطلاعات قبلی رو تو ذهنش نگه داره)، که هم تنظیم بازخورد داره، هم پیوند اضافی (رزیدوال کانکشنز) شبیه چیزی که توی مغز می‌بینیم.

حالا این “تنظیم بازخورد” دقیقا چیه؟
یعنی یه سازوکار که خودش رو با اطلاعات برگشت داده شده، سریع‌تر به حالت تعادل می‌رسونه و این باعث میشه کل یادگیری خیلی سریع‌تر انجام شه. در واقع نویسنده‌ها میگن این کار باعث کم شدن شعاع طیفی شبکه میشه! (اینم بخوام رفاقتی توضیح بدم: “شعاع طیفی” یعنی اون بازه‌ای که سیگنال‌ها توی شبکه پخش می‌شن و اگه بزرگ باشه، شبکه دیر به تعادل میرسه و اگر کوچیک شه، سریع به جواب می‌رسیم.)

با این ابتکار، کلی از وقت و منابع صرفه‌جویی میشه و هزینه‌های یادگیری با EP هم حسابی میاد پایین: حتی میتونه با همون بک‌پراپ معروف رقابت کنه!

حالا بیایم سراغ اون پیوندهای اضافی یا همون Residual Connections: اینا هم توی شبکه‌های عمیق که کلی لایه دارن مثل داربست عمل میکنن و نمی‌ذارن گرادیان‌ها (یعنی اطلاعات تصحیح اشتباه‌ها) گم بشن یا به اصطلاح “vanishing gradient problem” پیش بیاد. این مشکل خیلی توی RNN های بزرگ و عمیق پیش میاد و باعث میشه یادگیری ناقص بشه یا کلاً متوقف شه. ولی با این پیوندهای اضافی به سبک مغز، این مشکل دیگه پیش نمیاد!

در کل این روش FRE-RNN باعث شد که یادگیری با EP واقعاً کاربردی و عملیاتی بشه؛ یعنی دیگه برای شبکه‌های بزرگم میشه راحت استفاده‌شون کرد و به هوش مصنوعیایی رسید که شباهت بیشتری با مغز دارن.

یک نکته ناب دیگه اینکه این تکنیک‌ها یه راهنمای عالی شدن برای کسایی که دنبال یادگیری in-situ هستن. (in-situ learning یعنی همون یادگیری مستقیم و لحظه‌ای داخل خود سخت‌افزار یا سیستم فیزیکی. یعنی بجای اینکه کلی داده ببریم لپ‌تاپ و کامپیوتر و اونجا یاد بدیم، شبکه‌ی عصبی خودش با تجربه و تو محیط واقعی یاد می‌گیره دقیقا مثل مغز آدم!)

در نهایت این مقاله یه قدم بزرگه برای اینکه الگوریتم‌های یادگیری رو بیاریم تو دل سخت‌افزارهایی که قراره آینده‌ی هوش مصنوعی رو بسازن. خلاصه که اگه دنبال هوش مصنوعی واقعاً باحال و نزدیک به مغز می‌گردی، اسم FRE-RNN رو داشته باش که به زودی خیلی ازش می‌شنوی!

منبع: +