اگه همیشه برات جالب بوده که چطور میشه یه سیستم هوشمند واقعاً شبیه مغز انسان ساخت، این مقاله دقیقاً همون چیزیه که باید بخونی! داستان از این قراره که خیلی از شبکههای عصبیای که ما الان باهاشون کار میکنیم (هم اونایی که توی هوش مصنوعی و یادگیری ماشین میبینی)، اصلاً شبیه مغز کار نمیکنن. در واقع الگوریتم معروف backpropagation (که بهش بکپراپ هم میگن و یعنی همون روشی که شبکه خودش رو اصلاح میکنه) خیلی منطقی و کارآمده ولی با چیزی که توی مغز ما اتفاق میافته فرق داره.
توی این مقاله یه روش جالب به اسم Equilibrium Propagation یا EP معرفی شده. این روش، سر و شکل یادگیری مغز رو شبیهسازی میکنه؛ یعنی طوری یاد میگیره که انگار واقعاً مغز آدمه! حالا مشکل اینجاست که نسخههای قبلی این روش EP یه سری دردسر داشتن: هم خیلی بیثبات بودن، هم کلی منابع و زمان میخواستن که عملاً کار کردن باهاشون رو خیلی سخت میکرد.
حالا تیم نویسندهها اومدن یه الگوریتم جدید ساختن به اسم FRE-RNN یا همون Feedback-regulated REsidual recurrent neural network. خب، این اسم شاید پیچیده به نظر برسه، ولی بذار شکلاتش کنم: یه مدل شبکه عصبی بازگشتی یا همون Recurrent Neural Network (که بهش RNN هم میگن، کلی تو هوش مصنوعی استفاده داره و میتونه اطلاعات قبلی رو تو ذهنش نگه داره)، که هم تنظیم بازخورد داره، هم پیوند اضافی (رزیدوال کانکشنز) شبیه چیزی که توی مغز میبینیم.
حالا این “تنظیم بازخورد” دقیقا چیه؟
یعنی یه سازوکار که خودش رو با اطلاعات برگشت داده شده، سریعتر به حالت تعادل میرسونه و این باعث میشه کل یادگیری خیلی سریعتر انجام شه. در واقع نویسندهها میگن این کار باعث کم شدن شعاع طیفی شبکه میشه! (اینم بخوام رفاقتی توضیح بدم: “شعاع طیفی” یعنی اون بازهای که سیگنالها توی شبکه پخش میشن و اگه بزرگ باشه، شبکه دیر به تعادل میرسه و اگر کوچیک شه، سریع به جواب میرسیم.)
با این ابتکار، کلی از وقت و منابع صرفهجویی میشه و هزینههای یادگیری با EP هم حسابی میاد پایین: حتی میتونه با همون بکپراپ معروف رقابت کنه!
حالا بیایم سراغ اون پیوندهای اضافی یا همون Residual Connections: اینا هم توی شبکههای عمیق که کلی لایه دارن مثل داربست عمل میکنن و نمیذارن گرادیانها (یعنی اطلاعات تصحیح اشتباهها) گم بشن یا به اصطلاح “vanishing gradient problem” پیش بیاد. این مشکل خیلی توی RNN های بزرگ و عمیق پیش میاد و باعث میشه یادگیری ناقص بشه یا کلاً متوقف شه. ولی با این پیوندهای اضافی به سبک مغز، این مشکل دیگه پیش نمیاد!
در کل این روش FRE-RNN باعث شد که یادگیری با EP واقعاً کاربردی و عملیاتی بشه؛ یعنی دیگه برای شبکههای بزرگم میشه راحت استفادهشون کرد و به هوش مصنوعیایی رسید که شباهت بیشتری با مغز دارن.
یک نکته ناب دیگه اینکه این تکنیکها یه راهنمای عالی شدن برای کسایی که دنبال یادگیری in-situ هستن. (in-situ learning یعنی همون یادگیری مستقیم و لحظهای داخل خود سختافزار یا سیستم فیزیکی. یعنی بجای اینکه کلی داده ببریم لپتاپ و کامپیوتر و اونجا یاد بدیم، شبکهی عصبی خودش با تجربه و تو محیط واقعی یاد میگیره دقیقا مثل مغز آدم!)
در نهایت این مقاله یه قدم بزرگه برای اینکه الگوریتمهای یادگیری رو بیاریم تو دل سختافزارهایی که قراره آیندهی هوش مصنوعی رو بسازن. خلاصه که اگه دنبال هوش مصنوعی واقعاً باحال و نزدیک به مغز میگردی، اسم FRE-RNN رو داشته باش که به زودی خیلی ازش میشنوی!
منبع: +