بیا یه نگاه متفاوت به شبکههای عصبی بندازیم! همه میدونیم شبکههای عصبی (Neural Networks) تو تشخیص الگو یا همون Pattern Recognition فوقالعادهان. مثلاً راحت عکس گربه و سگ رو از هم تشخیص میدن یا صدا و حرف آدم رو میفهمن. اما یه جای کار هنوز میلنگه: وقتی بحث نتیجهگیری منطقی یا همون Reasoning میشه، داستان فرق میکنه. خیلی وقتها شبکههای عصبی نمیتونن این کار رو درست انجام بدن و حتی قواعد اولیه منطق رو هم نقض میکنن!
حالا یه تیم اومده رو این مشکل کار کرده و یه راه جدید و خلاقانه پیشنهاد داده که واقعاً جذابه. گفتن به جای اینکه وسط آموزش (Training) به شبکهمون منطق رو “تحمیل” کنیم و هی محدودیت بگذاریم که “اینکار رو بکن، اون یکی رو نکن”، اصلاً چرا منطق رو بذاریم توی ساختار اصلی خود شبکه؟ یعنی از اول جوری شبکه رو بسازیم که دیگه هیچجوره نتونه قوانین منطق رو زیر پا بذاره.
برای این کار از یه مفهومی به اسم “چارچوب دستهای” یا همون Categorical Framework استفاده کردن. اونم نه هر دستهای (Category)، بلکه دستههایی که با منطق و ریاضیات گره خوردن! اینجا منظور از “حسابگرانه” همون Formal و ریاضیطوره، نه ذهنی.
حالا، تیم تحقیقاتی این ایدهها رو بر پایهی یه سری نظریهی ریاضی به اسم Lawvere Theories بنا کردن. Lawvere Theories یعنی یه جورایی اومدن منطق رو به شکل یه ساختار جبری (Algebraic Structure) تعریف کردن. بعد این ساختار رو با استفاده از مفاهیم دستهای (یعنی Category Theory، شاخهای از ریاضیات که به روابط بین اشیاء، نه خود اشیاء، اهمیت میده)، تبدیل کردن به شبکه عصبی! توی این رویکرد، شبکه عصبی دیگه از پایه جوری ساخته میشه که تمام قوانین منطق داخلش “سیمکشی” شده و اصلاً امکان نداره موقع نتیجهگیری یه اصل منطقی رو زیر پا بذاره.
یک تفاوت مهم با بقیه روشها اینه که تا حالا معمولاً موقع آموزش شبکههای عصبی یه سری محدودیت منطقی روش میذاشتن (مثلاً با اضافه کردن جریمه یا Penalty موقع یادگیری)، اما این تیم مستقیم سراغ معماری رفته. یعنی منطق، جزیی از ساختار شبکه شده و نه یه دستانداز توی مسیر یادگیری. عملاً به صورت ریاضی تضمین شده که شبکه هرگز قانونهای منطقی رو زیر پا نمیذاره (مثلاً همیشه به طور صحیح تو عملیات بولی– های منطقی مثل و/یا/نقیض نتیجه میگیره).
توی این پژوهش، مثالی هم از شبکههایی داده شده که برای منطق گزارهای (Propositional Logic – یعنی همون منطقی که توش با جملات قطعاً درست یا غلط سر و کار داریم) ساخته شدن و میتونن با شیبگرادیان (Gradient Descent) – همون فرایند معروف یادگیری شبکههای عصبی – آموزش ببینن.
از همه مهمتر، بچههای این تحقیق یه نتیجهی نظری بزرگ گرفتن: بین تمام مدلهای شبکه عصبی که منطق رو رعایت میکنن، یه رابطهی یکبهیک (Bijective Correspondence یعنی دقیقاً هر منطق با یه معماری مشخص چند به چند جور در میاد) با این رویکرد وجود داره. یعنی هر شبکهی عصبی که منطق توش تضمین شده باشه، دقیقاً باید طبق همین دستهبندی ساخته شده باشه – و بالعکس.
این کار باعث میشه حوزه “یادگیری عمیق دستهای” (Categorical Deep Learning) که تا حالا بیشتر روی تقارن هندسی (Geometric Symmetry – یعنی مثلاً شبکه بتونه تغییر چرخش یا جابجایی داده رو متوجه شه) بود، حالا به سمت محدودیتهای معنایی و منطقی هم کشیده بشه.
اگه بخوام خلاصه کنم: با این روش میشه از روی یه توصیف منطقی دقیق، خود شبکهی عصبی رو (به طور خودکار و ریاضی) ساخت و مطمئن بود هیچ وقت رفتار غیرمنطقی نشون نمیده. این یعنی هوش مصنوعیهای آینده میتونن برای کارای خیلی حساس مثل اثبات قضیه (Theorem Proving – یعنی بررسی درستی یه حکم ریاضی)، یا کاربردهای بحرانی مثل سیستمهای ایمنی یا کنترل، خیلی قابل اعتمادتر و “تضمینشده” کار کنن.
پس این دفعه، با کمک ریاضیات دستهای و ساختارهای منطقی، یه قدم اساسی برای قابل اعتماد کردن شبکههای عصبی و هوش مصنوعی برداشتیم!
منبع: +