ساخت معماری شبکه عصبی که منطق رو بی‌نقص رعایت می‌کنه (به روش دسته‌ای!)

Fall Back

بیا یه نگاه متفاوت به شبکه‌های عصبی بندازیم! همه می‌دونیم شبکه‌های عصبی (Neural Networks) تو تشخیص الگو یا همون Pattern Recognition فوق‌العاده‌ان. مثلاً راحت عکس گربه و سگ رو از هم تشخیص می‌دن یا صدا و حرف آدم رو می‌فهمن. اما یه جای کار هنوز میلنگه: وقتی بحث نتیجه‌گیری منطقی یا همون Reasoning می‌شه، داستان فرق می‌کنه. خیلی وقت‌ها شبکه‌های عصبی نمی‌تونن این کار رو درست انجام بدن و حتی قواعد اولیه منطق رو هم نقض می‌کنن!

حالا یه تیم اومده رو این مشکل کار کرده و یه راه جدید و خلاقانه پیشنهاد داده که واقعاً جذابه. گفتن به جای اینکه وسط آموزش (Training) به شبکه‌مون منطق رو “تحمیل” کنیم و هی محدودیت بگذاریم که “این‌کار رو بکن، اون یکی رو نکن”، اصلاً چرا منطق رو بذاریم توی ساختار اصلی خود شبکه؟ یعنی از اول جوری شبکه رو بسازیم که دیگه هیچ‌جوره نتونه قوانین منطق رو زیر پا بذاره.

برای این کار از یه مفهومی به اسم “چارچوب دسته‌ای” یا همون Categorical Framework استفاده کردن. اونم نه هر دسته‌ای (Category)، بلکه دسته‌هایی که با منطق و ریاضیات گره خوردن! اینجا منظور از “حسابگرانه” همون Formal و ریاضی‌طوره، نه ذهنی.

حالا، تیم تحقیقاتی این ایده‌ها رو بر پایه‌ی یه سری نظریه‌ی ریاضی به اسم Lawvere Theories بنا کردن. Lawvere Theories یعنی یه جورایی اومدن منطق رو به شکل یه ساختار جبری (Algebraic Structure) تعریف کردن. بعد این ساختار رو با استفاده از مفاهیم دسته‌ای (یعنی Category Theory، شاخه‌ای از ریاضیات که به روابط بین اشیاء، نه خود اشیاء، اهمیت می‌ده)، تبدیل کردن به شبکه عصبی! توی این رویکرد، شبکه عصبی دیگه از پایه جوری ساخته می‌شه که تمام قوانین منطق داخلش “سیم‌کشی” شده و اصلاً امکان نداره موقع نتیجه‌گیری یه اصل منطقی رو زیر پا بذاره.

یک تفاوت مهم با بقیه روش‌ها اینه که تا حالا معمولاً موقع آموزش شبکه‌های عصبی یه سری محدودیت منطقی روش می‌ذاشتن (مثلاً با اضافه کردن جریمه یا Penalty موقع یادگیری)، اما این تیم مستقیم سراغ معماری رفته. یعنی منطق، جزیی از ساختار شبکه شده و نه یه دست‌انداز توی مسیر یادگیری. عملاً به صورت ریاضی تضمین شده که شبکه هرگز قانون‌های منطقی رو زیر پا نمی‌ذاره (مثلاً همیشه به طور صحیح تو عملیات بولی– های منطقی مثل و/یا/نقیض نتیجه می‌گیره).

توی این پژوهش، مثالی هم از شبکه‌هایی داده شده که برای منطق گزاره‌ای (Propositional Logic – یعنی همون منطقی که توش با جملات قطعاً درست یا غلط سر و کار داریم) ساخته شدن و می‌تونن با شیب‌گرادیان (Gradient Descent) – همون فرایند معروف یادگیری شبکه‌های عصبی – آموزش ببینن.

از همه مهم‌تر، بچه‌های این تحقیق یه نتیجه‌ی نظری بزرگ گرفتن: بین تمام مدل‌های شبکه عصبی که منطق رو رعایت می‌کنن، یه رابطه‌ی یک‌به‌یک (Bijective Correspondence یعنی دقیقاً هر منطق با یه معماری مشخص چند به چند جور در میاد) با این رویکرد وجود داره. یعنی هر شبکه‌ی عصبی که منطق توش تضمین شده باشه، دقیقاً باید طبق همین دسته‌بندی ساخته شده باشه – و بالعکس.

این کار باعث می‌شه حوزه “یادگیری عمیق دسته‌ای” (Categorical Deep Learning) که تا حالا بیشتر روی تقارن هندسی (Geometric Symmetry – یعنی مثلاً شبکه بتونه تغییر چرخش یا جابجایی داده رو متوجه شه) بود، حالا به سمت محدودیت‌های معنایی و منطقی هم کشیده بشه.

اگه بخوام خلاصه کنم: با این روش می‌شه از روی یه توصیف منطقی دقیق، خود شبکه‌ی عصبی رو (به طور خودکار و ریاضی) ساخت و مطمئن بود هیچ وقت رفتار غیرمنطقی نشون نمی‌ده. این یعنی هوش مصنوعی‌های آینده می‌تونن برای کارای خیلی حساس مثل اثبات قضیه (Theorem Proving – یعنی بررسی درستی یه حکم ریاضی)، یا کاربردهای بحرانی مثل سیستم‌های ایمنی یا کنترل، خیلی قابل اعتمادتر و “تضمین‌شده” کار کنن.

پس این دفعه، با کمک ریاضیات دسته‌ای و ساختارهای منطقی، یه قدم اساسی برای قابل اعتماد کردن شبکه‌های عصبی و هوش مصنوعی برداشتیم!

منبع: +