چطور با هوش مصنوعی قابل توضیح، عملکرد مغزهای مصنوعی رو ضدخرابکاری می‌کنن!

Fall Back

بیا یه کم در مورد شبکه‌های عصبی عمیق (DNN) با هم حرف بزنیم. اینا دقیقاً اون مغزای مصنوعی هستن که کلی کار باحال انجام می‌دن، مثل تشخیص عکس، متن و کلی کاربرد دیگه. تو خیلی از جاها که حساسیت و امنیت مهمه—مثلاً خودروهای خودران یا تشخیص بیماری—از همین شبکه‌های عصبی استفاده می‌کنن. پس معلومه که باید تا جای ممکن قابل اعتماد باشن، یعنی اشتباه نکنن یا قاطی نکنن!

حالا مشکل چیه؟ سخت‌افزارا همیشه بی‌نقص کار نمی‌کنن. گاهی یه چیزی به اسم «bit-flip fault» اتفاق می‌افته، یعنی یه بیت از اطلاعات می‌پره یا عوض می‌شه (مثلاً یه «۰» بشه «۱»). همین اتفاق کوچیک می‌تونه خروجی مدل رو کامل به هم بزنه! واسه مقابله با این جور خرابکاری‌ها یه روشی هست به اسم Triple Modular Redundancy یا به اختصار TMR. معنی ساده‌ش میشه سه‌تا نسخه موازی از بخش مهم مدل داشته باشن و بعد رأی‌گیری کنن؛ هرچی دو تا از سه تا گفتن میشه جواب درست فرضی.

اما یه مشکل اینجاست که اگه کل مدل رو سه برابر کنی، حسابی سنگین و کند و گرون می‌شه! پس معمولاً میان این روش رو فقط روی بخش‌هایی اجرا می‌کنن که بیشتر روی خروجی مدل تأثیر دارن. سؤال مهم اینه: چطور اون بخشای حیاتی رو درست انتخاب کنیم؟

اینجا پای «هوش مصنوعی قابل توضیح» یا همون Explainable AI (XAI) به ماجرا باز می‌شه. XAI یعنی روشی که بهمون بگه کدوم بخش از مدل بیشتر توی تصمیم‌گیری نقش داره—مثلاً کدوم نورون یا وزن توی شبکه عصبی از بقیه حیاتی‌تره. با این کار، فقط اون بخشا رو با TMR محافظت می‌کنیم و بقیه رو معمولی می‌ذاریم.

توی این مقاله بچه‌ها اومدن یه راه حل کم‌هزینه و هوشمندانه پیشنهاد دادن. اونم چیه؟ استفاده از یه تکنیک XAI به اسم Layer-wise Relevance Propagation یا LRP. ببین LRP یه روشیه که باهاش می‌تونن بفهمن هر کدوم از نورونا یا وزنای شبکه چقدر واسه خروجی نهایی مدل مهمن. یعنی مثلاً مقدار اهمیت هر بخش رو حساب می‌کنن و امتیاز می‌دن.

حالا تو این روش پیشنهادی، LRP میاد، این امتیازا رو حساب می‌کنه، بعد اونایی که امتیاز بالا دارن (یعنی بیشتر حساسن و اگه خراب شن مدل قاطی می‌کنه)، فقط همونا رو با TMR محافظت می‌کنن. بقیه بخشا که خیلی مهم نبودن، دیگه سه برابر نمی‌شن و اینطوری هم سرعت و حجم کار بالا نمی‌ره، هم قابلیت اطمینان مدل واقعاً بهتر می‌شه.

برای آزمایش هم اومدن روی دو مدل معروف شبکه عصبی امتحان کردن: VGG16 و AlexNet. اسم اینا رو اگه اهل هوش مصنوعی باشی، زیاد شنیدی! واسه داده‌ها از دیتاست‌های معروف MNIST (یه عالمه عکس دست‌نویس عدد) و CIFAR-10 (عکسای کوچیک از ده تا کلاس مختلف مثل سگ، گربه، ماشین و…) استفاده کردن.

نتیجه‌ش چی شد؟ واسه مدل AlexNet، وقتی نرخ خطا تو بیت‌ها ۱۰ به توان منفی ۴ (یعنی تقریباً یک به هر ده هزار بار) باشه، تونستن با همین روش جدید بیش از ۶۰٪ قابلیت اطمینان یا reliability رو بهتر کنن، بدون این که از نظر هزینه منابع و زمان اجرایی چیزی بیشتر از روشای جدید دیگه خرج کنن.

خلاصه ماجرا اینه که با یه روش هوش مصنوعی قابل توضیح و یه کم تکنیک، میشه شبکه‌های عصبی رو هم مقاوم و ضدخرابکاری‌تر کرد، بدون این که وزنش سنگین شه یا منابع رو هدر بده. واقعاً هوش مصنوعی تا اینجاهاش هم باحاله!

منبع: +