هوش مصنوعی هوشمند برای تشخیص تومور مغزی: همه چیز درباره XAI-BT-EdgeNet به زبان ساده!

خیلی وقتا تشخیص زودهنگام تومور مغزی می‌تونه جون آدم‌ها رو نجات بده، اما خب بررسی دستی عکس‌های MRI توسط رادیولوژیست‌ها هم زمان زیادی می‌بره، هم ممکنه اشتباه پیش بیاد و هم گاهی سلیقه‌ای میشه. اینجاست که هوش مصنوعی داره حسابی خوش می‌درخشه!

توی این مقاله می‌خوام درباره یه مدل جدید و خفن به اسم XAI-BT-EdgeNet براتون تعریف کنم. این مدل رو برای تشخیص و پیش‌بینی تومور مغزی با کمک عکس‌های MRI ساختن. نکته مهمش اینه که هم خیلی دقیق کار می‌کنه و هم به دکترها نشون می‌ده چرا همچین تشخیصی داده — یعنی شفافیتش بالاست!

حالا بریم ببینیم قضیه از چه قراره:

ایده اصلی چیه؟

مشکل اصلی این بود که هوش مصنوعی‌ها تو تشخیص تومور خیلی قوی بودن اما دکترها همیشه نمی‌دونستن دقیقاً تو مغزشون چی می‌گذره و بر چه اساسی مدل به اون نتیجه رسیده (که بهش شفافیت یا explainability میگن). مدل XAI-BT-EdgeNet اومده با ترکیب چند تکنیک این مشکل رو حل کنه.

مدلش چه جوریه؟

ساختار این مدل دوتاییه — یعنی دو تا شاخه یا branch داره. یکیش ویژگی‌های سطح بالا یعنی اطلاعات مهم و معنایی رو از یه مدل قوی مثل InceptionV3 می‌گیره. اون یکی شاخه مسئول استخراج لبه‌های تصویر MRI هست (Edge Feature Block)، یعنی همون نقاط مرزی که معمولا مرز تومور و بافت سالم رو نشون میده. بعد این دو تا اطلاعات رو با هم ترکیب میکنه تا دقت مدل بره بالا.

یه بخش جالب دیگه هم داره: Squeeze-and-Excitation یا به اختصار SE module. این یعنی ماژولی که خودش می‌فهمه چه بخش‌هایی از تصویر مهم‌ترن و روی اون نقاط تاکید می‌کنه. این کار باعث میشه مدل بهتر تشخیص بده که کدوم جای تصویر ارزش توجه بیشتری داره.

شفافیت مدل یعنی چی؟

بزرگترین ایراد مدل‌های عمیق این بود که شبیه “جعبه سیاه” بودن. یا بهتر بگم: مدل جواب رو می‌داد، اما اصلا معلوم نبود چرا! XAI یعنی Explainable AI — یعنی هوش مصنوعی توضیح‌پذیر یا شفاف، که به زبان ساده خودش میگه چرا فلان نتیجه رو گرفته.

تو این مدل، برای اینکه واقعاً قابل فهم باشه و دکترها هم راحت‌تر اعتماد کنن، چهار تا روش معروف XAI استفاده شده:

  • LIME: یه روشی که مدل رو وادار می‌کنه واسه تصمیمش توضیح بده (مثلاً نشون میده کدوم پیکسل‌ها مهم بودن)
  • Grad-CAM و Grad-CAM++: اینا یه جور Heatmap یا نقشه حرارتی از تصویر درست می‌کنن و مشخص می‌کنن مدل کدوم بخش تصویر رو بیشتر دیده (داستان اینه که Grad یعنی گرادیان یا شیب، و CAM یعنی Activation Map یا نقشه فعال‌سازی)
  • Vanilla Saliency: این یکی هم یه نقشه بصری درست میکنه که حساسیت پیکسل‌ها رو نشون میده، یعنی مدل برای تصمیمش به کدوم نواحی از تصویر خیلی توجه کرده.

داده‌هاش چی بودن؟

مدل رو با دیتاستی به اسم Brain Tumor Dataset که Preet Viradiya جمع‌آوری کرده تعلیم دادن. شامل ۴۵۸۹ تصویر MRI بوده؛ ۲۵۱۳ تا عکس با تومور و ۲۰۷۶ تا هم از مغز سالم.

نتایج و دقتش چطور بوده؟

نتایج واقعاً عجیب غریب بودن! تو آموزش مدل به حدود ۹۹.۵۸٪ دقت رسیده، تو تست اعتبارسنجی ۹۹.۷۱٪، و موقع تست نهایی هم ۱۰۰٪ دقیق بوده! عدد خطاها (یا همون loss) هم بین ۰.۰۱۰۳ تا ۰.۰۰۲۶ متغیر بودن (که خیلی پایینه و نشون میده مدل اشتباه خاصی نکرده)

جمع‌بندی دوستانه!

در کل، XAI-BT-EdgeNet یه مدل دوشاخه‌ای از نوع convolutional neural network (یا به اختصار CNN — یعنی شبکه عصبی پیچشی که برای پردازش تصویر عالیه) هست که هم اطلاعات مهم رو درک می‌کنه، هم با ابزارهای XAI به آدم توضیح میده چرا اون تصمیم رو گرفته. ترکیب اینها باعث شده که دیگه فقط یه مدل قوی نداشته باشیم، بلکه مدلی داریم که قابل توضیح هم هست و میتونه به دکترها اعتماد و راهنمایی بده.

این یعنی فاصله بین هوش مصنوعی و تشخیص پزشکی مطمئن خیلی خیلی کمتر شده و آینده تشخیص تومور مغزی رو حسابی درخشان‌تر کرده!

منبع: +