خیلی وقتا تشخیص زودهنگام تومور مغزی میتونه جون آدمها رو نجات بده، اما خب بررسی دستی عکسهای MRI توسط رادیولوژیستها هم زمان زیادی میبره، هم ممکنه اشتباه پیش بیاد و هم گاهی سلیقهای میشه. اینجاست که هوش مصنوعی داره حسابی خوش میدرخشه!
توی این مقاله میخوام درباره یه مدل جدید و خفن به اسم XAI-BT-EdgeNet براتون تعریف کنم. این مدل رو برای تشخیص و پیشبینی تومور مغزی با کمک عکسهای MRI ساختن. نکته مهمش اینه که هم خیلی دقیق کار میکنه و هم به دکترها نشون میده چرا همچین تشخیصی داده — یعنی شفافیتش بالاست!
حالا بریم ببینیم قضیه از چه قراره:
ایده اصلی چیه؟
مشکل اصلی این بود که هوش مصنوعیها تو تشخیص تومور خیلی قوی بودن اما دکترها همیشه نمیدونستن دقیقاً تو مغزشون چی میگذره و بر چه اساسی مدل به اون نتیجه رسیده (که بهش شفافیت یا explainability میگن). مدل XAI-BT-EdgeNet اومده با ترکیب چند تکنیک این مشکل رو حل کنه.
مدلش چه جوریه؟
ساختار این مدل دوتاییه — یعنی دو تا شاخه یا branch داره. یکیش ویژگیهای سطح بالا یعنی اطلاعات مهم و معنایی رو از یه مدل قوی مثل InceptionV3 میگیره. اون یکی شاخه مسئول استخراج لبههای تصویر MRI هست (Edge Feature Block)، یعنی همون نقاط مرزی که معمولا مرز تومور و بافت سالم رو نشون میده. بعد این دو تا اطلاعات رو با هم ترکیب میکنه تا دقت مدل بره بالا.
یه بخش جالب دیگه هم داره: Squeeze-and-Excitation یا به اختصار SE module. این یعنی ماژولی که خودش میفهمه چه بخشهایی از تصویر مهمترن و روی اون نقاط تاکید میکنه. این کار باعث میشه مدل بهتر تشخیص بده که کدوم جای تصویر ارزش توجه بیشتری داره.
شفافیت مدل یعنی چی؟
بزرگترین ایراد مدلهای عمیق این بود که شبیه “جعبه سیاه” بودن. یا بهتر بگم: مدل جواب رو میداد، اما اصلا معلوم نبود چرا! XAI یعنی Explainable AI — یعنی هوش مصنوعی توضیحپذیر یا شفاف، که به زبان ساده خودش میگه چرا فلان نتیجه رو گرفته.
تو این مدل، برای اینکه واقعاً قابل فهم باشه و دکترها هم راحتتر اعتماد کنن، چهار تا روش معروف XAI استفاده شده:
- LIME: یه روشی که مدل رو وادار میکنه واسه تصمیمش توضیح بده (مثلاً نشون میده کدوم پیکسلها مهم بودن)
- Grad-CAM و Grad-CAM++: اینا یه جور Heatmap یا نقشه حرارتی از تصویر درست میکنن و مشخص میکنن مدل کدوم بخش تصویر رو بیشتر دیده (داستان اینه که Grad یعنی گرادیان یا شیب، و CAM یعنی Activation Map یا نقشه فعالسازی)
- Vanilla Saliency: این یکی هم یه نقشه بصری درست میکنه که حساسیت پیکسلها رو نشون میده، یعنی مدل برای تصمیمش به کدوم نواحی از تصویر خیلی توجه کرده.
دادههاش چی بودن؟
مدل رو با دیتاستی به اسم Brain Tumor Dataset که Preet Viradiya جمعآوری کرده تعلیم دادن. شامل ۴۵۸۹ تصویر MRI بوده؛ ۲۵۱۳ تا عکس با تومور و ۲۰۷۶ تا هم از مغز سالم.
نتایج و دقتش چطور بوده؟
نتایج واقعاً عجیب غریب بودن! تو آموزش مدل به حدود ۹۹.۵۸٪ دقت رسیده، تو تست اعتبارسنجی ۹۹.۷۱٪، و موقع تست نهایی هم ۱۰۰٪ دقیق بوده! عدد خطاها (یا همون loss) هم بین ۰.۰۱۰۳ تا ۰.۰۰۲۶ متغیر بودن (که خیلی پایینه و نشون میده مدل اشتباه خاصی نکرده)
جمعبندی دوستانه!
در کل، XAI-BT-EdgeNet یه مدل دوشاخهای از نوع convolutional neural network (یا به اختصار CNN — یعنی شبکه عصبی پیچشی که برای پردازش تصویر عالیه) هست که هم اطلاعات مهم رو درک میکنه، هم با ابزارهای XAI به آدم توضیح میده چرا اون تصمیم رو گرفته. ترکیب اینها باعث شده که دیگه فقط یه مدل قوی نداشته باشیم، بلکه مدلی داریم که قابل توضیح هم هست و میتونه به دکترها اعتماد و راهنمایی بده.
این یعنی فاصله بین هوش مصنوعی و تشخیص پزشکی مطمئن خیلی خیلی کمتر شده و آینده تشخیص تومور مغزی رو حسابی درخشانتر کرده!
منبع: +