سلام رفقا! امروز میخوام یه موضوع خفن رو براتون توضیح بدم که کلی تو زمینه هوش مصنوعی مورد بحثه: تشخیص دادههای عجیب غریب یا همون Out-of-Distribution detection که بهش OOD detection هم میگن. خلاصهش اینه: وقتی یه مدل یادگیری عمیق (Deep Learning) رو آموزش میدیم، خیلی مهمه بفهمه کدوم دادهها واسه خودش آشنا هستن (مثلاً عکس گربه – که مدل قبلاً ازش دیده) و کدومها کاملاً ناشناخته و عجیب غریبن (مثل عکس یه حیوان تخیلی یا یه چیزی خارج از دستهبندی خودش).
خب، دانشمندای زیادی سر این موضوع وقت گذاشتن و سعی کردن راههایی پیدا کنن که مدل بتونه امتیاز بده؛ یعنی به دادههای داخل دیتاست امتیاز بالا (In-Distribution یا ID) بده، و به دادههای خارج از حوزه یا OOD امتیاز پایین! یکی از معروفترین روشها همین روش امتیازدهی بر اساس فاصلهست یا distance-based score function. یعنی مثلاً الگوریتم میاد فاصله ویژگیهای هر نمونه جدید رو با ویژگیهای نمونههای قبلی مقایسه میکنه، و هرچی فاصله بیشتر باشه احتمال OOD بودنش هم بالاتره.
اما یه مشکلی این وسط هست: شبکههای عصبی وقتی آموزش میبینی، بعضی وقتا دادههاش به شکل خاصی تو یه قسمتهایی از فضا جمع میشن یا حتی ویژگیهای خیلی عجیب تولید میکنن (که بهش میگن “ویژگیهای افراطی” یا Extreme Features). این ویژگیهای افراطی باعث میشن روشهای مبتنی بر فاصله، گاهی به نمونههایی که خودشون درواقع تو دیتاست هستن امتیاز پایین بدن! یعنی مدل خودش بچههای خوب رو هم با بچههای غریبه قاطی میکنه. خب نتیجش این میشه که شناسایی OOD سختتر و غیر دقیقتر میشه.
حالا راه حل چیه؟ توی این مقاله یه ترفند ساده اما در عین حال خیلی موثر معرفی شده به اسم Feature Bank Enhancement یا خلاصهش FBE. یه توضیح کوچیک: Feature Bank یعنی همون مخزنی که همه ویژگیهای دادهها رو توش ذخیره میکنیم. Enhancement هم یعنی بهبودش دادن. حالا روش FBE چیکار میکنه؟ بیاید ساده توضیح بدم: اونا اومدن از خصوصیات آماری ویژگیها توی دیتاست استفاده کردن، یعنی به کمک آمار و احتمال فهمیدن کدوم ویژگیها زیاد از حد عجیبه و باید کنترلشون کرد. بعدش با اینکار کاری کردن که این ویژگیهای افراطی بیشتر نزدیک مرز جداکننده دادههای داخل و خارج از دیتاست بمونن (یعنی مرز بین ID و OOD)، که نتیجش این میشه فاصله واقعی بین دادههای نرمال و عجیب بیشتر میشه و مدل راحتتر میتونه OODها رو تشخیص بده.
برای اینکه ثابت کنن روششون واقعاً کار میکنه، اومدن روی دیتاستهای خفن و بزرگی مثل ImageNet-1k (که هزاران عکس توش هست) و CIFAR-10 آزمایش کردن. نتایج هم نشون داده که روش اونا تونسته بهترین عملکرد رو تو این رقابتها کسب کنه. یعنی فعلاً با این ترفند FBE صدر نشینه!
غیر از امتحان عملی، مقاله اومده یه تحلیل تئوریک (یعنی بررسی از لحاظ ریاضی و نظری) هم داده که فهم اون برای کسی که عاشق جزئیاته جالبه. تازه کلی آزمایش جانبی دیگه هم انجام دادن تا بهتر نشون بدن چرا این ایده جواب میده.
جمعبندی: اگه میخواین سیستم هوش مصنوعیتون اشتباهی دادههای عجیب رو به عنوان داده عادی درنظر نگیره یا عکسش، این روش FBE میتونه یه انتخاب عالی باشه! مخصوصاً اگه با دادههای تصویری سر و کار دارین و دنبال دقت بالاترید.
منبع: +