ترفند جدید برای شناسایی عکس‌های عجیب غریب توی هوش مصنوعی: بانک ویژگی‌های بهتر!

Fall Back

سلام رفقا! امروز میخوام یه موضوع خفن رو براتون توضیح بدم که کلی تو زمینه هوش مصنوعی مورد بحثه: تشخیص داده‌های عجیب غریب یا همون Out-of-Distribution detection که بهش OOD detection هم میگن. خلاصه‌ش اینه: وقتی یه مدل یادگیری عمیق (Deep Learning) رو آموزش میدیم، خیلی مهمه بفهمه کدوم داده‌ها واسه خودش آشنا هستن (مثلاً عکس گربه – که مدل قبلاً ازش دیده) و کدوم‌ها کاملاً ناشناخته و عجیب غریبن (مثل عکس یه حیوان تخیلی یا یه چیزی خارج از دسته‌بندی خودش).

خب، دانشمندای زیادی سر این موضوع وقت گذاشتن و سعی کردن راه‌هایی پیدا کنن که مدل بتونه امتیاز بده؛ یعنی به داده‌های داخل دیتاست امتیاز بالا (In-Distribution یا ID) بده، و به داده‌های خارج از حوزه یا OOD امتیاز پایین! یکی از معروف‌ترین روش‌ها همین روش امتیازدهی بر اساس فاصله‌ست یا distance-based score function. یعنی مثلاً الگوریتم میاد فاصله ویژگی‌های هر نمونه جدید رو با ویژگی‌های نمونه‌های قبلی مقایسه میکنه، و هرچی فاصله بیشتر باشه احتمال OOD بودنش هم بالاتره.

اما یه مشکلی این وسط هست: شبکه‌های عصبی وقتی آموزش می‌بینی، بعضی وقتا داده‌هاش به شکل خاصی تو یه قسمت‌هایی از فضا جمع میشن یا حتی ویژگی‌های خیلی عجیب تولید می‌کنن (که بهش میگن “ویژگی‌های افراطی” یا Extreme Features). این ویژگی‌های افراطی باعث میشن روش‌های مبتنی بر فاصله، گاهی به نمونه‌هایی که خودشون درواقع تو دیتاست هستن امتیاز پایین بدن! یعنی مدل خودش بچه‌های خوب رو هم با بچه‌های غریبه قاطی میکنه. خب نتیجش این میشه که شناسایی OOD سخت‌تر و غیر دقیق‌تر میشه.

حالا راه حل چیه؟ توی این مقاله یه ترفند ساده اما در عین حال خیلی موثر معرفی شده به اسم Feature Bank Enhancement یا خلاصه‌ش FBE. یه توضیح کوچیک: Feature Bank یعنی همون مخزنی که همه ویژگی‌های داده‌ها رو توش ذخیره می‌کنیم. Enhancement هم یعنی بهبودش دادن. حالا روش FBE چیکار میکنه؟ بیاید ساده توضیح بدم: اونا اومدن از خصوصیات آماری ویژگی‌ها توی دیتاست استفاده کردن، یعنی به کمک آمار و احتمال فهمیدن کدوم ویژگی‌ها زیاد از حد عجیبه و باید کنترلشون کرد. بعدش با اینکار کاری کردن که این ویژگی‌های افراطی بیشتر نزدیک مرز جداکننده داده‌های داخل و خارج از دیتاست بمونن (یعنی مرز بین ID و OOD)، که نتیجش این میشه فاصله واقعی بین داده‌های نرمال و عجیب بیشتر میشه و مدل راحت‌تر می‌تونه OOD‌ها رو تشخیص بده.

برای این‌که ثابت کنن روش‌شون واقعاً کار می‌کنه، اومدن روی دیتاست‌های خفن و بزرگی مثل ImageNet-1k (که هزاران عکس توش هست) و CIFAR-10 آزمایش کردن. نتایج هم نشون داده که روش اونا تونسته بهترین عملکرد رو تو این رقابت‌ها کسب کنه. یعنی فعلاً با این ترفند FBE صدر نشینه!

غیر از امتحان عملی، مقاله اومده یه تحلیل تئوریک (یعنی بررسی از لحاظ ریاضی و نظری) هم داده که فهم اون برای کسی که عاشق جزئیاته جالبه. تازه کلی آزمایش جانبی دیگه هم انجام دادن تا بهتر نشون بدن چرا این ایده جواب میده.

جمع‌بندی: اگه می‌خواین سیستم هوش مصنوعی‌تون اشتباهی داده‌های عجیب رو به عنوان داده عادی درنظر نگیره یا عکسش، این روش FBE می‌تونه یه انتخاب عالی باشه! مخصوصاً اگه با داده‌های تصویری سر و کار دارین و دنبال دقت بالاترید.

منبع: +