حالا میخوای براتون یه موضوع جالب و حیاتی رو تعریف کنم: استفاده از هوش مصنوعی برای پیدا کردن مین و مهمات منفجرنشده (که بهشون میگن UXO، یعنی Unexploded Ordnance). این مینها و بمبهایی هستن که هنوز تو زمین مونده و منفجر نشدن، و خب یه خطر اساسی برا آدمها دارن. مدتیه که دانشمندها دارن از یادگیری عمیق (Deep Learning، یعنی بخشی از هوش مصنوعی که شبیه مغز انسان یاد میگیره) برای پیدا کردن این چیزا استفاده میکنن.
ولی مشکلی که هست، اینه که شبکههای عصبی معمولی (همون چیزی که پایهی یادگیری عمیق هست) خیلی وقتا «قطعی» یا همون دِتِرمینیستیک عمل میکنن. یعنی هر بار یه ورودی خاص بدی، یه جواب خاص هم میدن و اصلاً نمیگن چقد مطمئن هستن! اگه هوا آلوده باشه، یا عکسها نویز داشته باشه، یا یکی بخواد شبکه رو گول بزنه (مثلاً با Adversarial Attack، یعنی حملهای که اطلاعات اشتباه وارد شبکه میکنه تا گمراهش کنه)، همین شبکه کلی اشتباه میتونه بکنه. فرض کن موقع خنثی کردن مین همچین سوتی بدی بزنه!
حالا یه راه جدید پیدا کردن که خیالت راحتتر بشه! تو این تحقیق اومدن از چیزی به اسم MC Dropout استفاده کردن. حالا MC Dropout یعنی چی؟ این روشی هست که Dropout (یه تکنیک رایج برای جلوگیری از بیشازحد یاد گرفتن دیتا توسط شبکه یا همون Overfitting) رو موقع تست گرفتن فعال نگه میدارن و چند بار با تنظیمات مختلف مدل رو اجرا میکنن. بعدش از این اجراهای مختلف، یه جورایی به دست میارن که مدل چقد مطمئنه و جاهایی که شک داره رو نشون میده. اینطوری بهش میگن uncertainty quantification، یعنی اندازهگیری مقدار «نامطمئنی» مدل.
توی این تحقیق، اومدن MC Dropout رو روی یه مدل معروف به اسم ResNet-50 (که یه مدل عمیق برای پردازش تصویر و مخصوصاً عکس هست) پیاده کردن و مدلشون رو حسابی روی عکسهای شبیهسازی شدهی مینها و UXOها تست کردن. چیزی که مهمه اینه که مدل نه فقط روی عکسهای سالم (یعنی تمیز و بدون نویز)، بلکه روی عکسهایی که نویز یا حتی حملات adversarial دارن هم بررسی شده. نتیجه جالبش این بوده که مدل هر جا شک داشته باشه یا مطمئن نباشه، سیگنال میده و مثلاً میگه این پیشبینی مطمئن نیست! یعنی اگه قراره یه جایی مدل قاطی کنه، قبلش به ما هشدار میده.
اینکه مدل چقدر به پیشبینیاش اطمینان داره، واقعاً تو کارهایی که جون آدما در خطره (مثلاً مینزدایی) خیلی حیاتی میشه. با این روش جدید، مهندسها و تیمهای میدانی میتونن قبل از عمل کردن بدونن که مدل به نتیجهی خودش شک داره یا نه، و بعدش خودشون تصمیم بگیرن که چیکار کنن. پس عملاً احتمال اشتباه خطرناک کم میشه.
در نهایت این تحقیق تأکید میکنه که بحث uncertainty یا همون نامطمئنی تو کاربردهای جدی مثل مینیابی فقط حرف نیست و باید جدی گرفته شه! تا الان شبکههای عصبی معمولی تو این حوزه راحت قابل گول زدن بودن و این یعنی خطر! پس مدلهایی که بتونن خودشون هم بگن «اینجا مطمئن نیستم»، قطعاً پایهی نسل جدید سیستمهای ایمن و قابلاعتماد میشن.
خلاصه اگر میخواید بدونید بعداً هوش مصنوعی میتونه بهتر جون آدما رو نجات بده، لازمه دقیقاً به همین جور تحقیقات و تکنیکهای اندازهگیری نامطمئنی توجه جدی کنیم.
منبع: +