چطور مطمئن بشیم هوش مصنوعی سوتی نمی‌ده تو شناسایی مین و مهمات منفجرنشده؟

Fall Back

حالا می‌خوای براتون یه موضوع جالب و حیاتی رو تعریف کنم: استفاده از هوش مصنوعی برای پیدا کردن مین و مهمات منفجرنشده (که بهشون می‌گن UXO، یعنی Unexploded Ordnance). این مین‌ها و بمب‌هایی هستن که هنوز تو زمین مونده و منفجر نشدن، و خب یه خطر اساسی برا آدم‌ها دارن. مدتیه که دانشمندها دارن از یادگیری عمیق (Deep Learning، یعنی بخشی از هوش مصنوعی که شبیه مغز انسان یاد می‌گیره) برای پیدا کردن این چیزا استفاده می‌کنن.

ولی مشکلی که هست، اینه که شبکه‌های عصبی معمولی (همون چیزی که پایه‌ی یادگیری عمیق هست) خیلی وقتا «قطعی» یا همون دِتِرمینیستیک عمل می‌کنن. یعنی هر بار یه ورودی خاص بدی، یه جواب خاص هم می‌دن و اصلاً نمی‌گن چقد مطمئن هستن! اگه هوا آلوده باشه، یا عکس‌ها نویز داشته باشه، یا یکی بخواد شبکه رو گول بزنه (مثلاً با Adversarial Attack، یعنی حمله‌ای که اطلاعات اشتباه وارد شبکه می‌کنه تا گمراهش کنه)، همین شبکه کلی اشتباه می‌تونه بکنه. فرض کن موقع خنثی کردن مین همچین سوتی بدی بزنه!

حالا یه راه جدید پیدا کردن که خیالت راحت‌تر بشه! تو این تحقیق اومدن از چیزی به اسم MC Dropout استفاده کردن. حالا MC Dropout یعنی چی؟ این روشی هست که Dropout (یه تکنیک رایج برای جلوگیری از بیش‌ازحد یاد گرفتن دیتا توسط شبکه یا همون Overfitting) رو موقع تست گرفتن فعال نگه می‌دارن و چند بار با تنظیمات مختلف مدل رو اجرا می‌کنن. بعدش از این اجراهای مختلف، یه جورایی به دست میارن که مدل چقد مطمئنه و جاهایی که شک داره رو نشون می‌ده. اینطوری بهش می‌گن uncertainty quantification، یعنی اندازه‌گیری مقدار «نامطمئنی» مدل.

توی این تحقیق، اومدن MC Dropout رو روی یه مدل معروف به اسم ResNet-50 (که یه مدل عمیق برای پردازش تصویر و مخصوصاً عکس هست) پیاده کردن و مدلشون رو حسابی روی عکس‌های شبیه‌سازی شده‌ی مین‌ها و UXOها تست کردن. چیزی که مهمه اینه که مدل نه فقط روی عکس‌های سالم (یعنی تمیز و بدون نویز)، بلکه روی عکس‌هایی که نویز یا حتی حملات adversarial دارن هم بررسی شده. نتیجه جالبش این بوده که مدل هر جا شک داشته باشه یا مطمئن نباشه، سیگنال می‌ده و مثلاً می‌گه این پیش‌بینی مطمئن نیست! یعنی اگه قراره یه جایی مدل قاطی کنه، قبلش به ما هشدار می‌ده.

اینکه مدل چقدر به پیش‌بینیاش اطمینان داره، واقعاً تو کارهایی که جون آدما در خطره (مثلاً مین‌زدایی) خیلی حیاتی می‌شه. با این روش جدید، مهندس‌ها و تیم‌های میدانی می‌تونن قبل از عمل کردن بدونن که مدل به نتیجه‌ی خودش شک داره یا نه، و بعدش خودشون تصمیم بگیرن که چیکار کنن. پس عملاً احتمال اشتباه خطرناک کم می‌شه.

در نهایت این تحقیق تأکید می‌کنه که بحث uncertainty یا همون نامطمئنی تو کاربردهای جدی مثل مین‌یابی فقط حرف نیست و باید جدی گرفته شه! تا الان شبکه‌های عصبی معمولی تو این حوزه راحت قابل گول زدن بودن و این یعنی خطر! پس مدل‌هایی که بتونن خودشون هم بگن «اینجا مطمئن نیستم»، قطعاً پایه‌ی نسل جدید سیستم‌های ایمن و قابل‌اعتماد می‌شن.

خلاصه اگر می‌خواید بدونید بعداً هوش مصنوعی می‌تونه بهتر جون آدما رو نجات بده، لازمه دقیقاً به همین جور تحقیقات و تکنیک‌های اندازه‌گیری نامطمئنی توجه جدی کنیم.

منبع: +