چطور هوش مصنوعی می‌تونه فحاشی و آزارگری سایبری توی GIFها رو شناسایی کنه؟!

Fall Back

خب بچه‌ها، یه موضوع خیلی جدی و البته جالب داریم: آزارگری یا همون فحاشی سایبری. مطمئناً هممون اسمش رو شنیدیم و شاید خودمون یا دوستامون یه جایی باهاش برخورد کرده باشیم. این موضوع هر روز داره بیشتر میشه، چون اینترنت و شبکه‌های اجتماعی دارن روز‌به‌روز بزرگ‌تر و پرطرفدارتر می‌شن و راه‌های بیشتری هم واسه ارتباط برقرار کردن وجود داره—از پیام متنی و کامنت گرفته تا عکس و ویدیو و صدا و… حتی GIF و استیکر!

تا الان اگه کسی می‌خواست آزارگری سایبری رو تشخیص بده، بیشتر تمرکزش رو روی متن‌ها بود. یه سری روش برای عکس‌ها هم ساخته بودن. ولی وقتی می‌رسیم به GIFها و استیکرها (همون عکس‌های متحرکی که کلی احساس توشونه)، واقعاً کار سخت‌تر میشه و مطالعات خیلی کمی راجع به این موضوع انجام شده بودن.

حالا تیمی از محقق‌ها اومدن رفتن سراغ همین GIFها، مخصوصاً توی توئیتر، تا ببینن میشه آزارگری رو با هوش مصنوعی شناسایی کرد یا نه. اول کار، این بچه‌ها یه سری هشتگ مرتبط با آزارگری سایبری پیدا کردن (هشتگ یعنی اون کلمه‌هایی که با # شروع می‌شن و دسته‌بندی و جستجو رو توی اینستا و توئیتر آسون‌تر می‌کنن). بعد با استفاده از API عمومی GIPHY (API یعنی یه جور واسط برنامه‌نویسی که به برنامه‌نویس‌ها اجازه می‌ده به داده‌ها و سرویس‌های یه سایت مثل Giphy دسترسی داشته باشن)، یه عالمه GIF مختلف دانلود کردن.

کلاً بیشتر از ۴۱۰۰ تا GIF جمع کردن؛ هم اونایی که توشون نشانه‌های فحاشی یا آزارگری هست، هم اونایی که سالم و بی‌آزارن. حالا سوال این بود: چطوری میشه این‌ها رو دسته‌بندی کرد و گفت کدوم GIFها آزارگرانه هستن؟ اینجاست که داستان هوش مصنوعی و یادگیری عمیق پیش میاد. یادگیری عمیق یا Deep Learning همون روشی هست که مغز مدل‌های هوش مصنوعی مثل انسان کار می‌کنه و با کلی داده و تجربه یاد می‌گیرن.

توی این پروژه هم اومدن از یه مدل یادگیری عمیق آماده و از پیش آموزش دیده به اسم VGG16 استفاده کردن. این مدل رو قبلاً روی میلیون‌ها عکس آموزش دادن و برای شناسایی تصویر خیلی خوبه. محققا این مدل رو روی GIFها امتحان کردن تا ببینن چقدر می‌تونه بین GIFهای معمولی و GIFهای فحاشی تفاوت قایل بشه.

نتیجه؟ مدل VGG16 تونست با دقت فوق‌العاده ۹۷٪، GIFهایی رو که مضمون آزارگری داشتن از بقیه جدا کنه! یعنی تقریباً هیچ چیزی از زیر دست این مدل در نمی‌ره.

خلاصه، این کار هم dataset (مجموعه داده) GIFها رو برای پژوهشگرای دیگه آماده کرده و هم نشون داده که با تکنولوژی‌های الان، حتی توی تصویرهای به‌ظاهر بی‌گناهی مثل GIF هم میشه هوشمندانه رد آزارگری رو گرفت. پس دفعه بعدی که یکی GIF جالب فرستاد – حداقل مطمئن باشید هوش مصنوعی می‌تونه مراقب باشه کسی رو اذیت نکنه! 😉

منبع: +