خب بچهها، یه موضوع خیلی جدی و البته جالب داریم: آزارگری یا همون فحاشی سایبری. مطمئناً هممون اسمش رو شنیدیم و شاید خودمون یا دوستامون یه جایی باهاش برخورد کرده باشیم. این موضوع هر روز داره بیشتر میشه، چون اینترنت و شبکههای اجتماعی دارن روزبهروز بزرگتر و پرطرفدارتر میشن و راههای بیشتری هم واسه ارتباط برقرار کردن وجود داره—از پیام متنی و کامنت گرفته تا عکس و ویدیو و صدا و… حتی GIF و استیکر!
تا الان اگه کسی میخواست آزارگری سایبری رو تشخیص بده، بیشتر تمرکزش رو روی متنها بود. یه سری روش برای عکسها هم ساخته بودن. ولی وقتی میرسیم به GIFها و استیکرها (همون عکسهای متحرکی که کلی احساس توشونه)، واقعاً کار سختتر میشه و مطالعات خیلی کمی راجع به این موضوع انجام شده بودن.
حالا تیمی از محققها اومدن رفتن سراغ همین GIFها، مخصوصاً توی توئیتر، تا ببینن میشه آزارگری رو با هوش مصنوعی شناسایی کرد یا نه. اول کار، این بچهها یه سری هشتگ مرتبط با آزارگری سایبری پیدا کردن (هشتگ یعنی اون کلمههایی که با # شروع میشن و دستهبندی و جستجو رو توی اینستا و توئیتر آسونتر میکنن). بعد با استفاده از API عمومی GIPHY (API یعنی یه جور واسط برنامهنویسی که به برنامهنویسها اجازه میده به دادهها و سرویسهای یه سایت مثل Giphy دسترسی داشته باشن)، یه عالمه GIF مختلف دانلود کردن.
کلاً بیشتر از ۴۱۰۰ تا GIF جمع کردن؛ هم اونایی که توشون نشانههای فحاشی یا آزارگری هست، هم اونایی که سالم و بیآزارن. حالا سوال این بود: چطوری میشه اینها رو دستهبندی کرد و گفت کدوم GIFها آزارگرانه هستن؟ اینجاست که داستان هوش مصنوعی و یادگیری عمیق پیش میاد. یادگیری عمیق یا Deep Learning همون روشی هست که مغز مدلهای هوش مصنوعی مثل انسان کار میکنه و با کلی داده و تجربه یاد میگیرن.
توی این پروژه هم اومدن از یه مدل یادگیری عمیق آماده و از پیش آموزش دیده به اسم VGG16 استفاده کردن. این مدل رو قبلاً روی میلیونها عکس آموزش دادن و برای شناسایی تصویر خیلی خوبه. محققا این مدل رو روی GIFها امتحان کردن تا ببینن چقدر میتونه بین GIFهای معمولی و GIFهای فحاشی تفاوت قایل بشه.
نتیجه؟ مدل VGG16 تونست با دقت فوقالعاده ۹۷٪، GIFهایی رو که مضمون آزارگری داشتن از بقیه جدا کنه! یعنی تقریباً هیچ چیزی از زیر دست این مدل در نمیره.
خلاصه، این کار هم dataset (مجموعه داده) GIFها رو برای پژوهشگرای دیگه آماده کرده و هم نشون داده که با تکنولوژیهای الان، حتی توی تصویرهای بهظاهر بیگناهی مثل GIF هم میشه هوشمندانه رد آزارگری رو گرفت. پس دفعه بعدی که یکی GIF جالب فرستاد – حداقل مطمئن باشید هوش مصنوعی میتونه مراقب باشه کسی رو اذیت نکنه! 😉
منبع: +