خب بیا یه موضوع جدی اما خیلی جالب رو با هم باز کنیم. الان دیگه همه جا حرف از هوش مصنوعی و کلی تکنولوژی خفن شده و هر روز ابزار جدیدی میاد که راحت میتونه تصویر و فیلم بسازه. حالا تصور کن این قابلیتِ تولید تصویر (یا همون Generative AI که یعنی هوش مصنوعی که خودش محتوا میسازه؛ مثلاً عکس یا فیلم جعلی!) میشه ابزاری برای تولید عکسهای وحشتناک سوءاستفاده کودکان. واقعاً غمانگیزه، ولی متاسفانه این اتفاق داره به شدت زیاد میشه.
مامورای آمریکایی که مسئول پیدا کردن و جلو گرفتن از چنین جرایمن، الان دنبال راههایی هستن که بتونن فرق بین عکسها و ویدیوهای تقلبی (که توسط هوش مصنوعی تولید شدن) و اونایی که واقعاً از یه کودک قربانی گرفتن رو بفهمن. چرا؟ چون واسشون خیلی مهمه که بفهمن کدوم فایل واقعاً نشون دهنده یه سوژه واقعی در خطره و کدوم صرفاً ساختگیه. خب قاعدتاً اولویت اولشون نجات دادن قربانی واقعیه.
بر همین اساس، مرکز جرایم سایبری آمریکا (یعنی یه بخشی از وزارت امنیت داخلی که بهش Cyber Crimes Center میگن و کارش برخورد با سوءاستفاده بچهها تو فضای اینترنتیه، حتی بیرون مرزهای خودشون) با یه شرکت سیلیکونولی به اسم Hive AI قرارداد بسته که ۱۵۰ هزار دلار حمایت مالی کنه تا الگوریتمهاشون رو امتحان کنن. این Hive AI هم یه تیم باحال داره که مثلاً هم میتونن تصاویر جعلی رو بسازن، هم ابزارهایی برای شناسایی محتواهای مشکوک دارن – مثلا عکسای خشن، اسپم، تصاویر جنسی و حتی تشخیص چهره افراد مشهوری که شاید تو یه ویدیو تقلبی ویرایش شدن.
اخیراً هم MIT Technology Review گزارش داده بود که همین Hive تکنولوژی تشخیص deepfake (همون ویدیو یا عکسهایی که با هوش مصنوعی ساختن و آدم واقعی توش نیست یا تصویر کسی رو جا کسی گذاشتن) رو به ارتش آمریکا فروخته بودن! Deepfake یعنی عوضکردن چهره یا صدا در تصاویر و ویدیوها با کمک هوش مصنوعی، بدون اینکه واقعی باشه.
آمارا چیه؟ سازمان ملی کودکان گمشده و مورد سوءاستفاده آمریکا (National Center for Missing and Exploited Children – NCMEC)، که جریان CSAM (یعنی همون Child Sexual Abuse Material، محتوای تصویری ناشی از سوءاستفاده جنسی از کودک) رو خیلی جدی دنبال میکنه، گفته فقط تو سال ۲۰۲۴، گزارشهای مربوط به هوش مصنوعی تو این فضا ۱۳۲۵ درصد زیاد شده! یعنی اگه سال قبل مثلاً ۱۰ تا بوده، الان بالای ۱۳۰ تا مورد شده. وحشتناکه. خلاصه، حجم این محتواها اونقدر زیاده که دیگه نیروی انسانی به تنهایی جواب نمیده و باید سراغ ابزارای خودکار برید.
شرکت Hive AI یه ابزار مخصوص همکاری با سازمان Thorn (یه خیریه آمریکایی که تمرکزش رو نجات و ایمنسازی بچههاست) ساخته. مثلاً سیستمی دارن که چی کار میکنه؟ براساس hashing کار میکنه، یعنی به هر تصویری که توسط پلیسا به عنوان محتوای غیرقانونی شناخته شده، یه کد منحصر به فرد میده و اگه یکی بخواد همون تصویر رو دوباره تو اینترنت آپلود کنه سریع شناسایی میشه و جلوی انتشارش گرفته میشه. این روش الان جزو استانداردا برای خیلی از شرکتهای تکنولوژیه. ولی یه نکته داره: این ابزار متوجه نمیشه که آیا عکس توسط هوش مصنوعی ساخته شده یا نه، فقط تشخیص میده که همون فایل قبلاً به عنوان خلاف شناسایی شده یا نه.
اینجاست که Hive یه ابزار جدید ساخته که میتونه تشخیص بده هر تصویری (نه فقط این تصاویر خاص) توسط هوش مصنوعی تولید شده یا نه. نکته جالبش اینه که لازم هم نیست روی عکسهای کودک آزاری خاص آموزش دیده باشه. به گفته کوین گو (مدیر شرکت)، چون ابزارشون میتونه ترکیب پیکسلایی که نشونه تولید با AI هست رو تشخیص بده – کلاً قابل تعمیمه.
حالا قرار شده این ابزار به کمک دولت آمریکا بیاد تا تو پروندههای واقعی ازش استفاده کنن و ببینن چقدر میتونه مفید باشه. هدف نهایی چیه؟ اینکه نیروی پلیس بتونه اولویت رو بذاره روی کیسهایی که قربانی واقعی دارن و وقتشون رو روی تصاویر جعلی تلف نکنن. اینجوری هم بچههای بیشتری نجات پیدا میکنن، هم کلی از منابع صرفهجویی میشه.
قرارداد Hive با دولت برای مدت سه ماهه آزمایشیه و جالبه بدونی حتی دولت آمریکا بدون اینکه مناقصه باز بذاره رفت سمت این شرکت؛ چون دو دلیل مهم داشتن: یکی تحقیقی از دانشگاه شیکاگو که نشون داده بود ابزار تشخیص Hive توی پیدا کردن تصاویر هوش مصنوعی خیلی از چهار ابزار معروف دیگه بهتر عمل کرده بود، دلیل دوم هم همون قرارداد با ارتشه واسه شناسایی deepfakeها. خلاصه، قرار شده فعلاً این ماجرا رو آزمایشی پیش ببرن تا ببینن نتیجه چیه.
در نهایت، هنوز داده دقیقی از اینکه مدلهای اینها چقدر مؤثرن منتشر نشده، چون حتی خود سازمان NCMEC فعلاً پاسخی به رسانهها نداده. ولی این پروژه نشون میده که جنگ پلیس با خلافکارا، حالا وارد فازی شده که توش باید با هوش مصنوعی باهوشتر بجنگن! واقعاً دنیای عجیبیه، نه؟
منبع: +