دیتکت کردن دیپ‌فیک‌ها: چرا راه آسونی نداره و یادگیری همیشگی چجوری می‌تونه کمک کنه؟

Fall Back

تا حالا براتون پیش اومده فکر کنید این ویدیویی که توی اینترنت دیدید واقعیه یا ساختگی؟ خب، این روزها تکنولوژی ساخت دیپ‌فیک (Deepfake یعنی ویدیوهایی که با هوش مصنوعی کاملاً دستکاری شدن و میشه مثلاً چهره یک نفر رو روی بدن یکی دیگه گذاشت) خیلی سریع داره پیشرفت می‌کنه. یعنی کارو برای هر کسی که می‌خواد این ویدیوها رو تشخیص بده روز به روز سخت‌تر می‌کنه!

حالا دانشمندها اومدن یه ایده جدید رو بررسی کردن. بجای اینکه هر بار یه روش جدید دیپ‌فیک میاد مجبور شیم کل سیستم تشخیص رو دوباره آموزش بدیم – که هم گرونه، هم وقت‌گیره – گفتن چرا این پروسه رو مثل “یادگیری همیشگی” یا همون Continual Learning نبینیم؟ یادگیری همیشگی یعنی مدل ما کم‌کم و بدون فراموش کردن گذشته، خودش رو با روش‌های جدید تطبیق بده.

چیزی که تو این کار جدید جالبه اینه که محقق‌ها سعی نکردن با شبیه‌سازی‌های غیرواقعی مدلشون رو آموزش بدن. بلکه روند رشد دیپ‌فیک‌ها رو تو واقعیت و در طول ۷ سال ثبت کردن و با همین ترتیب زمانی، مدل رو به‌روز کردن. اینطوری سیستم هم همیشه آپدیت میشه، هم تجربه‌های قبلی رو از یاد نمی‌بره.

یه نکته باحال دیگه اینه که این مدل‌ها رو سبک و سریع طراحی کردن تا بشه تو دنیای واقعی و حتی به صورت “لحظه‌ای” (Real-Time) ازشون استفاده کرد. یعنی مثلاً یه ویدیو رو همون موقع که داره پخش میشه تست کنی ببینی ساختگیه یا نه.

خب، یه جفت معیار جدید هم تو این تحقیق معرفی شده که قراره کمک کنه بهتر بفهمیم مدل چقدر خوب کار می‌کنه. یکی Continual AUC (یا C-AUC) که نشون میده مدل چقدر خاطره خوب از گذشته نگه داشته و فراموشی نگرفته. یه دونه هم Forward Transfer AUC (یا FWT-AUC) داریم که می‌گه مدل تا چه حد بدون آموزش اضافی می‌تونه به آینده و روش‌های جدید ژنراتور دیپ‌فیک واکنش نشون بده. ژنراتور هم یعنی همون برنامه‌ها یا الگوریتم‌هایی که خودشون دیپ‌فیک درست می‌کنن.

حالا نتایج آزمایش‌ها چی میگه؟ اینا واقعاً دست به کار شدن و توی بیش از ۶۰۰ شبیه‌سازی مدلشون رو تست کردن! و فهمیدن که مدل با این روش جدید خیلی سریع‌تر و بهتر می‌تونه به دیپ‌فیک‌های جدید عادت کنه (تا ۱۵۵ برابر سریع‌تر از آموزش دوباره کامل مدل!) و خاطرات قدیمش هم باقی می‌مونه. ولی یه دردسر هست: اگه بخوای مدل رو بدون هیچ آموزش اضافی با یه ژنراتور دیپ‌فیک کاملاً جدید روبه‌رو کنی، تقریباً شانسی جواب میده! یعنی حدوداً آمار موفقیتش مثل پرتاب شیر یا خطه (FWT-AUC = 0.5)، چون هر ژنراتور دیپ‌فیک یه “اثر انگشت” منحصر به فرد داره و مدل بدون آموزش، نمی‌تونه پیش‌بینی کنه چطور باید باهاش کنار بیاد.

بر اساس این نتایج، یه فرضیه جدید هم به اسم Non-Universal Deepfake Distribution Hypothesis مطرح کردن که خلاصه‌اش اینه: قرار نیست یه مدلی پیدا بشه که همه دیپ‌فیک‌ها رو با هر ژنراتوری بشناسه، چون هرکدومشون ویژگی‌های خاص خودشون رو دارن.

در آخر هم گفتن کدهای این تحقیقات رو به محض اینکه مقاله‌شون رسماً تایید بشه منتشر می‌کنن، تا بقیه هم بیان روش کار کنن و نتایج رو تکرار یا حتی بهتر کنن.

خلاصه، تشخیص دیپ‌فیک فقط همین نیست که یه مدل بسازی و دیگه تا اخر عمر کار کنه؛ باید همیشه یاد بگیره و پیشرفت کنه، چون سازنده‌های دیپ‌فیک هم بیکار نمیشینن و هر روز حقه جدید در میارن!

منبع: +