تا حالا براتون پیش اومده فکر کنید این ویدیویی که توی اینترنت دیدید واقعیه یا ساختگی؟ خب، این روزها تکنولوژی ساخت دیپفیک (Deepfake یعنی ویدیوهایی که با هوش مصنوعی کاملاً دستکاری شدن و میشه مثلاً چهره یک نفر رو روی بدن یکی دیگه گذاشت) خیلی سریع داره پیشرفت میکنه. یعنی کارو برای هر کسی که میخواد این ویدیوها رو تشخیص بده روز به روز سختتر میکنه!
حالا دانشمندها اومدن یه ایده جدید رو بررسی کردن. بجای اینکه هر بار یه روش جدید دیپفیک میاد مجبور شیم کل سیستم تشخیص رو دوباره آموزش بدیم – که هم گرونه، هم وقتگیره – گفتن چرا این پروسه رو مثل “یادگیری همیشگی” یا همون Continual Learning نبینیم؟ یادگیری همیشگی یعنی مدل ما کمکم و بدون فراموش کردن گذشته، خودش رو با روشهای جدید تطبیق بده.
چیزی که تو این کار جدید جالبه اینه که محققها سعی نکردن با شبیهسازیهای غیرواقعی مدلشون رو آموزش بدن. بلکه روند رشد دیپفیکها رو تو واقعیت و در طول ۷ سال ثبت کردن و با همین ترتیب زمانی، مدل رو بهروز کردن. اینطوری سیستم هم همیشه آپدیت میشه، هم تجربههای قبلی رو از یاد نمیبره.
یه نکته باحال دیگه اینه که این مدلها رو سبک و سریع طراحی کردن تا بشه تو دنیای واقعی و حتی به صورت “لحظهای” (Real-Time) ازشون استفاده کرد. یعنی مثلاً یه ویدیو رو همون موقع که داره پخش میشه تست کنی ببینی ساختگیه یا نه.
خب، یه جفت معیار جدید هم تو این تحقیق معرفی شده که قراره کمک کنه بهتر بفهمیم مدل چقدر خوب کار میکنه. یکی Continual AUC (یا C-AUC) که نشون میده مدل چقدر خاطره خوب از گذشته نگه داشته و فراموشی نگرفته. یه دونه هم Forward Transfer AUC (یا FWT-AUC) داریم که میگه مدل تا چه حد بدون آموزش اضافی میتونه به آینده و روشهای جدید ژنراتور دیپفیک واکنش نشون بده. ژنراتور هم یعنی همون برنامهها یا الگوریتمهایی که خودشون دیپفیک درست میکنن.
حالا نتایج آزمایشها چی میگه؟ اینا واقعاً دست به کار شدن و توی بیش از ۶۰۰ شبیهسازی مدلشون رو تست کردن! و فهمیدن که مدل با این روش جدید خیلی سریعتر و بهتر میتونه به دیپفیکهای جدید عادت کنه (تا ۱۵۵ برابر سریعتر از آموزش دوباره کامل مدل!) و خاطرات قدیمش هم باقی میمونه. ولی یه دردسر هست: اگه بخوای مدل رو بدون هیچ آموزش اضافی با یه ژنراتور دیپفیک کاملاً جدید روبهرو کنی، تقریباً شانسی جواب میده! یعنی حدوداً آمار موفقیتش مثل پرتاب شیر یا خطه (FWT-AUC = 0.5)، چون هر ژنراتور دیپفیک یه “اثر انگشت” منحصر به فرد داره و مدل بدون آموزش، نمیتونه پیشبینی کنه چطور باید باهاش کنار بیاد.
بر اساس این نتایج، یه فرضیه جدید هم به اسم Non-Universal Deepfake Distribution Hypothesis مطرح کردن که خلاصهاش اینه: قرار نیست یه مدلی پیدا بشه که همه دیپفیکها رو با هر ژنراتوری بشناسه، چون هرکدومشون ویژگیهای خاص خودشون رو دارن.
در آخر هم گفتن کدهای این تحقیقات رو به محض اینکه مقالهشون رسماً تایید بشه منتشر میکنن، تا بقیه هم بیان روش کار کنن و نتایج رو تکرار یا حتی بهتر کنن.
خلاصه، تشخیص دیپفیک فقط همین نیست که یه مدل بسازی و دیگه تا اخر عمر کار کنه؛ باید همیشه یاد بگیره و پیشرفت کنه، چون سازندههای دیپفیک هم بیکار نمیشینن و هر روز حقه جدید در میارن!
منبع: +