ترفند جدید برای مقابله با دیپ‌فیک: واترمارک نامرئی با نور!

این روزها دیگه ساختن ویدیوهای جعلی یا همون دیپ‌فیک‌ها خیلی راحت‌تر از قبل شده، مخصوصاً با وجود هوش مصنوعی‌های پیشرفتهٔ Generative AI (یعنی هوش مصنوعی‌ای که می‌تونه خودش محتوا مثل عکس یا ویدیو تولید کنه). این موضوع باعث شده دیگه نمی‌تونیم هر ویدیویی رو بدون شک به عنوان «حقیقت» قبول کنیم. Abe Davis که استادیار علوم کامپیوتر توی Cornell هست، خیلی خوب میگه: «قبلاً ویدیوها منبع حقیقت بودن، ولی الان دیگه نمی‌تونیم به این موضوع اطمینان کنیم، چون هر کسی می‌تونه هر ویدیویی که بخواد بسازه!»

پس یه مشکل جدی پیش اومده. چطور بفهمیم یه ویدیو واقعیه یا با ترفند و هوش مصنوعی دستکاری شده؟ جوابش دست یه تیم خلاق از دانشگاه Cornell هست که روش باحالی پیدا کردن: واترمارک‌گذاری نامرئی با نور موقع ضبط ویدیو!

حالا این دقیقاً یعنی چی؟ اغلب تکنیک‌های قبلی واترمارک این‌گونه بودن که باید فایل ویدیویی رو دیجیتالی علامت‌گذاری می‌کردی، اما این کار خیلی وقتا عملی نیست یا تولیدکننده‌های ویدیو همکاری نمی‌کنن. روش جدید اما، به جای اینکه توی فایل دست ببرن، نور محیط رو موقع ضبط ویدیو خیلی نامحسوس تغییر میدن تا یه کد مخفی توی فیلم جا بندازن. یعنی نور می‌تابه اما توی چشم ما هیچ تغییری دیده نمیشه، چون تغییراتش انقدر ریزه که حسش نمی‌کنیم.

برای این کار حتی می‌تونن به راحتی روی لامپ‌های معمولی، چراغ استودیو یا حتی مانیتور کامپیوتر یه چیپ کوچیک (تقریباً هم اندازه تمبر پستی) وصل کنن که بلده نور رو به صورت رمزی تغییر بده! Peter Michael که یکی از دانشجوهای پرتلاش این پروژه‌ست، می‌گه: «ما کلی مطالعه روی اینکه چشم آدم به نور چطور حساسه کردیم و تونستیم نوری طراحی کنیم که هم شبیه نویزهای تصادفی معمولیه (نویز یعنی اختلالات عادی که توی نور هست)، هم اینکه فقط با رمز خودش قابل شناسایی باشه.» این یعنی تقلب‌کارها هم نمی‌تونن راحت کد رو پیدا کنن!

حالا فایده این کدها چیه؟ فرض کن کسی فیلم یه مصاحبه یا سخنرانی سیاستمدار رو دستکاری کنه، مثلاً بخشی رو حذف کنه یا چیزی بهش اضافه کنه. اگه دست تحلیلگر متخصص باشه و به رمز کد اون نور دسترسی داشته باشه، راحت می‌فهمه کجای فیلم حذف یا اضافه شده. حتی اگه یه بخش دستکاری شده باشه، توی «کد ویدیو» (یعنی نسخه‌ی ساده‌تر و کم‌کیفیت‌تری از فیلم که تغییرات نور توش معلومه) بخش اضافه یا تغییر یافته معمولاً سیاه یا غیرطبیعی دیده میشه.

این سیستم فقط روی یه نور هم محدود نمیشه؛ بچه‌های کورنل تونستن تا سه منبع نوری مختلف توی یه صحنه رو جداگانه رمزگذاری کنن. یعنی حتی اگه یه هکر زرنگ رمز یکی از نورها رو هم پیدا کنه، باید برای همه نورها جدا جدا تقلب کنه، و همه هم باید با هم هماهنگ باشن! اونم توی فیلم تقلبی واقعاً سخت‌تر و تقریباً نشدنی میشه.

تست‌ها نشون داده این روش توی شرایط فضای باز و روی آدم‌هایی با رنگ پوست مختلف هم جواب میده. ولی Davis می‌گه این یه چالش واقعاً ادامه‌داره‌ست و کلا مشکل دیپ‌فیک‌ها قراره هر روز سخت‌تر هم بشه.

خلاصه اگر اهل شبکه‌های اجتماعی و دنبال کردن خبرها هستی، از این به بعد باید حواست خیلی بیشتر جمع باشه—و شاید یه روزی همین واترمارک‌های نامرئی با نور به دادمون برسن تا فرق «واقعی» ویدیو با فیک‌ها رو بفهمیم!

منبع: +