امروز میخوام باهاتون رفیقطور دربارهی یه موضوع خیلی باحال ولی دردسرساز صحبت کنم: چطور شایعهها و اطلاعات غلط تو شبکههای اجتماعی مثل آتیش پخش میشن و چه کارایی میشه براشون کرد؟ مخصوصاً وقتی هوش مصنوعیهای نسل جدید وارد ماجرا میشن!
اولش بگم فیکنیوز چیه: به مطالب جعلی و دروغی میگن که تو اینترنت و شبکههای اجتماعی پخش میشن و میتونن کلی ضرر بزنن، مثلاً اعتماد مردم رو نابود کنن، سلامتیِ جمعی رو تهدید کنن یا حتی تو انتخابات و دموکراسی اختلال ایجاد کنن!
حالا یه تیم اومده و سه تا مدل مختلف ساخته تا بفهمه این دروغها چجوری پخش میشن و چه راههایی برای مهارشون هست. باحال اینه که این مدلها رو یه جورایی شبیه مدلهای اپیدمیولوژیک (یعنی مدلهایی که برای بررسی پخش بیماریها استفاده میکنن) ساختهن. یعنی انگار دارن شایعه رو مثل یه ویروس بررسی میکنن!
خلاصه مدلها اینا بودن:
- مدل اولیه که اسمش رو گذاشتن Awareness Spread Model یا به اختصار ASM. یعنی مدل پخش آگاهی. اینجا فقط نگاه میکنن مردم چقدر درباره فیکنیوز آگاهن و چطور منتقلش میکنن.
- مدل دوم شده Extended Model with fact-checking، بهش میگن EM. این یکی جدا از آگاهی آدمها، قابلیت بررسی صحت مطلب یا همون فکتچکینگ رو هم وارد بازی میکنه. فکتچکینگ یعنی کاربرها یا سیستم یه چیزی رو بررسی میکنن که ببینن درست است یا دروغ (همون فکتچکرها).
- مدل سوم حسابی ترند شده! اسمش Generative AI-Influenced Spread یا به اختصار GIFS هست. Generative AI یا همون هوش مصنوعی مولد یعنی هوش مصنوعیای که خودش میتونه متن یا عکس جدید درست کنه. اینجا حساب کردن اگه همچین هوش مصنوعیهایی بیان وسط، پخش شایعه چه جوری میشه.
تو هر سه مدل، رفتار کاربرا (مثلاً آیا راحت هرچی میبینن رو فوروارد میکنن یا نه)، الگوریتم و فضای خاص پلتفرم (مثلاً اینستاگرام یا توییتر)، و بایاسها (یعنی خطاها یا تعصبهای ذهنی، مثل confirmation bias که یعنی آدم بیشتر چیزایی رو باور میکنه که قبلاً دوست داشته و براش آشناست، یا emotional contagion که یعنی احساسات تو شبکه مثل ویروس پخش میشن) همه تو مدل اومدن.
بعد اومدن شش سناریوی مختلف رو شبیهسازی کردن:
- فضای دقیق و بدون اشتباه (یعنی همه محتواها درست هستند)
- رفتار همتا یا Peer Network Dynamics (یعنی تاثیر رفقا و آدمای دور و بر تو پخش محتوا)
- تعاملهای احساسی (یعنی محتواهایی که احساسات قوی ایجاد میکنن)
- هماهنگی با باور قبلی (یعنی آدمهایی که فقط چیزایی رو دوست دارن که به باور خودشون نزدیکه)
- اعتماد به منبع (یعنی چقدر به منبع خبری اعتماد داریم)
- دخالت خود پلتفرم (مثلاً وقتی اینستاگرام یه پست رو محدود یا حذف میکنه)
نتیجه مدلها؟
- همه مدلها بعد از یه مدت به یه حالت پایدار میرسن، یعنی بالاخره این شایعهها یا جا میفتن یا محو میشن.
- براساس ASM (همون مدل آگاهی)، نرخ فوروارد کردن شایعه تو سناریوهای ۱، ۴ و ۶ خیلی پایین بوده (۱.۴۷٪، ۳.۴۱٪ و ۲.۹۵٪)، ولی تو سناریوهای ۲، ۳ و ۵، پرشده از ویروسی شدن مطلب! مثلاً وقتی بحث تاثیر احساسی وسط بوده، نرخ پخش حتی به ۵۶.۵۲٪ رسیده!
- تو مدل EM که فکتچکینگ هم داره، کلی کاهش داریم: بعضی وقتا پخش فقط ۰.۷۳٪ بوده و بازهی پخش از ۱.۱۶ تا ۱۷.۴۷٪ متغیّر بوده، بسته به سناریو.
- مدل GIFS (همونی که هوش مصنوعی مولد وارد میشه) نشون داد اگر هوش مصنوعی وسط ماجرا باشه، شیوع شایعه بین ۵.۷٪ تا ۳۷.۸٪ بیشتر میشه! یعنی هوش مصنوعی های مولد کار رو سختتر میکنن.
پس چی شد؟
- مدل ASM نشون میده باید آگاهیبخشی کنیم تا جلوی گسترش فیکنیوز گرفته شه.
- مدل EM میگه فکتچکینگ خیلی جواب میده.
- مدل GIFS به ما هشدار میده که اگه به هوش مصنوعی مولد بیتوجه باشیم، شایعهها مثل بنز پخش میشن!
مهمترین نکته اینه: اگه از همون اول پلتفرمها وارد عمل بشن، مخصوصاً تو سناریوهای ۱، ۴ و ۶، تقریباً اکثراً میتونیم جلوی پخش شایعه رو بگیریم. اما اگه محتوا خیلی احساساتبرانگیز باشه (سناریوی ۳)، آماده باشید برای عجیبترین انفجارِ فیکنیوز!
در کل، مقاله میگه باید هشیار باشیم، فکتچک کنیم، پلتفرمها باید زود واردکار شن و این هوش مصنوعیهای جدید رو هم جدی بگیریم، چون دارن بازی شایعهها رو حسابی عوض میکنن!
منبع: +