چطوری شایعه‌ها و فیک‌نیوز تو شبکه‌های اجتماعی پخش می‌شن؟ مدل‌های جالب با حضور هوش مصنوعی و فکت‌چکرها!

امروز می‌خوام باهاتون رفیق‌طور درباره‌ی یه موضوع خیلی باحال ولی دردسرساز صحبت کنم: چطور شایعه‌ها و اطلاعات غلط تو شبکه‌های اجتماعی مثل آتیش پخش می‌شن و چه کارایی میشه براشون کرد؟ مخصوصاً وقتی هوش مصنوعی‌های نسل جدید وارد ماجرا میشن!

اولش بگم فیک‌نیوز چیه: به مطالب جعلی و دروغی میگن که تو اینترنت و شبکه‌های اجتماعی پخش می‌شن و می‌تونن کلی ضرر بزنن، مثلاً اعتماد مردم رو نابود کنن، سلامتیِ جمعی رو تهدید کنن یا حتی تو انتخابات و دموکراسی اختلال ایجاد کنن!

حالا یه تیم اومده و سه تا مدل مختلف ساخته تا بفهمه این دروغ‌ها چجوری پخش می‌شن و چه راه‌هایی برای مهارشون هست. باحال اینه که این مدل‌ها رو یه جورایی شبیه مدل‌های اپیدمیولوژیک (یعنی مدل‌هایی که برای بررسی پخش بیماری‌ها استفاده می‌کنن) ساخته‌ن. یعنی انگار دارن شایعه رو مثل یه ویروس بررسی می‌کنن!

خلاصه مدل‌ها اینا بودن:

  1. مدل اولیه که اسمش رو گذاشتن Awareness Spread Model یا به اختصار ASM. یعنی مدل پخش آگاهی. اینجا فقط نگاه می‌کنن مردم چقدر درباره فیک‌نیوز آگاهن و چطور منتقلش می‌کنن.
  2. مدل دوم شده Extended Model with fact-checking، بهش میگن EM. این یکی جدا از آگاهی آدم‌ها، قابلیت بررسی صحت مطلب یا همون فکت‌چکینگ رو هم وارد بازی می‌کنه. فکت‌چکینگ یعنی کاربرها یا سیستم یه چیزی رو بررسی می‌کنن که ببینن درست است یا دروغ (همون فکت‌چکرها).
  3. مدل سوم حسابی ترند شده! اسمش Generative AI-Influenced Spread یا به اختصار GIFS هست. Generative AI یا همون هوش مصنوعی مولد یعنی هوش مصنوعی‌ای که خودش می‌تونه متن یا عکس جدید درست کنه. اینجا حساب کردن اگه همچین هوش مصنوعی‌هایی بیان وسط، پخش شایعه چه جوری میشه.

تو هر سه مدل، رفتار کاربرا (مثلاً آیا راحت هرچی می‌بینن رو فوروارد می‌کنن یا نه)، الگوریتم و فضای خاص پلتفرم (مثلاً اینستاگرام یا توییتر)، و بایاس‌ها (یعنی خطاها یا تعصب‌های ذهنی، مثل confirmation bias که یعنی آدم بیشتر چیزایی رو باور می‌کنه که قبلاً دوست داشته و براش آشناست، یا emotional contagion که یعنی احساسات تو شبکه مثل ویروس پخش میشن) همه تو مدل اومدن.

بعد اومدن شش سناریوی مختلف رو شبیه‌سازی کردن:

  1. فضای دقیق و بدون اشتباه (یعنی همه محتواها درست هستند)
  2. رفتار همتا یا Peer Network Dynamics (یعنی تاثیر رفقا و آدمای دور و بر تو پخش محتوا)
  3. تعامل‌های احساسی (یعنی محتواهایی که احساسات قوی ایجاد می‌کنن)
  4. هماهنگی با باور قبلی (یعنی آدم‌هایی که فقط چیزایی رو دوست دارن که به باور خودشون نزدیکه)
  5. اعتماد به منبع (یعنی چقدر به منبع خبری اعتماد داریم)
  6. دخالت خود پلتفرم (مثلاً وقتی اینستاگرام یه پست رو محدود یا حذف می‌کنه)

نتیجه مدل‌ها؟

  • همه مدل‌ها بعد از یه مدت به یه حالت پایدار می‌رسن، یعنی بالاخره این شایعه‌ها یا جا می‌فتن یا محو می‌شن.
  • براساس ASM (همون مدل آگاهی)، نرخ فوروارد کردن شایعه تو سناریوهای ۱، ۴ و ۶ خیلی پایین بوده (۱.۴۷٪، ۳.۴۱٪ و ۲.۹۵٪)، ولی تو سناریوهای ۲، ۳ و ۵، پرشده از ویروسی شدن مطلب! مثلاً وقتی بحث تاثیر احساسی وسط بوده، نرخ پخش حتی به ۵۶.۵۲٪ رسیده!
  • تو مدل EM که فکت‌چکینگ هم داره، کلی کاهش داریم: بعضی وقتا پخش فقط ۰.۷۳٪ بوده و بازه‌ی پخش از ۱.۱۶ تا ۱۷.۴۷٪ متغیّر بوده، بسته به سناریو.
  • مدل GIFS (همونی که هوش مصنوعی مولد وارد میشه) نشون داد اگر هوش مصنوعی وسط ماجرا باشه، شیوع شایعه بین ۵.۷٪ تا ۳۷.۸٪ بیشتر میشه! یعنی هوش مصنوعی های مولد کار رو سخت‌تر می‌کنن.

پس چی شد؟

  • مدل ASM نشون میده باید آگاهی‌بخشی کنیم تا جلوی گسترش فیک‌نیوز گرفته شه.
  • مدل EM میگه فکت‌چکینگ خیلی جواب می‌ده.
  • مدل GIFS به ما هشدار میده که اگه به هوش مصنوعی مولد بی‌توجه باشیم، شایعه‌ها مثل بنز پخش می‌شن!

مهم‌ترین نکته اینه: اگه از همون اول پلتفرم‌ها وارد عمل بشن، مخصوصاً تو سناریوهای ۱، ۴ و ۶، تقریباً اکثراً می‌تونیم جلوی پخش شایعه رو بگیریم. اما اگه محتوا خیلی احساسات‌برانگیز باشه (سناریوی ۳)، آماده باشید برای عجیب‌ترین انفجارِ فیک‌نیوز!

در کل، مقاله میگه باید هشیار باشیم، فکت‌چک کنیم، پلتفرم‌ها باید زود واردکار شن و این هوش مصنوعی‌های جدید رو هم جدی بگیریم، چون دارن بازی شایعه‌ها رو حسابی عوض می‌کنن!

منبع: +