داستان جنگ ذهن‌ها: چطور روسیه و اوکراین با روایت‌های دستکاری‌شده بازی می‌کنن؟

حتماً شنیدی این روزا غیر از جنگ نظامی، یه مدل جنگ جدید هست به اسم «جنگ شناختی» یا Cognitive Warfare (یعنی جنگی که هدفش ذهن و باورهای مردمه). یه تحقیق جالب انجام شده که اومده همین موضوع رو توی جنگ روسیه و اوکراین بررسی کرده و نشون داده چطور روایت‌های دستکاری‌شده، یعنی استوری‌هایی که هدفشون فریب دادن یا تأثیرگذاری اشتباه روی ذهن مردمه، ساخته و پخش می‌شن.

چی شد که این تحقیق راه افتاد؟ دلیلش این بود که کلی پیام و خبر داریم می‌بینیم که واقعاً هدفشون جنگ اعصاب و خراب کردن اعتماد مردمه. یعنی فقط بحث اطلاعات غلط یا فیک نیوز نیست؛ بلکه هوشمندانه روش‌هایی دارن که حسابی ذهنیت و حس مردم و مسئولین رو بهم بریزن. مثلاً یه سری پیاما با ترسوندن مردم (مثل تهدید هسته‌ای یا همون Nuclear Threat، یعنی ما بمب اتم داریم!) یا تأیید تعصبات قبلیشون (یعنی Confirmation Bias – اینکه همه دوست دارن چیزایی رو باور کنن که قبلاً می‌دونستن!) باعث می‌شن ذهن مردم راحت‌تر دستکاری بشه.

حالا اینا از چه روشی استفاده کردن تا این چیزها رو کشف کنن؟ از یه تکنولوژی خاص به اسم “Attack-Index Tool” و مدل‌های زبانی خیلی پیشرفته (LLM یا Large Language Model – یه جور مدل هوش مصنوعی که می‌تونه متن رو مثل انسان بخونه و بفهمه) کمک گرفتن تا بفهمن توی پیام‌ها چه نشونه‌هایی از دستکاری زبون هست. از جمله نشونه‌هاش میشه به ابهام‌سازی (کلمات دوپهلو)، طعنه و کنایه، و چارچوب‌دهی خاص به موضوعات (Strategic Framing یعنی داستان رو جوری بیارن وسط که منفعت خودشون باشه) اشاره کرد.

تحقیق نشون داد که اکثراً زمان‌هایی که یه اتفاق بزرگ سیاسی افتاده (مثل اجلاس‌های ناتو یا صحبت درباره کمک نظامی)، ناگهان حجم پیام‌هایی که مردم رو از نظر احساسی تحت فشار می‌ذاره، مثل همون تهدیدهای هسته‌ای، بیشتر می‌شه. یعنی این پیام‌ها هماهنگ با زمان‌های حساس پخش می‌شن تا روش تصمیم‌گیری مردم و مسئولین اثر بذارن.

یه نکته جالب اینه که توی تحقیقشون پنج مدل یا گروه مختلف از این روایت‌های دستکاری‌شده رو پیدا کردن. مثلاً بعضیاش مخصوص تحت تاثیر قرار دادن سیاست‌مدارای بین‌المللی بود، بعضیا واسه مردم غرب (اروپا و آمریکا) و بعضیا هم واسه خود مردم روسیه. هر گروه هم روی یه نقطه ضعف ذهنی خاص دست می‌ذاره. خلاصه بخوام بگم، می‌دونن هر آدم یا گروه چه جایی آسیب‌پذیره و دقیقاً همونو هدف می‌گیرن.

اما محققای این مقاله اعتراف کردن که این مدل تحلیل‌ها یه سری چالش هم داره. مثلاً استفاده از هوش مصنوعی همیشه دوطرفه‌ست (Dual-use Potential)؛ یعنی هم می‌تونه کمک کنه روایت دستکاری رو شناسایی کنی، هم می‌تونی باهاش چیزای مخرب درست کنی! تازه پیدا کردن اینکه واقعاً بین این روایت‌ها و تصمیمات مردم یا دولت‌ها رابطه مستقیمی هست یا نه، همیشه راحت نیست.

با این حال، نتایج این کار چندتا دستاورد مهم داره:

  1. نشون داده که تهدید هسته‌ای یکی از حربه‌های استراتژیک تو جنگ روایت‌هاست، مخصوصاً نزدیک رویدادهای بین‌المللی.
  2. یه مدل جدید برای تحلیل با ترکیب خوشه‌بندی معنایی (Semantic Clustering یعنی دسته‌بندی پیام‌هایی که معنای مشابه دارن) و استفاده از هوش مصنوعی ارائه کرده که می‌تونه به شکل زنده اطلاعات خطرناک رو رصد کنه.
  3. یه سری راهکار عملی هم پیشنهاد داده، مثل همکاری بین کشورها و قوی‌تر کردن قوانین و ابزارهای دیجیتال برای مقابله با جنگ روایت و تاثیر روانیِ مخربش روی مردم.

در کل، اگه دوست داری بدونی پشت بعضی از خبرها و پیام‌هایی که تو اینستا یا تلگرام می‌بینی چه بازی‌های ذهنی‌ای وجود داره، این مطالعه خیلی خوب نشون می‌ده که چطور با تکنولوژی و هوش مصنوعی می‌تونن سر بزنگاه توجه و احساسات ما رو ببرن به سمت و سویی که می‌خوان.

پس دفعه بعد که خبری خوندی که بیش از حد داره احساست رو قلقلک می‌ده یا می‌ترسونی، یه کم با شک و تردید نگاهش کن! چون ممکنه بخشی از همین جنگ شناختی باشه که کلی آدم روش کار کردن که تو و من رو دست بندازن.

منبع: +