حتماً شنیدی این روزا غیر از جنگ نظامی، یه مدل جنگ جدید هست به اسم «جنگ شناختی» یا Cognitive Warfare (یعنی جنگی که هدفش ذهن و باورهای مردمه). یه تحقیق جالب انجام شده که اومده همین موضوع رو توی جنگ روسیه و اوکراین بررسی کرده و نشون داده چطور روایتهای دستکاریشده، یعنی استوریهایی که هدفشون فریب دادن یا تأثیرگذاری اشتباه روی ذهن مردمه، ساخته و پخش میشن.
چی شد که این تحقیق راه افتاد؟ دلیلش این بود که کلی پیام و خبر داریم میبینیم که واقعاً هدفشون جنگ اعصاب و خراب کردن اعتماد مردمه. یعنی فقط بحث اطلاعات غلط یا فیک نیوز نیست؛ بلکه هوشمندانه روشهایی دارن که حسابی ذهنیت و حس مردم و مسئولین رو بهم بریزن. مثلاً یه سری پیاما با ترسوندن مردم (مثل تهدید هستهای یا همون Nuclear Threat، یعنی ما بمب اتم داریم!) یا تأیید تعصبات قبلیشون (یعنی Confirmation Bias – اینکه همه دوست دارن چیزایی رو باور کنن که قبلاً میدونستن!) باعث میشن ذهن مردم راحتتر دستکاری بشه.
حالا اینا از چه روشی استفاده کردن تا این چیزها رو کشف کنن؟ از یه تکنولوژی خاص به اسم “Attack-Index Tool” و مدلهای زبانی خیلی پیشرفته (LLM یا Large Language Model – یه جور مدل هوش مصنوعی که میتونه متن رو مثل انسان بخونه و بفهمه) کمک گرفتن تا بفهمن توی پیامها چه نشونههایی از دستکاری زبون هست. از جمله نشونههاش میشه به ابهامسازی (کلمات دوپهلو)، طعنه و کنایه، و چارچوبدهی خاص به موضوعات (Strategic Framing یعنی داستان رو جوری بیارن وسط که منفعت خودشون باشه) اشاره کرد.
تحقیق نشون داد که اکثراً زمانهایی که یه اتفاق بزرگ سیاسی افتاده (مثل اجلاسهای ناتو یا صحبت درباره کمک نظامی)، ناگهان حجم پیامهایی که مردم رو از نظر احساسی تحت فشار میذاره، مثل همون تهدیدهای هستهای، بیشتر میشه. یعنی این پیامها هماهنگ با زمانهای حساس پخش میشن تا روش تصمیمگیری مردم و مسئولین اثر بذارن.
یه نکته جالب اینه که توی تحقیقشون پنج مدل یا گروه مختلف از این روایتهای دستکاریشده رو پیدا کردن. مثلاً بعضیاش مخصوص تحت تاثیر قرار دادن سیاستمدارای بینالمللی بود، بعضیا واسه مردم غرب (اروپا و آمریکا) و بعضیا هم واسه خود مردم روسیه. هر گروه هم روی یه نقطه ضعف ذهنی خاص دست میذاره. خلاصه بخوام بگم، میدونن هر آدم یا گروه چه جایی آسیبپذیره و دقیقاً همونو هدف میگیرن.
اما محققای این مقاله اعتراف کردن که این مدل تحلیلها یه سری چالش هم داره. مثلاً استفاده از هوش مصنوعی همیشه دوطرفهست (Dual-use Potential)؛ یعنی هم میتونه کمک کنه روایت دستکاری رو شناسایی کنی، هم میتونی باهاش چیزای مخرب درست کنی! تازه پیدا کردن اینکه واقعاً بین این روایتها و تصمیمات مردم یا دولتها رابطه مستقیمی هست یا نه، همیشه راحت نیست.
با این حال، نتایج این کار چندتا دستاورد مهم داره:
- نشون داده که تهدید هستهای یکی از حربههای استراتژیک تو جنگ روایتهاست، مخصوصاً نزدیک رویدادهای بینالمللی.
- یه مدل جدید برای تحلیل با ترکیب خوشهبندی معنایی (Semantic Clustering یعنی دستهبندی پیامهایی که معنای مشابه دارن) و استفاده از هوش مصنوعی ارائه کرده که میتونه به شکل زنده اطلاعات خطرناک رو رصد کنه.
- یه سری راهکار عملی هم پیشنهاد داده، مثل همکاری بین کشورها و قویتر کردن قوانین و ابزارهای دیجیتال برای مقابله با جنگ روایت و تاثیر روانیِ مخربش روی مردم.
در کل، اگه دوست داری بدونی پشت بعضی از خبرها و پیامهایی که تو اینستا یا تلگرام میبینی چه بازیهای ذهنیای وجود داره، این مطالعه خیلی خوب نشون میده که چطور با تکنولوژی و هوش مصنوعی میتونن سر بزنگاه توجه و احساسات ما رو ببرن به سمت و سویی که میخوان.
پس دفعه بعد که خبری خوندی که بیش از حد داره احساست رو قلقلک میده یا میترسونی، یه کم با شک و تردید نگاهش کن! چون ممکنه بخشی از همین جنگ شناختی باشه که کلی آدم روش کار کردن که تو و من رو دست بندازن.
منبع: +