هوش مصنوعی چطوری حرف‌های نفرت‌انگیز، اطلاعات غلط و سلامت روان رو تو شبکه‌های اجتماعی ردیابی می‌کنه؟

حتماً تاحالا دیدی که تو شبکه‌های اجتماعی کلی حرفای نفرت‌آمیز (یعنی حرفایی که باعث ناراحتی یا نفرت بین مردم می‌شن) یا اطلاعات غلط (همون چیزایی که درست نیستن ولی با اعتماد به نفس پخش می‌شن) منتشر می‌شن. همه اینا نه‌تنها باعث گسترش تعصب و تبعیض می‌شن، بلکه حتی بعضیا می‌گن ممکنه باعث بیشتر شدن خشونت و جرم تو جامعه، مخصوصاً تو آمریکا بشه.

حالا سوالی که مدت‌ها ذهن روان‌شناس‌ها رو مشغول کرده اینه که اصلاً چه ارتباطی بین این حجم از حرفای زشت یا اطلاعات غلطی که آدما تو دنیای مجازی می‌زنن، با وضعیت روحی و سلامت روان خودشون وجود داره؟ البته قبلاً یه کم تحقیق شده که آدمایی که چنین پست‌هایی می‌ذارن، بعضی ویژگی‌های شخصیتی خاص دارن، ولی دقیق نمی‌دونستیم که این حرفا و اطلاعات قلابی چقدر رو حال کلی و روان آدم‌ها تأثیر می‌ذاره یا از کجا میان.

یکی از مشکلات اساسی این بود که واقعاً داده‌ها خیلی زیاد و پیچیده‌س. یعنی اصلاً راحت نیست که بیای هزاران پست و کامنت تو شبکه‌هایی مثل Reddit رو همینجوری دستی بررسی کنی تا بفهمی پشت پرده‌شون چه خبره. Reddit خودش یه پلتفرم معروفه که می‌تونی توش درباره هر موضوعی با هر مدل آدمی بحث کنی. خلاصه برگامون ریخت وقتی فهمیدیم این حجم از دیتا رو باید تحلیل کنیم!

اما الان دیگه دنیای هوش مصنوعی و مدل‌های زبانی بزرگ مثل ChatGPT (همین ربات‌هایی که می‌تونن مثل آدم ها حرف بزنن و از پس کلی کار بر بیان) اومدن وسط. این مدل‌ها کلاً کل فضای آنلاین رو عوض کردن. مثلا تو همین تحقیق، دانشمندها اومدن و کلی پست از چندتای از این انجمن‌های خاص Reddit رو جمع کردن و بعد به کمک مدل GPT-3 (یه مدل زبانی خیلی قوی از شرکت OpenAI که مغزش حسابی گنده‌س!) این پست‌ها رو تبدیل به چیزی کردن که بهش می‌گن embedding. اگه embedding رو نمی‌شناسی: داستانش اینه که اینا یه جور عدد و رقم‌هایی هستن تو فضای چندبُعدی که معنای مخفی پست‌ها رو ذخیره می‌کنن؛ یعنی مدل واقعاً سعی می‌کنه بفهمه متن چه حالی داره یا چه مفهومی رو منتقل می‌کنه.

بعدش اومدن با کلی ترفند یادگیری ماشین (همین الگوریتمای هوشمندی که از تجربه یاد می‌گیرن چی به چیه!) این embeddingها رو بررسی کردن. هدف؟ بفهمن حرفای نفرت‌آمیز یا اطلاعات غلط چه الگوهایی دارن و چطوری با بقیه جامعه یا پست‌های انجمن‌های مختلف فرق دارن.

به اینجا که رسیدن، یه تکنیک توپ‌تر استفاده کردن: تحلیل توپولوژیک داده‌ها (Topological Data Analysis یا همون TDA که یه جور روش تصویری برای پیدا کردن ارتباطای مخفی و ساختارهای پیچیده بین داده‌هاست). خلاصه با این روش تونستن یه نقشه تصویری ـ شبیه نقشه ذهنی ـ بکشن که نشون بده چطوری حرفای نفرت‌آمیز، اطلاعات غلط، اختلالات روانی مختلف و حتی وضعیت سلامت روان کلّی آدمای مختلف به هم ربط پیدا می‌کنن.

در کل این تحقیق یه نگاه نو داد به این که چطور رفتارای آنلاین می‌تونن یه جورایی آیینه وضع روانی ما باشن. یعنی فقط بحث این نیست که کی چی می‌نویسه؛ بلکه بحث اینه که پشت همین متنای آنلاین، می‌شه رد پای سلامت روان یا حتی اختلالات روانی رو پیدا کرد. تازه قدرت مدل‌های جدید هوش مصنوعی رو هم نشون داد، چون واقعاً تحلیل این همه داده بدون اونا انگار نشدنی بود!

کلاً نتیجه اینه که با این روشای جدید و قدرتمند، می‌شه دنیای آنلاین رو بهتر بشناسیم، بفهمیم چه چیزایی به سلامت روانمون آسیب می‌زنن یا حتی چطور باید با موج اطلاعات غلط و حرفای نفرت‌انگیز مقابله کنیم. واقعاً تکنولوژی، وقتی باهوش میشه، می‌تونه کلی کمک کنه تا جامعه‌مون سالم‌تر و امن‌تر بشه.

منبع: +