چطوری با کمک هوش مصنوعی قوی، فحاشی و مزاحمت‌های آنلاین رو توی دایرکت اینستاگرام شناسایی و جواب بدیم؟!

Fall Back

خب بذار از یه مشکلی شروع کنیم که خیلیامون باهاش برخورد کردیم: فحاشی و آزار و اذیت آنلاین. این موضوع واقعاً تو فضای مجازی خیلی شایع شده، هم تو کامنت‌های شبکه‌های اجتماعی و هم تو دایرکتا. ولی بیشتر تحقیقاتی که تا حالا انجام دادن، فقط روی فحاشی‌هایی که همه می‌تونن ببینن (یعنی پست‌ها و کامنت‌های عمومی) تمرکز داشتن. کسی خیلی سراغ پیام‌های خصوصی نرفته بود!

ولی حالا تصور کن توی دایرکت اینستاگرام، آدما پیام‌های آزاردهنده دریافت کنن و هیچ سیستمی درست و حسابی نباشه که بتونه این پیام‌ها رو اتوماتیک تشخیص بده یا جواب مناسبی بده. اینجاست که یه تیم باحال اومده و از Large Language Models یا همون مدل‌های زبون‌فهم بزرگ (مثلاً ChatGPT، ابزارای قوی هوش مصنوعی که می‌تونن متن بخونن و تولید کنن) استفاده کرده تا این مشکل رو حل کنن.

داستان اینطوریه: اول اومدن یه تیم از آدم‌های واقعی رو استخدام کردن تا کلی پیام دایرکت اینستاگرام رو بخونن و اونایی که توش آزار و اذیت بود رو برچسب بزنن. منظور از برچسب زدن اینه که مشخص کنن چه پیامی فحاشیه، چه پیامی نه. خب این کار واقعاً زمان‌بر و گرونه.

اینا اومدن مدل زبون بزرگشون رو آموزش دادن که خودش همون کار رو اتوماتیک انجام بده! یعنی دیگه نیازی نباشه همیشه آدم واقعی بشینه بخونه. جالبیش اینه که مدل هوش مصنوعی اینا فقط متن رو نمی‌بینه، بلکه گفت‌وگوها و پیام‌های قبلش رو هم بررسی می‌کنه تا بفهمه دقیقاً جریان از چه قراره. مثلاً یه جوک وسط دعوا می‌تونه فحاشی باشه یا نباشه، بستگی به قبل و بعدش داره.

بعد از این مرحله، اومدن مقایسه کردن ببینن که هوش مصنوعی چقدر مثل آدمیزاد داره درست تشخیص میده. نتیجه؟ مدلشون واقعاً خوب عمل کرده و تونسته فحاشی‌ها رو تو این پیامای خصوصی پیدا کنه.

ولی خب فقط تشخیص مزاحمت کافی نیست! قدم بعدیشون این بود که ببینن هوش مصنوعی می‌تونه جواب درست و مفیدی هم به این آزاردهنده‌ها بده یا نه. یعنی وقتی یکی پیام آزاردهنده فرستاد، مدل یه پاسخ مناسب و پخته بسازه که هم اوضاع رو آروم کنه، هم به اون کسی که اذیت شده کمک کنه حس بهتری داشته باشه.

در نهایت، یه مقایسه باحال انجام دادن؛ یعنی جواب‌هایی که مدل هوش مصنوعی تولید می‌کرد رو با جواب‌های واقعی آدما با هم مقایسه کردن. چی شد؟ جوابای شبیه‌سازی شده‌ی مدل، از نظر کمک‌رسانی و مفید بودن، حتی بهتر از جواب‌های واقعی بودن!

خلاصه اگر بخوایم قضیه رو جمع‌بندی کنیم، این تیم نشون دادن که امروزه با تکنولوژی مدل‌های زبون‌فهم بزرگ، میشه خیلی هوشمندانه‌تر و سریع‌تر آزار و اذیت‌های آنلاین، مخصوصاً تو دایرکت‌ها و پیام‌های خصوصی، رو هم شناسایی کرد، هم جواب مناسب بهشون داد. این می‌تونه یه قدم بزرگ واسه امنیت و حس خوب کاربران تو فضای مجازی باشه. مخصوصاً برای جاهایی مثل اینستا که خیلی از آدما حوصله یا انرژی بحث و جواب دادن ندارن!

راستی مدل زبون بزرگ یا همون Large Language Model، یعنی یه جور هوش مصنوعی که کلی متن خونده و می‌تونه معنی جملات رو بفهمه و حتی خودش متن‌های جدید و منطقی بنویسه. این یاروها تو زمینه ساخت چت‌بات، فیلتر محتوا، یا حتی کمک به حل مشکلات اجتماعی مثل فحاشی آنلاین خیلی کارآمدن.

در کل، هوش مصنوعی اومده که فقط سرعت نشون بده یا سرگرم کنه نه؛ داره کم‌کم تبدیل میشه به یه سپر دفاعی واقعی برای دنیای آنلاین ما!

منبع: +