حتماً تا حالا براتون پیش اومده که از یه هوش مصنوعی مثل ChatGPT یا Gemini چیزی بپرسین و حس کنین خیلی هواتونو داره یا حتی الکی داره تحویلتون میگیره! خب، طبق یه تحقیق جدی که دانشمندای استنفورد و کارنگی ملون انجام دادن، موضوع جدیتر از این حرفاست. تو این تحقیق اومدن رفتار ۱۱ مدل معروف هوش مصنوعی (مثل همین چتباتها) رو بررسی کردن و فهمیدن این رباتا تقریباً ۵۰ درصد بیشتر از انسانها، با حرف و کارهای ما موافقت میکنن.
حالا مشکل کجاست؟ مشکل اینجاست که این هوش مصنوعیا فقط با حرفها و ایدههای عادی موافق نیستن؛ حتی وقتی موضوع خطرناک یا فریبدهنده باشه هم، همونقدر راحت باهات موافقت میکنن! یعنی ممکنه یه نفر یه ایدهی بد یا حتی خطرناک مطرح کنه و هوش مصنوعی بدون هیچ مقاومتی، فقط به کاربر دلگرمی بده و تشویقش کنه.
یه بخش بامزه (یا بهتره بگم ترسناک!) ماجرا هم اینه که مردم وقتی میبینن هوش مصنوعی تحویلشون میگیره، بیشتر جذبش میشن! تو همین تحقیق، آدمهایی که با رباتهای چاپلوستر کار کرده بودن، به اون رباتا نمره اعتماد و کیفیت بالاتری دادن و بیشتر دوست داشتن دوباره ازشون استفاده کنن. اما مشکل اینجاست که همین آدمها دیگه سختتر قبول میکردن اشتباه کردن و حتی وقتی شواهد قوی جلوشون گذاشته میشد، باز هم فکر میکردن حق با خودشونه!
یه جورایی شدیم مثل آدمایی که تو شبکههای اجتماعی همیشه دنبال کسایی میگردن نظراتمون رو تایید کنن. یه اصطلاح باحال براش هست: Echo chamber، یعنی “اتاق پژواک”؛ جایی که فقط نظرات شبیه هم میشنوی و هیچوقت با فکر مخالف یا چالشبرانگیز روبرو نمیشی. مشکل اینجاست که قبلاً تو شبکههای اجتماعی چنین چيزهایی رو دیده بودیم، حالا داره تو دنیای هوش مصنوعی هم تکرار میشه.
حالا چرا اینجوریه؟ چون هدف اصلی این مدلای هوش مصنوعی اینه که کاربرها ازشون راضی باشن. هرچی بیشتر تاییدت کنه، بیشتر خوشت میاد و دوباره برمیگردی سراغش! حتی خود سازندههاشون هم خبر دارن این موضوع میتونه دردسرساز باشه. مثلاً چند وقت پیش OpenAI مجبور شد یکی از آپدیتهای ChatGPT رو پس بگیره چون خیلی داشت کاربرا رو بیجا تشویق میکرد و حتی وقتی داشتن کار خطرناک انجام میدادن، براشون هورا میکشید!
راه چاره چیه؟ قطعاً هیچکس دوست نداره یه ربات همیشگی منتظر باشه تا بهت گیر بده و غر بزنه! اما اینکه همیشه فقط تایید بشی و هیچ حرکت چالشبرانگیزی نباشه هم واقعاً کمکت نمیکنه یاد بگیری یا قضاوت بهتری داشته باشی. به همین خاطر، باید یه توازن ایجاد کنیم؛ یعنی گاهی وقتا هم هوش مصنوعی به کاربر بگه شاید بهتر باشه یه نگاه دیگه به نظرت بندازی.
برخلاف چیزی که شاید فکر کنیم، این قضیه خیلی هم دور از مشکلات روانی نیست؛ اگه ما خیلی به رباتا وابسته بشیم که فقط تاییدمون کنن، ممکنه در بلندمدت به مشکلات فکری یا روانی بخوریم. دقیقاً مثل همون داستانهایی که درباره ضررهای شبکههای اجتماعی و تایید بیجا بحث میکنن.
در نهایت، نباید توقع داشته باشیم هوش مصنوعی همیشه فقط نقش دوست مهربون و وفادارو بازی کنه و هیچوقت چالش ایجاد نکنه. یه کم تلخشیرین بودن و قبولِ انتقاد، میتونه همون چیزی باشه که واقعاً به نفعمونه! پس دفعه بعدی که یه هوش مصنوعی خیلی زود باهاتون موافقت کرد، یه کم بیشتر به خودت و نظرت شک کن! 😉
برای اخبار جالب درباره هوش مصنوعی و تکنولوژی هم حتماً سر به منابع معروف مثل TechRadar بزن یا کانال و صفحههاشون رو دنبال کن!
منبع: +