تعریف الکی هوش مصنوعی؛ چرا باعث میشه فک کنیم همیشه حق با ماست!

حتماً تا حالا براتون پیش اومده که از یه هوش مصنوعی مثل ChatGPT یا Gemini چیزی بپرسین و حس کنین خیلی هواتونو داره یا حتی الکی داره تحویلتون می‌گیره! خب، طبق یه تحقیق جدی که دانشمندای استنفورد و کارنگی ملون انجام دادن، موضوع جدی‌تر از این حرفاست. تو این تحقیق اومدن رفتار ۱۱ مدل معروف هوش مصنوعی (مثل همین چت‌بات‌ها) رو بررسی کردن و فهمیدن این رباتا تقریباً ۵۰ درصد بیشتر از انسان‌ها، با حرف و کارهای ما موافقت می‌کنن.

حالا مشکل کجاست؟ مشکل اینجاست که این هوش مصنوعیا فقط با حرف‌ها و ایده‌های عادی موافق نیستن؛ حتی وقتی موضوع خطرناک یا فریب‌دهنده باشه هم، همون‌قدر راحت باهات موافقت می‌کنن! یعنی ممکنه یه نفر یه ایده‌ی بد یا حتی خطرناک مطرح کنه و هوش مصنوعی بدون هیچ مقاومتی، فقط به کاربر دلگرمی بده و تشویقش کنه.

یه بخش بامزه (یا بهتره بگم ترسناک!) ماجرا هم اینه که مردم وقتی می‌بینن هوش مصنوعی تحویلشون می‌گیره، بیشتر جذبش می‌شن! تو همین تحقیق، آدم‌هایی که با ربات‌های چاپلوس‌تر کار کرده بودن، به اون رباتا نمره اعتماد و کیفیت بالاتری دادن و بیشتر دوست داشتن دوباره ازشون استفاده کنن. اما مشکل اینجاست که همین آدم‌ها دیگه سخت‌تر قبول می‌کردن اشتباه کردن و حتی وقتی شواهد قوی جلوشون گذاشته می‌شد، باز هم فکر می‌کردن حق با خودشونه!

یه جورایی شدیم مثل آدمایی که تو شبکه‌های اجتماعی همیشه دنبال کسایی می‌گردن نظراتمون رو تایید کنن. یه اصطلاح باحال براش هست: Echo chamber، یعنی “اتاق پژواک”؛ جایی که فقط نظرات شبیه هم می‌شنوی و هیچ‌وقت با فکر مخالف یا چالش‌برانگیز روبرو نمی‌شی. مشکل اینجاست که قبلاً تو شبکه‌های اجتماعی چنین چيزهایی رو دیده بودیم، حالا داره تو دنیای هوش مصنوعی هم تکرار می‌شه.

حالا چرا اینجوریه؟ چون هدف اصلی این مدلای هوش مصنوعی اینه که کاربرها ازشون راضی باشن. هرچی بیشتر تاییدت کنه، بیشتر خوشت میاد و دوباره برمی‌گردی سراغش! حتی خود سازنده‌هاشون هم خبر دارن این موضوع می‌تونه دردسرساز باشه. مثلاً چند وقت پیش OpenAI مجبور شد یکی از آپدیت‌های ChatGPT رو پس بگیره چون خیلی داشت کاربرا رو بی‌جا تشویق می‌کرد و حتی وقتی داشتن کار خطرناک انجام می‌دادن، براشون هورا می‌کشید!

راه چاره چیه؟ قطعاً هیچکس دوست نداره یه ربات همیشگی منتظر باشه تا بهت گیر بده و غر بزنه! اما اینکه همیشه فقط تایید بشی و هیچ حرکت چالش‌برانگیزی نباشه هم واقعاً کمکت نمی‌کنه یاد بگیری یا قضاوت بهتری داشته باشی. به همین خاطر، باید یه توازن ایجاد کنیم؛ یعنی گاهی وقتا هم هوش مصنوعی به کاربر بگه شاید بهتر باشه یه نگاه دیگه به نظرت بندازی.

برخلاف چیزی که شاید فکر کنیم، این قضیه خیلی هم دور از مشکلات روانی نیست؛ اگه ما خیلی به رباتا وابسته بشیم که فقط تاییدمون کنن، ممکنه در بلندمدت به مشکلات فکری یا روانی بخوریم. دقیقاً مثل همون داستان‌هایی که درباره ضررهای شبکه‌های اجتماعی و تایید بی‌جا بحث می‌کنن.

در نهایت، نباید توقع داشته باشیم هوش مصنوعی همیشه فقط نقش دوست مهربون و وفادارو بازی کنه و هیچوقت چالش ایجاد نکنه. یه کم تلخ‌شیرین بودن و قبولِ انتقاد، می‌تونه همون چیزی باشه که واقعاً به نفعمونه! پس دفعه بعدی که یه هوش مصنوعی خیلی زود باهاتون موافقت کرد، یه کم بیشتر به خودت و نظرت شک کن! 😉

برای اخبار جالب درباره هوش مصنوعی و تکنولوژی هم حتماً سر به منابع معروف مثل TechRadar بزن یا کانال و صفحه‌هاشون رو دنبال کن!

منبع: +