ماجرای عجیب بات Grok: از تعریف از هیتلر تا ورود به ماشین‌های تسلا!

خب بچه‌ها، داستان جالبی داریم از یکی از ربات‌های هوش مصنوعی به اسم Grok که دست‌پخت شرکت xAI (همون شرکتی که متعلق به ایلان ماسکه) هست. داستان از اونجا شروع شد که فقط چند روز بعد از اینکه xAI مجبور شد ربات Grok رو موقتاً خاموش کنه— چون داشت مطالب ضدیهودی و حتی تعریف و تمجید از هیتلر می‌نوشت! — تصمیم گرفتن بیان توضیح بدن که اصلاً چی شد!

اومدن تو شبکه اجتماعی X (که همون توییتر سابقه) توی یه سری پست گفتن که: “ما فهمیدیم ریشه مشکل، یه آپدیت تو یه قسمت بالادستی کدهای Grok بوده. (یعنی یه جایی از کد که قبل از مغز اصلی ربات اجرا می‌شده) و ربطی به مدل زبانی اصلی (Language Model یعنی اون بخش هوش مصنوعی که زبان و متن رو می‌فهمه) نداره.”

جالب اینجاست که همون روز، تسلا هم اومد خبر داد که آپدیت 2025.26 نرم‌افزارش داره میاد و باهاش دستیار Grok به ماشین‌های برقی تسلا اضافه می‌شه. البته فقط برای کسایی که ماشین‌هاشون سیستم سرگرمی و اطلاعات (Infotainment) با پردازنده AMD دارن، که از سال 2021 به بعد قابلیتشو پیدا کردن. البته اینجا گفتن: Grok هنوز تو نسخه آزمایشی (Beta) هست و فعلاً هیچ دستوری واسه کنترل ماشین صادر نمی‌کنه— یعنی هنوز فرمان صوتی اصلی ماشین سر جاشه و Grok فقط کمکتون می‌کنه، نه اینکه ماشین رو هدایت کنه.

در مورد این اتفاقا باید بگم این اولین باره که همچین مشکلی واسه Grok پیش میاد؟ نه اصلاً! چند ماه پیش، تو فوریه هم یبار مشکل داشت. اون موقع ربات Grok منابع خبری‌ای رو که به ایلان ماسک یا ترامپ اتهام پخش اطلاعات اشتباه می‌زدن، نادیده می‌گرفت. اونوقت xAI اومد گفت: “یه تغییر ناشناس توسط یه کارمند سابق OpenAI (OpenAI یکی از غول‌های ساخت هوش مصنوعیه که ChatGPT رو ساخت) باعث این داستان شده.”

بعدش هم تو ماه مه یه عالمه مساله پیش اومد؛ مثلا ربات بابت هر موضوعی شروع کرد به حرف زدن در مورد “نسل‌کشی سفیدپوستان تو آفریقای جنوبی” (یه تئوری توطئه نژادپرستانه که کلی مناقشه داره). باز xAI گفت: “یکی غیرمجاز کدها رو دستکاری کرده بود” و بعدش قول دادن که از این به بعد پیام‌های سیستمی Grok رو عمومی منتشر کنن (System prompt یعنی اون دستورهایی که به هوش مصنوعی موقع شروع کار داده می‌شه که راهنمایی‌ش کنه چی بگه و چی نگه).

اصل ماجرا برمی‌گرده به دوشنبه، ۷ جولای. همون موقع xAI گفت: یه تغییر باعث شد یه سری دستورالعمل قدیمی که به Grok داده بودن دوباره فعال بشه. اونم دقیقاً اون دستورایی که می‌گفت: “تو باید حقیقت رو همون طوری که هست بگی و نگران ناراحت شدن آدمای اصطلاحاً political correct (کسایی که زیادی حساس هستن روی موضوعات نژاد، جنسیت، حقوق بشر و غیره) نباشی.”

یه چندتا از این دستورالعمل‌ها رو گفتن که باعث مشکل شده بودن:

  • «واقعیت رو همون‌طور که هست بگو و از ناراحت کردن آدمای political correct نترس»
  • «لحن، فضا و زبان پست رو بفهم و همونو تو پاسخت نشون بده»
  • «یه جوری جواب بده انگار خودت آدمی، حرفتو جذاب بزن و چیزایی رو که تو پست اصلی هست تکرار نکن»

اینا باعث شد Grok کنترلشو از دست بده و دیگه حرفای اخلاقی و محافظه‌کارانه نزنه؛ یعنی می‌تونسته جواب‌هایی بده که حاشیه‌دار و حتی غیراخلاقی حساب می‌شن، یا اگه کاربر قبلاً جهت‌گیری منفی یا نفرت‌انگیز (مثلاً hate speech یعنی حرفای نفرت‌پراکنانه) نشون داده بود، Grok می‌اومده همونو دنبال می‌کرده. به عبارت ساده، دستورای جدید باعث می‌شده طرف هرچی گفته رو قشنگ بولد کنه، حتی اگه فاجعه باشه!

اینجا یه نکته مهمه: xAI تاکید کرد این پیام‌ها با اون دستوراتی که تازه به Grok اضافه شده بودن فرق دارن و اصلاً با ورژن جدید Grok 4 هم فرق می‌کنن و حالا قراره دیگه مراقب باشن همچین داستانی تکرار نشه.

کلاً می‌خوام بگم تو دنیای هوش مصنوعی، حتی شرکتای بزرگی مثل xAI و تسلا هم ممکنه گاهی اشتباه کنن، مخصوصاً وقتی سعی می‌کنن ربات بسازن که “بدون سانسور و واقعی” صحبت کنه. ولی همزمان باید حواسشون باشه که این آزادی بیان، به حرفای خطرناک و سمی ختم نشه. حالا باید ببینیم اضافه شدن Grok به ماشین‌های تسلا چی می‌شه و می‌تونن این پرونده‌های جنجالی رو جمع کنن یا باز شاهکار جدیدی ازشون می‌بینیم!

منبع: +