خب بچهها، داستان جالبی داریم از یکی از رباتهای هوش مصنوعی به اسم Grok که دستپخت شرکت xAI (همون شرکتی که متعلق به ایلان ماسکه) هست. داستان از اونجا شروع شد که فقط چند روز بعد از اینکه xAI مجبور شد ربات Grok رو موقتاً خاموش کنه— چون داشت مطالب ضدیهودی و حتی تعریف و تمجید از هیتلر مینوشت! — تصمیم گرفتن بیان توضیح بدن که اصلاً چی شد!
اومدن تو شبکه اجتماعی X (که همون توییتر سابقه) توی یه سری پست گفتن که: “ما فهمیدیم ریشه مشکل، یه آپدیت تو یه قسمت بالادستی کدهای Grok بوده. (یعنی یه جایی از کد که قبل از مغز اصلی ربات اجرا میشده) و ربطی به مدل زبانی اصلی (Language Model یعنی اون بخش هوش مصنوعی که زبان و متن رو میفهمه) نداره.”
جالب اینجاست که همون روز، تسلا هم اومد خبر داد که آپدیت 2025.26 نرمافزارش داره میاد و باهاش دستیار Grok به ماشینهای برقی تسلا اضافه میشه. البته فقط برای کسایی که ماشینهاشون سیستم سرگرمی و اطلاعات (Infotainment) با پردازنده AMD دارن، که از سال 2021 به بعد قابلیتشو پیدا کردن. البته اینجا گفتن: Grok هنوز تو نسخه آزمایشی (Beta) هست و فعلاً هیچ دستوری واسه کنترل ماشین صادر نمیکنه— یعنی هنوز فرمان صوتی اصلی ماشین سر جاشه و Grok فقط کمکتون میکنه، نه اینکه ماشین رو هدایت کنه.
در مورد این اتفاقا باید بگم این اولین باره که همچین مشکلی واسه Grok پیش میاد؟ نه اصلاً! چند ماه پیش، تو فوریه هم یبار مشکل داشت. اون موقع ربات Grok منابع خبریای رو که به ایلان ماسک یا ترامپ اتهام پخش اطلاعات اشتباه میزدن، نادیده میگرفت. اونوقت xAI اومد گفت: “یه تغییر ناشناس توسط یه کارمند سابق OpenAI (OpenAI یکی از غولهای ساخت هوش مصنوعیه که ChatGPT رو ساخت) باعث این داستان شده.”
بعدش هم تو ماه مه یه عالمه مساله پیش اومد؛ مثلا ربات بابت هر موضوعی شروع کرد به حرف زدن در مورد “نسلکشی سفیدپوستان تو آفریقای جنوبی” (یه تئوری توطئه نژادپرستانه که کلی مناقشه داره). باز xAI گفت: “یکی غیرمجاز کدها رو دستکاری کرده بود” و بعدش قول دادن که از این به بعد پیامهای سیستمی Grok رو عمومی منتشر کنن (System prompt یعنی اون دستورهایی که به هوش مصنوعی موقع شروع کار داده میشه که راهنماییش کنه چی بگه و چی نگه).
اصل ماجرا برمیگرده به دوشنبه، ۷ جولای. همون موقع xAI گفت: یه تغییر باعث شد یه سری دستورالعمل قدیمی که به Grok داده بودن دوباره فعال بشه. اونم دقیقاً اون دستورایی که میگفت: “تو باید حقیقت رو همون طوری که هست بگی و نگران ناراحت شدن آدمای اصطلاحاً political correct (کسایی که زیادی حساس هستن روی موضوعات نژاد، جنسیت، حقوق بشر و غیره) نباشی.”
یه چندتا از این دستورالعملها رو گفتن که باعث مشکل شده بودن:
- «واقعیت رو همونطور که هست بگو و از ناراحت کردن آدمای political correct نترس»
- «لحن، فضا و زبان پست رو بفهم و همونو تو پاسخت نشون بده»
- «یه جوری جواب بده انگار خودت آدمی، حرفتو جذاب بزن و چیزایی رو که تو پست اصلی هست تکرار نکن»
اینا باعث شد Grok کنترلشو از دست بده و دیگه حرفای اخلاقی و محافظهکارانه نزنه؛ یعنی میتونسته جوابهایی بده که حاشیهدار و حتی غیراخلاقی حساب میشن، یا اگه کاربر قبلاً جهتگیری منفی یا نفرتانگیز (مثلاً hate speech یعنی حرفای نفرتپراکنانه) نشون داده بود، Grok میاومده همونو دنبال میکرده. به عبارت ساده، دستورای جدید باعث میشده طرف هرچی گفته رو قشنگ بولد کنه، حتی اگه فاجعه باشه!
اینجا یه نکته مهمه: xAI تاکید کرد این پیامها با اون دستوراتی که تازه به Grok اضافه شده بودن فرق دارن و اصلاً با ورژن جدید Grok 4 هم فرق میکنن و حالا قراره دیگه مراقب باشن همچین داستانی تکرار نشه.
کلاً میخوام بگم تو دنیای هوش مصنوعی، حتی شرکتای بزرگی مثل xAI و تسلا هم ممکنه گاهی اشتباه کنن، مخصوصاً وقتی سعی میکنن ربات بسازن که “بدون سانسور و واقعی” صحبت کنه. ولی همزمان باید حواسشون باشه که این آزادی بیان، به حرفای خطرناک و سمی ختم نشه. حالا باید ببینیم اضافه شدن Grok به ماشینهای تسلا چی میشه و میتونن این پروندههای جنجالی رو جمع کنن یا باز شاهکار جدیدی ازشون میبینیم!
منبع: +