گوگل مدل Gemma رو بعد از ماجرای عجیبی با یه سناتور آمریکایی جمع کرد!

اگه دنبال اخبار دنیای هوش مصنوعی باشی، احتمالاً شنیدی که گوگل یه مدل جدید واسه دولوپرها (یعنی برنامه‌نویس‌ها و آدمایی که با کدنویسی سر و کار دارن) ساخته بود به اسم Gemma. حالا داستان از این قراره که گوگل مجبور شد این مدل رو از پلتفرمش بیرون بکشه، اونم بعد از اینکه یه سناتور آمریکایی حسابی بهشون گیر داد!

ماجرا چیه؟ سناتور مارشا بلکبرن (که از ایالت تنسی آمریکا هست) یه نامه حسابی تند به مدیرعامل گوگل، سوندار پیچای نوشت و گفت Gemma یه جواب خیلی عجیب و غیردقیق بهش داده. مثلاً یکی از کاربرا اومده بود از این مدل پرسیده بود: «آیا مارشا بلکبرن به جرم تجاوز متهم شده؟» و هوش مصنوعی گوگل نه تنها گفته بود آره، بلکه با کلی جزئیات داستانی ساختگی و حتی آدرس مقاله‌های تقلبی هم روش گذاشته بود! یعنی هم یه داستان دروغ ساخت، هم لینک‌های فیک داد تا قضیه رو واقعی نشون بده! (اینجا منظور از hallucination تو هوش مصنوعی همین ساختن اطلاعات اشتباه یا خیالی هست؛ یه جور «توهم» که مدل بهش دچار میشه و چیزهایی رو که هیچ‌وقت اتفاق نیفتاده تحویل آدم میده.)

بلکبرن هم تو نامه‌ش به گوگل گفت: «این دیگه اشتباه ساده نیست، این یه تهمت خیلی جدی و افتراست که با مدل هوش مصنوعی شما پخش شده!» و حتی این موضوع رو تو جلسه‌ی سنا هم عنوان کرد. خب این موضوع نشون میده که هوش مصنوعی‌ها می‌تونن چه دردسرهایی بسازن، مخصوصاً وقتی مدل‌هایی رو که قرار نیست با عموم کار کنن، یه سری غیردولوپر هم دستشون بیافته.

حالا اصلاً Gemma چی بود؟ این یه مدل کم‌حجم‌تر و جمع و جورتر نسبت به مدل اصلی گوگل یعنی Gemini بود که گزینه سبکتری مخصوص دولوپرها و محقق‌ها محسوب میشد. هدفش این بود که توسعه‌دهنده‌ها بتونن برنامه‌ها و ابزارهای تستی بسازن، نه اینکه بیاد جواب سوال‌های حساسی مثل این رو بده. گوگل مدام تاکید کرده بود که Gemma اصلاً و ابداً واسه استفاده عمومی یا چت کردن با کاربرهای معمولی ساخته نشده؛ حتی تو سایت AI Studio – که یه محیط برنامه‌نویسی آنلاین گوگله – برای استفاده باید تیک مخصوص توسعه‌دهنده بودن رو می‌زدی.

اما خب، معلوم شد یه عده استفاده‌ عمومی ازش داشتن و سوالای کلی و حتی شخصی ازش میپرسیدن! اونم نه با هدف تست برنامه، بلکه مثل یه چت‌بات یا دستیار هوشمند. نتیجه‌اش همین شد که یه مدل تستی وارد بازی اطلاعات عمومی شد و به شدت سوتی داد! حالا گوگل رسماً اعلام کرد که دیگه Gemma رو تو AI Studio عرضه نمیکنه و فقط کسایی که برنامه‌نویس حرفه‌ای هستن می‌تونن از طریق API (یعنی روش برنامه‌نویسی ارتباطی بین نرم‌افزارها؛ مثل یه پل ارتباطی بین دوتا برنامه) بهش دسترسی داشته باشن. دیگه خبری از اون رابط چت‌باتی تو سایت گوگل نیست.

این سوتی نشون داد چرا باید فرق مدل‌هایی که فقط واسه تحقیق و تست ساختن رو با مدل‌هایی که قرار هست جواب واقعی و درست بدن، بدونیم. Gemma اصلاً برای اینکه جواب داده‌های واقعی مثل مشخصات بیوگرافی افراد بده طراحی نشده بود و منبع اطلاعات دقیق هم نداشت؛ یعنی داده‌هایی که روش آموزش دیده بود اصلاً برای این کار کافی و قابل اعتماد نبود.

واقعیت اینه که حتی مدل‌هایی که برای مکالمه و جواب دادن به سوالات مردم ساخته شدن – مثل همین ChatGPT یا Gemini – هم بعضی وقتا دچار hallucination و اشتباه‌های عجیب می‌شن و چیزهای ساختگی می‌سازن. اصلاً تو این یکی دو سال اخیر دیدیم که هوش مصنوعی‌ها با اعتمادبه‌نفس کامل اشتباه‌های بزرگ کردن؛ از درست کردن مقاله حقوقی جعلی گرفته تا متهم کردن غلط دانشجوها به تقلب! اینا دلیل واضحیه که باید هم حواس برنامه‌نویس‌ها جمع‌تر باشه، هم ابزارها و محدودیت‌های سفت‌وسخت‌تری تو این مدل‌ها گذاشته بشه.

برای مردم عادی ماجرا فراتر از یه دعوای حقوقی و سناست، موضوع اعتماد و اطمینانه. اگه یه سیستم هوش مصنوعی از یه شرکت بزرگ به راحتی می‌تونه درباره یه سناتور اتهام درست کنه و حتی لینک جعلی بزنه، پس هرکس دیگه‌ای هم ممکنه قربانی شه!

در نهایت، تا وقتی مردم بیشتر با نحوه کار و محدودیت‌های مدل‌های هوش مصنوعی آشنا نشن و تفاوت ابزار آزمایشی با راهکارهای واقعی رو ندونن، شرکت‌های هوش مصنوعی مثل گوگل باید خودشون رو نه فقط برنامه‌نویس بلکه ناشر مسئول هم بدونن و از همون اول جلوی این سوتی‌ها رو بگیرن.

خلاصه داستان اینه: هوش مصنوعی مثل چاقوی دو لبه است. هم می‌تونه خیلی کمک کنه، هم اگه به دست کسی بیفته که ندونه چطوری استفاده‌ش کنه، می‌تونه قشنگ دردسر درست کنه!

منبع: +