اگه دنبال اخبار دنیای هوش مصنوعی باشی، احتمالاً شنیدی که گوگل یه مدل جدید واسه دولوپرها (یعنی برنامهنویسها و آدمایی که با کدنویسی سر و کار دارن) ساخته بود به اسم Gemma. حالا داستان از این قراره که گوگل مجبور شد این مدل رو از پلتفرمش بیرون بکشه، اونم بعد از اینکه یه سناتور آمریکایی حسابی بهشون گیر داد!
ماجرا چیه؟ سناتور مارشا بلکبرن (که از ایالت تنسی آمریکا هست) یه نامه حسابی تند به مدیرعامل گوگل، سوندار پیچای نوشت و گفت Gemma یه جواب خیلی عجیب و غیردقیق بهش داده. مثلاً یکی از کاربرا اومده بود از این مدل پرسیده بود: «آیا مارشا بلکبرن به جرم تجاوز متهم شده؟» و هوش مصنوعی گوگل نه تنها گفته بود آره، بلکه با کلی جزئیات داستانی ساختگی و حتی آدرس مقالههای تقلبی هم روش گذاشته بود! یعنی هم یه داستان دروغ ساخت، هم لینکهای فیک داد تا قضیه رو واقعی نشون بده! (اینجا منظور از hallucination تو هوش مصنوعی همین ساختن اطلاعات اشتباه یا خیالی هست؛ یه جور «توهم» که مدل بهش دچار میشه و چیزهایی رو که هیچوقت اتفاق نیفتاده تحویل آدم میده.)
بلکبرن هم تو نامهش به گوگل گفت: «این دیگه اشتباه ساده نیست، این یه تهمت خیلی جدی و افتراست که با مدل هوش مصنوعی شما پخش شده!» و حتی این موضوع رو تو جلسهی سنا هم عنوان کرد. خب این موضوع نشون میده که هوش مصنوعیها میتونن چه دردسرهایی بسازن، مخصوصاً وقتی مدلهایی رو که قرار نیست با عموم کار کنن، یه سری غیردولوپر هم دستشون بیافته.
حالا اصلاً Gemma چی بود؟ این یه مدل کمحجمتر و جمع و جورتر نسبت به مدل اصلی گوگل یعنی Gemini بود که گزینه سبکتری مخصوص دولوپرها و محققها محسوب میشد. هدفش این بود که توسعهدهندهها بتونن برنامهها و ابزارهای تستی بسازن، نه اینکه بیاد جواب سوالهای حساسی مثل این رو بده. گوگل مدام تاکید کرده بود که Gemma اصلاً و ابداً واسه استفاده عمومی یا چت کردن با کاربرهای معمولی ساخته نشده؛ حتی تو سایت AI Studio – که یه محیط برنامهنویسی آنلاین گوگله – برای استفاده باید تیک مخصوص توسعهدهنده بودن رو میزدی.
اما خب، معلوم شد یه عده استفاده عمومی ازش داشتن و سوالای کلی و حتی شخصی ازش میپرسیدن! اونم نه با هدف تست برنامه، بلکه مثل یه چتبات یا دستیار هوشمند. نتیجهاش همین شد که یه مدل تستی وارد بازی اطلاعات عمومی شد و به شدت سوتی داد! حالا گوگل رسماً اعلام کرد که دیگه Gemma رو تو AI Studio عرضه نمیکنه و فقط کسایی که برنامهنویس حرفهای هستن میتونن از طریق API (یعنی روش برنامهنویسی ارتباطی بین نرمافزارها؛ مثل یه پل ارتباطی بین دوتا برنامه) بهش دسترسی داشته باشن. دیگه خبری از اون رابط چتباتی تو سایت گوگل نیست.
این سوتی نشون داد چرا باید فرق مدلهایی که فقط واسه تحقیق و تست ساختن رو با مدلهایی که قرار هست جواب واقعی و درست بدن، بدونیم. Gemma اصلاً برای اینکه جواب دادههای واقعی مثل مشخصات بیوگرافی افراد بده طراحی نشده بود و منبع اطلاعات دقیق هم نداشت؛ یعنی دادههایی که روش آموزش دیده بود اصلاً برای این کار کافی و قابل اعتماد نبود.
واقعیت اینه که حتی مدلهایی که برای مکالمه و جواب دادن به سوالات مردم ساخته شدن – مثل همین ChatGPT یا Gemini – هم بعضی وقتا دچار hallucination و اشتباههای عجیب میشن و چیزهای ساختگی میسازن. اصلاً تو این یکی دو سال اخیر دیدیم که هوش مصنوعیها با اعتمادبهنفس کامل اشتباههای بزرگ کردن؛ از درست کردن مقاله حقوقی جعلی گرفته تا متهم کردن غلط دانشجوها به تقلب! اینا دلیل واضحیه که باید هم حواس برنامهنویسها جمعتر باشه، هم ابزارها و محدودیتهای سفتوسختتری تو این مدلها گذاشته بشه.
برای مردم عادی ماجرا فراتر از یه دعوای حقوقی و سناست، موضوع اعتماد و اطمینانه. اگه یه سیستم هوش مصنوعی از یه شرکت بزرگ به راحتی میتونه درباره یه سناتور اتهام درست کنه و حتی لینک جعلی بزنه، پس هرکس دیگهای هم ممکنه قربانی شه!
در نهایت، تا وقتی مردم بیشتر با نحوه کار و محدودیتهای مدلهای هوش مصنوعی آشنا نشن و تفاوت ابزار آزمایشی با راهکارهای واقعی رو ندونن، شرکتهای هوش مصنوعی مثل گوگل باید خودشون رو نه فقط برنامهنویس بلکه ناشر مسئول هم بدونن و از همون اول جلوی این سوتیها رو بگیرن.
خلاصه داستان اینه: هوش مصنوعی مثل چاقوی دو لبه است. هم میتونه خیلی کمک کنه، هم اگه به دست کسی بیفته که ندونه چطوری استفادهش کنه، میتونه قشنگ دردسر درست کنه!
منبع: +