خب رفقا، این روزا بازار هوش مصنوعی حسابی داغه و OpenAI هم عقب نمونده! تازگیا دوتا مدل جدید معرفی کرده به اسم gpt-oss-120B و gpt-oss-20B که اومدن دست به دست هم بدن تا با مدلهایی مثل DeepSeek-R1 و کلی مدل زبان بزرگ یا همون LLMها (که یعنی مدلهایی که حجم زیادی داده خوندن و میتونن متن تولید کنن یا بفهمن) رقابت کنن.
حالا این دوتا مدل چه ویژگی خاصی دارن؟ اول اینکه حسابی جمعوجورن! مدل ۱۲۰B فقط با یه کارت گرافیک ۸۰ گیگابایتی اجرا میشه و اون یکی، یعنی ۲۰B، حتی روی سیستمهایی که فقط ۱۶ گیگ رم دارن هم راه میافته. یعنی حتی جاهایی که زیرساخت درستحسابی ندارن هم میتونن از این هوش مصنوعی استفاده کنن. بهش میگن edge use case؛ یعنی کاربردهایی که تو محل خود کاربر اجرا میشه و لازم نیست حتما به دیتا سنترهای بزرگ وصل باشن.
OpenAI خودش گفته این مدلها تو منطق و قدرت تحلیل عالی عمل میکنن و حتی میتونن با مدل o4-mini خودش رقابت کنن یا بهتر باشن! البته کسی بیرون شرکت هنوز این مدعا رو تست نکرده، پس باید منتظر باشیم که ببینیم تو کارهای متنوع واقعا چه گُلی به سرمون میزنن!
نکته باحال دیگهشون در مورد لایسنس یا همون مجوز استفادهشونه؛ اینبار OpenAI مدلها رو با لایسنس Apache 2.0 منتشر کرده (این نوع مجوز یعنی هرکسی میتونه از کد و مدل استفاده کنه، حتی تو جاهایی که قوانین داده خیلی سختگیرانهس). این باعث میشه توسعهدهندهها و شرکتها به راحتی بتونن مدلها رو امتحان کنن یا تو جاهایی که امنیت داده مهمه، استفادهشون کنن.
یه اتفاق مهم اینه که این مدلها برای اولین بار روی سرویسهای ابری AWS مثل Amazon Bedrock و SageMaker هم قابل استفاده شدن. AWS هم یکی از غولهای پردازش ابریه، یعنی کلی شرکت و سازمان همین الان رو سرویسهای آمازون دارن کار میکنن. یکپارچه شدن این مدلها با AWS باعث میشه ساختن دستیارهای هوشمند و نرمافزارهای مبتنی بر هوش مصنوعی راحتتر باشه و حتی بهشون امکان ساخت Agent میده، یعنی هوش مصنوعیای که کارهای پیچیده چندمرحلهای انجام بده.
این مدلها مخصوص کساییه که دنبال کارای مثل برنامهنویسی خودکار (مثلاً کد زدن با هوش مصنوعی)، تحلیل علمی، حل مسئلههای چندمرحلهای یا حتی پشتیبانی فنی و آنالیز اسناد طولانی هستن. جالبتر اینکه ۱۲۸ هزار توکن هم کانتکست داره؛ یعنی میتونن متنهای خیلی طولانی رو به خاطر بسپارن و بررسی کنن (تو مدلهای قبلی عموماً ظرفیت حافظه پایینتر بود).
برای برنامهنویسها و توسعهدهندهها هم کلی راحتی آورده؛ روی ابزارهایی مثل vLLM و llama.cpp (اینا چارچوبهاییان که مدلهای هوش مصنوعی رو اجرا میکنن) و همچنین Hugging Face هم میشه این مدلها رو آورد و برد بالا. تازه، امکاناتی مثل Guardrails هم هست (Guardrails یعنی سازوکارهایی برای کنترل امنیت و اخلاق استفاده از مدل)، و قول دادن امکانات بیشتری مثل اضافه کردن مدلهای سفارشی و پایگاه دانش هم بهش اضافه کنن.
در کل این حرکت OpenAI یه تیر دو نشونهست: هم خودش رو تو بازار مدلهای باز (Open-weight models یعنی مدلهایی که وزنهاشون رو هم منتشر میکنن و همه میتونن استفاده کنن) قوی نشون میده و هم خودش رو بیشتر به آمازون گره میزنه که سلطان زیرساخت ابریه.
یه جمعبندی باحال: اگه دنبال مدلهای کوچک، منعطف و قابل استفاده تو محیطهای با محدودیت منابع هستین، یا تو زمینههایی کار میکنین که امنیت داده و اطمینان از مجوز مهمه، این مدلهای جدید OpenAI میتونن حسابی به درد بخورن – البته باید کمکم منتظر بررسیها و تستهای واقعی هم باشیم که ببینیم تو دنیای واقعی چه کارهان! 😉
منبع: +