مدل‌های جدید و جمع‌وجور OpenAI اومدن با AWS همکاری کنن، رقیب DeepSeek باشن!

خب رفقا، این روزا بازار هوش مصنوعی حسابی داغه و OpenAI هم عقب نمونده! تازگیا دوتا مدل جدید معرفی کرده به اسم gpt-oss-120B و gpt-oss-20B که اومدن دست به دست هم بدن تا با مدل‌هایی مثل DeepSeek-R1 و کلی مدل زبان بزرگ یا همون LLMها (که یعنی مدل‌هایی که حجم زیادی داده خوندن و می‌تونن متن تولید کنن یا بفهمن) رقابت کنن.

حالا این دوتا مدل چه ویژگی خاصی دارن؟ اول اینکه حسابی جمع‌وجورن! مدل ۱۲۰B فقط با یه کارت گرافیک ۸۰ گیگابایتی اجرا میشه و اون یکی، یعنی ۲۰B، حتی روی سیستم‌هایی که فقط ۱۶ گیگ رم دارن هم راه می‌افته. یعنی حتی جاهایی که زیرساخت درست‌حسابی ندارن هم می‌تونن از این هوش مصنوعی استفاده کنن. بهش می‌گن edge use case؛ یعنی کاربردهایی که تو محل خود کاربر اجرا میشه و لازم نیست حتما به دیتا سنترهای بزرگ وصل باشن.

OpenAI خودش گفته این مدل‌ها تو منطق و قدرت تحلیل عالی عمل می‌کنن و حتی می‌تونن با مدل o4-mini خودش رقابت کنن یا بهتر باشن! البته کسی بیرون شرکت هنوز این مدعا رو تست نکرده، پس باید منتظر باشیم که ببینیم تو کارهای متنوع واقعا چه گُلی به سرمون می‌زنن!

نکته باحال دیگه‌شون در مورد لایسنس یا همون مجوز استفاده‌شونه؛ این‌بار OpenAI مدل‌ها رو با لایسنس Apache 2.0 منتشر کرده (این نوع مجوز یعنی هرکسی می‌تونه از کد و مدل استفاده کنه، حتی تو جاهایی که قوانین داده خیلی سختگیرانه‌س). این باعث میشه توسعه‌دهنده‌ها و شرکت‌ها به راحتی بتونن مدل‌ها رو امتحان کنن یا تو جاهایی که امنیت داده مهمه، استفاده‌شون کنن.

یه اتفاق مهم اینه که این مدل‌ها برای اولین بار روی سرویس‌های ابری AWS مثل Amazon Bedrock و SageMaker هم قابل استفاده شدن. AWS هم یکی از غول‌های پردازش ابریه، یعنی کلی شرکت و سازمان همین الان رو سرویس‌های آمازون دارن کار می‌کنن. یکپارچه شدن این مدل‌ها با AWS باعث میشه ساختن دستیارهای هوشمند و نرم‌افزارهای مبتنی بر هوش مصنوعی راحت‌تر باشه و حتی بهشون امکان ساخت Agent میده، یعنی هوش مصنوعی‌ای که کارهای پیچیده چندمرحله‌ای انجام بده.

این مدل‌ها مخصوص کساییه که دنبال کارای مثل برنامه‌نویسی خودکار (مثلاً کد زدن با هوش مصنوعی)، تحلیل علمی، حل مسئله‌های چندمرحله‌ای یا حتی پشتیبانی فنی و آنالیز اسناد طولانی هستن. جالب‌تر اینکه ۱۲۸ هزار توکن هم کانتکست داره؛ یعنی می‌تونن متن‌های خیلی طولانی رو به خاطر بسپارن و بررسی کنن (تو مدل‌های قبلی عموماً ظرفیت حافظه پایین‌تر بود).

برای برنامه‌نویس‌ها و توسعه‌دهنده‌ها هم کلی راحتی آورده؛ روی ابزارهایی مثل vLLM و llama.cpp (اینا چارچوب‌هایی‌ان که مدل‌های هوش مصنوعی رو اجرا می‌کنن) و همچنین Hugging Face هم میشه این مدل‌ها رو آورد و برد بالا. تازه، امکاناتی مثل Guardrails هم هست (Guardrails یعنی سازوکارهایی برای کنترل امنیت و اخلاق استفاده از مدل)، و قول دادن امکانات بیشتری مثل اضافه کردن مدل‌های سفارشی و پایگاه دانش هم بهش اضافه کنن.

در کل این حرکت OpenAI یه تیر دو نشونه‌ست: هم خودش رو تو بازار مدل‌های باز (Open-weight models یعنی مدل‌هایی که وزن‌هاشون رو هم منتشر می‌کنن و همه می‌تونن استفاده کنن) قوی نشون میده و هم خودش رو بیشتر به آمازون گره می‌زنه که سلطان زیرساخت ابریه.

یه جمع‌بندی باحال: اگه دنبال مدل‌های کوچک، منعطف و قابل استفاده تو محیط‌های با محدودیت منابع هستین، یا تو زمینه‌هایی کار می‌کنین که امنیت داده و اطمینان از مجوز مهمه، این مدل‌های جدید OpenAI می‌تونن حسابی به درد بخورن – البته باید کم‌کم منتظر بررسی‌ها و تست‌های واقعی هم باشیم که ببینیم تو دنیای واقعی چه کاره‌ان! 😉

منبع: +