رویای عجیب سم آلتمن: می‌خواییم ۱۰۰ میلیون کارت گرافیک رو بندازیم به کار!

خب بچه‌ها، داستان از این قراره که سم آلتمن، مدیرعامل OpenAI (همون شرکتی که مثلاً ChatGPT رو ساخته)، این روزا رویاهای خیلی بزرگی تو سر داره! قضیه از این قراره که گفتن تا آخر سال ۲۰۲۵، می‌خوان بیش‌تر از یک میلیون GPU (کارت گرافیک، همون قطعه‌هایی که عموماً توی کامپیوترهای گیمینگ هم هستن و الان شده ابزار اصلی آموزش مدل‌های هوش مصنوعی) رو آنلاین داشته باشن و باهاش مدل‌های هوش مصنوعی‌شون رو آموزش بدن. جالبه بدونین الان هیچ‌کدوم از شرکت‌های رقیب حتی نزدیکش هم نیستن.

ولی خب این فقط شروعشه! سم آلتمن یه چیزی گفته که کله‌ی همه رو ترکونده: “می‌خوایم تا آینده نزدیک برسیم به ۱۰۰ میلیون GPU!”. یعنی اگه الان براتون سواله که مثلاً بزرگ‌ترین رقیباشون چند تا GPU دارن باید بگم مثلاً شرکت xAI ایلان ماسک، کل مدل Grok 4 (یه مدل هوش مصنوعی که داداشِ ChatGPT حساب میشه) رو با فقط ۲۰۰ هزار تا GPU راه انداخته. حالا از این نگاه کنین OpenAI که قراره به یک میلیون GPU برسه، یعنی ۵ برابر xAI! اما وقتی سم میگه ۱۰۰ میلیون، یعنی باید ۱۰۰ برابر این عدد فعلی کنه.

حالا خب بیایم واقع‌بین باشیم. اگه کسی واقعاً بخواد ۱۰۰ میلیون کارت گرافیک رو به کار بندازه، خرجش چقدر میشه؟ تقریباً ۳ تریلیون دلار! یعنی مبلغی که اصلاً بقیه شرکت‌ها تو خواب هم نمی‌بیننش. جدا از پولش، اصلاً تامین برق و تولید فیزیکی این همه کارت، خودش معضل بزرگیه. چون اگه واقعاً این تعداد کارت گرافیک رو بتونن رو پا نگه دارن، شاید حتی زیرساخت‌های برق دنیا هم تحمل نکنه! (یعنی برق دنیا رو می‌کشه پایین!)

آلتمن خودش هم خیلی شاد اینو نوشته: “خیلی به تیم‌مون افتخار می‌کنم ولی حالا باید برن حسابی کار کنن و ببینن چطوری میشه صد برابرش کنیم! خنده‌دار شده واقعا!”

حالا بریم سراغ اتفاقات فنی‌تر و شرکتی! OpenAI فعلاً بیشتر کاراش رو روی سرویس ابری آژور مایکروسافت انجام میده (ابر یعنی دیتاسنترها و سرویس‌هایی که سرورها و پردازش رو میدن دست شرکت‌ها). اما اونا دارن با Oracle هم همکاری می‌کنن و حتی دنبال اینن از شتاب‌دهنده‌های TPU گوگل استفاده کنن. (TPU یعنی شتاب‌دهنده‌هایی که مخصوص کار هوش مصنوعیه و توسط گوگل توسعه داده شدن. کارشون اینه که کارای هوش مصنوعی رو خیلی سریع و بهینه انجام بدن).

در واقع این کار نشون میده که OpenAI با ظرفیت فعلی سرویس‌های ابری خیلی حال نمی‌کنه و دنبال گزینه‌های بیشتریه. غیر از اونا، تو این حوزه شرکت‌های بزرگی مثل Meta (فیسبوک)، آمازون و خود گوگل هم دارن می‌رن سمت این که چیپ‌های مخصوص خودشونو بسازن و حافظه‌های قوی‌تری مثل HBM استفاده کنن. (HBM یعنی High-Bandwidth Memory، یه مدل حافظه خیلی سریع و با ظرفیت بالاست که کمک می‌کنه کارت گرافیک بتونه حجم زیادی داده رو خیلی سریع پردازش کنه)

یه شرکت کره‌ای به اسم SK Hynix خیلی تو این بازار داره سود می‌کنه چون هرچی نیاز به GPU بیشتر شه، نیاز به HBM هم بالاتر میره و اونا هم سازنده به‌روز این جور حافظه‌ها هستن. جالبه بدونین که حتی بعضی وقتا خودِ شرکت‌های سفارش‌دهنده مثل OpenAI میان و به SK Hynix میگن باید دقیقاً فلان مدل GPU یا HBM رو برامون بسازین! یعنی سفارشی‌سازی کامل.

لو رفت که پارسال رییس SK Group و مدیرعاملش با سم آلتمن جلسه زدن تا بیشتر تو زنجیره تامین سخت‌افزارهای مربوط به هوش مصنوعی نقش بازی کنن. این رابطه از قبلاً هم بوده؛ مثلاً SK Telecom (شرکت مخابراتی کره) قبل‌تر وارد رقابت جدی با ChatGPT شده بود و تو پروژه MIT GenAI Impact Consortium مشارکت داشتن (یعنی یه جمع از دانشگاه MIT و چندتا شرکت بزرگ که رو تاثیر هوش مصنوعی تو دنیا کار می‌کنن).

البته این گسترش عجیب OpenAI باعث نگرانی بعضی سرمایه‌گذارها هم شده. شنیده‌ها میگن حتی SoftBank (یه شرکت ژاپنی عظیم که کلی شرکت فناوری رو سرمایه‌گذاری می‌کنه) شاید سر سرمایه‌گذاریش تو OpenAI یه کم مکث کنه!

اما فقط پول نیست که مشکل ایجاد می‌کنه؛ حتی اگه سرمایه بیاد، باز این حجمی از کارت گرافیک و سرور نیاز به نوآوری‌های خیلی بزرگ تو راندمان انرژی، تولید قطعات، و کل زیرساخت برق جهانی داره. فعلاً بیشتر شبیه یه آرزو و پیام بلندپروازانه‌ست تا یه برنامه اجرایی واقعی. اما این آرزوها گاهی دنیا رو عوض می‌کنن!

خلاصه اگه یه روزی دیدی اینترنت کنده یا تو خیابون‌ها کم مونده تیر چراغ برق‌ها منفجر شه (!) بدون شاید OpenAI‌ داره رویاهاشو اجرایی می‌کنه! قراره هوش مصنوعی به جاهای عجیبی برسه، فقط باید دید این حجم از کارت گرافیک واقعاً عملی میشه یا نه.

منبع: +