یه خبر جنجالی دیگه از ایلان ماسک! این دفعه گفته برنامهش برای شرکت xAI اینه که تا سال ۲۰۳۰، قدرت محاسباتی معادل ۵۰ میلیون کارت گرافیک H100 انویدیا رو راه بندازه. حالا دقیقاً یعنی چی این عدد؟ بذار براتون توضیح بدم.
اول اینکه منظورش واقعاً ۵۰ میلیون عدد کارت گرافیک نیست! منظورش از این عدد، مقدار قدرت پردازش موردنیاز برای آموزش هوش مصنوعیه که میشه حدود ۵۰ ExaFLOPS. (ExaFLOPS یعنی یه واحد اندازهگیری قدرت کامپیوترها؛ هر ExaFLOPS برابر با یک کوینتیلیون محاسبه در ثانیهاس!) این مقدار قدرت، واقعاً آدمو یاد فیلمهای علمیتخیلی میندازه!
اگه همهش رو بخوایم با همین کارت گرافیک H100 انویدیا تامین کنیم، یعنی باید واقعاً ۵۰ میلیون عدد از این کارتها کنار هم بذاریم. البته ماسک گفته xAI قراره از سختافزارهای خیلی جدیدتر و پر بازدهتر هم استفاده کنه. مثلاً نسلهای جدید کارت مثل Blackwell یا Rubin و مخصوصاً معماری Feynman Ultra که هنوز نیومده؛ پیشبینی کردن که شاید فقط با ۶۵۰ هزار عدد از اینای جدید هم بشه به اون قدرت رسید! خلاصه قرار نیست واقعاً ۵۰ میلیون تا کارت بخرن.
xAI فعلاً حسابی تو فاز گسترش زیرساختاشه. بهطوریکه الان خوشون یه سامانه بزرگ به اسم Colossus 1 دارن که حدود دویست هزار کارت H100 و H200 (هر دو مدل کارت هوش مصنوعی انویدیا) و سی هزار تا کارت Blackwell (مدل نوترین انویدیا) توشه! اگه فکر میکنی این زیاده، باید بدونی Colossus 2 هم تو راهه و قراره با بیش از یک میلیون کارت هوش مصنوعی بیاد وسط، که از این تعداد، ۵۵۰ هزار تا هم اون کارتهای باحال GB200 و GB300هستن. (کلاً این اعداد و اسامی برای بچههای علاقهمند به سختافزار خیلی هیجانانگیزه!)
حالا چرا همه از H100 حرف میزنن؟ چون این مدل کارت، تو جامعهی هوش مصنوعی شده یه جور استاندارد مرجع؛ هم از نظر آزمایشها، هم پروژههای واقعی. برای همین معمولاً همه قدرتها رو نسبت به این میسنجن و میگن مثلاً فلانقدر H100 معادل!
اما بیاین سر جنجالیترین قسمت ماجرا: مصرف برق! اگه این ۵۰ ExaFLOPS رو با کارتهای H100 تأمین کنی، باید حداقل ۳۵ گیگاوات برق در اختیارشون بذاری. (برای مقایسه، هر نیروگاه هستهای بزرگ تقریباً همین مقدار رو تولید میکنه! یعنی کل این مجموعه به اندازه ۳۵ تا نیروگاه هستهای برق مصرف میکنه! چه خبره؟!) حتی اگه بهترین و کممصرفترین کارتهای آینده رو استفاده کنن، باز هم به چیزی حدود ۴.۷ گیگاوات نیاز دارن که تقریباً سه برابر مصرف برق همین دستگاه Colossus 2 هست!
ولی فقط برق ماجرا نیست، هزینهش هم عجیب بالاست. هر کارت H100 الان بالای ۲۵ هزار دلار قیمت داره — خودت حساب کن اگه واقعاً بخوان ۵۰ میلیون از این بخرن یا حتی همون ۶۵۰ هزار تا ورژن فوقپیشرفته رو هم بخرن، دهها میلیارد دلار فقط پول قطعه سختافزاری میخواد. تازه این جدای از هزینههای مثل کابلکشی، خنککاری، ساخت دیتا سنتر، تجهیزات جانبی و زیرساخت تامین برقشه.
در کل، ماسک نشون داده که هدفگذاریش واقعاً جاهطلبانهاس و بُعد فنی پروژه دور از ذهن نیست، ولی از نظر هزینه و کار اجرایی آدم حسابی باید براش عرق بریزه. هنوز معلوم نیست چطور میخواد این همه پول و برق رو تأمین کنه. ولی با این کارها میخواد xAI رو به یکی از غولهای آموزش مدلهای هوش مصنوعی و ساخت رباتهای نویسنده و پردازش پیشرفته تبدیل کنه.
راستی اگه دوست داری راجعبه این کارتهای گرافیک انویدیا بیشتر بدونی: اینا اسمشون GPU هست (یعنی پردازندهی گرافیکی که میتونن هم بازیهای سنگین رو اجرا کنن، هم کلی محاسبات سنگین علمی و هوش مصنوعی رو با سرعت نور انجام بدن). هوش مصنوعی جدید مثل ChatGPT و مشابههاش، فقط با همین کارتها و تجهیزات عجیب توسعه پیدا میکنن. حالا دست ماسک رو تو بلندپروازی ببین!
خلاصه که باید دید تا ۲۰۳۰، ماسک و تیمش واقعاً میتونن این حجم وحشتناک قدرت پردازشی رو بسازن یا نه. فقط یه چیز قطعیـه: با این هدفگذاریها، دنیای هوش مصنوعی قراره تو چند سال آینده حسابی زیر و رو بشه.
منبع: +