IBM با رکورد جدیدش: ۴۷ پتابایت تو یه رک جا میدن!

اگه فکر می‌کردین ظرفیت سرورها و سیستم‌های ذخیره‌سازی دیگه تهش رسیده، باید بهتون بگم IBM یه حرکت خفن زده! حالا با آپدیت جدیدی که برای سیستم Storage Scale System 6000 داده، می‌تونن تو یه رک کامل، تا ۴۷ پتابایت (یعنی ۴۷,۰۰۰ ترابایت!) اطلاعات نگه دارن. این یعنی سه برابر چیزی که قبلاً ممکن بود – ترکوندن حسابی!

حالا این ماجرا بیشتر به درد کی‌ها می‌خوره؟ اونا که سر و کارشون با حجم عظیم داده‌ست، مثلاً تیم‌هایی که کارهای سوپرکامپیوتری (یعنی کارهایی با پردازش بسیار سنگین مثل شبیه‌سازی علمی یا هوش مصنوعی) دارن انجام می‌دن یا سرویس‌های ابری که همیشه باید کلی دیتا جابجا کنن.

آپدیت اصلی این سری، استفاده از یه جعبه‌ی جدید به اسم All-Flash Expansion Enclosure هست که توش از QLC flash drive هایی با ظرفیت بالای ۱۲۲ ترابایت استفاده شده. QLC flash drive یعنی حافظه‌ای مشابه SSDهای معمول، ولی با تراکم خیلی بالاتر برای ذخیره اطلاعات. حالا این Enclosure کم حجم (فقط ۲ یونیت از رک رو اشغال می‌کنه) می‌تونه تا ۲۶ تا از این درایوها و حتی ۴ تا DPU مدل Nvidia BlueField-3 رو تو خودش جا بده. DPU رو هم اگه نمی‌دونین، همون پردازنده‌های مخصوص شبکه و دیتا هستن که کارشون کمک به پردازش دیتا مستقلاً از CPU و GPU عادیه.

این قضیه باعث شده سیستم IBM بدون اینکه توی سرعت یا عملکردش گره و مشکل (همون bottleneck معروف) پیش بیاد، همزمان چندتا پردازش داده حجیم رو هندل کنه. یعنی اگه تا حالا به خاطر محدودیت حافظه یا سرعت توی پروژه‌های هوش مصنوعی یا شبیه‌سازی به مشکل می‌خوردین، دیگه خبری از اون داستانا نیست!

یه نقطه‌ی کلیدی اینکه این Enclosure لایه کش خیلی گنده‌ای داره که باعث میشه اطلاعات فعال–ویژه اونایی که لازمه نزدیک GPUها باشه–همیشه دم دست باقی بمونه و اینطوری فرایندها بدون توقف جریان پیدا کنن. Cache اینجا یعنی حافظه‌ای که داده‌های حیاتی رو سریع‌تر از هارد معمولی به پردازنده‌ها می‌رسونه.

از نظر ارتباطات هم خیالتون راحت: پشتیبانی از سویچ‌های اترنت Nvidia Spectrum-X رو داره که باعث میشه وقتی نیاز دارین تو هوش مصنوعی مدل‌ها رو هر دفعه چک‌پوینت کنین، این مرحله خیلی سریع‌تر انجام بشه. (چک‌پوینت کردن یعنی ذخیره آخرین وضعیت محاسبات وسط کار، تا اگه مشکلی پیش اومد از همونجا ادامه بدی.)

اما این سیستما فقط با سخت‌افزار قوی کار نمی‌کنن؛ نرم‌افزار هم باید هماهنگ باشه. IBM نسخه ۷.۰.۰ از نرم‌افزارش رو هم داده که الان با این حجم‌های عجیب سازگار شده. قابلیت جدیدی که بهش اضافه کردن Erasure Coding با پیکربندی 16+2 هست (یعنی اطلاعات رو تیکه تیکه ذخیره می‌کنه که اگه یکی دوتا تیکه خراب شد، بقیه دیتا سالم بمونه) که خیلی بازده رو بالا می‌بره.

از لحاظ قدرت و سرعت، برخلاف قبل که چهار رک می‌تونستن تا ۲.۲ پتابایت و تا ۱۳ میلیون IOPS (یعنی تعداد ورودی/خروجی‌های سریع در ثانیه) و سرعت خوندن ۳۳۰ گیگابایت بر ثانیه بدن، الان با یه رک، سقف IOPS رفته تا ۲۸ میلیون و سرعت خوندن تا ۳۴۰ گیگابایت بر ثانیه! یعنی تو کارای سنگین مثل آموزش مدل هوش مصنوعی و پردازش موازی (parallel processing – پردازش همزمان داده‌ها رو چند پردازنده) واقعاً دستتون بازه.

جذاب‌تر اینکه این معماری جوری ساخته شده که اگه CPU سیستم‌هاتون هم زیر فشار شدید برن (مثلاً تو پنجره‌های زمانی با پردازش بالا)، باز انتقال دیتا بین نودها (سرورها توی یک خوشه) بدون تاخیر و خیلی پایدار انجام میشه. نود یا Node یعنی هرکدوم از سرورهای مستقل که همراه هم کار می‌کنن.

در کل، هدف IBM این بوده که با حرکت جدید سه چیز رو با هم درست کنه: چگالی داده (یعنی حجم ذخیره‌سازی تو فضای کم)، مدیریت ساده‌تر حجم‌های عظیم دیتا و اینکه بتونی انواع مختلف کار (Workload) رو همزمان و بی استرس هندل کنی. البته همه‌ی اینا رو باید بندازیم بیرون از آزمایشگاه و ببینیم تو دنیای واقعی وقتی حجم کارها زیاد شه، چجوری جواب میده.

خلاصه: اگه دنبال سیستم ذخیره‌سازی خیلی پرظرفیت می‌گردی که هم سریع باشه، هم بتونه بار سنگین انواع پروژه‌های هوش مصنوعی، ابررایانه، یا حتی سرویس ابری رو بکشه، آپدیت جدید IBM دقیقاً همون چیزیه که باید بهش یه نگاه جدی بندازی!

منبع: +