اتحاد Sandisk و SK Hynix برای حافظه فلش پرسرعت؛ انقلاب جدید واسه هوش مصنوعی؟

یه خبر داغ و جالب درباره دنیای هوش مصنوعی اومده که می‌خوام امروز باهاتون رفیق‌طور در موردش حرف بزنم. حتماً اسم سامسونگ، Sandisk و SK Hynix به گوشتون خورده، مخصوصاً اگه دستی تو تکنولوژی داشته باشین. حالا دو تا از این غول‌ها یعنی Sandisk و SK Hynix اومدن با هم یه توافق همکاری امضا کردن که ممکنه روی عملکرد هوش مصنوعی (AI) کلی تاثیر بذاره.

موضوع از این قراره که این دوتا شرکت دارن تلاش می‌کنن یه استاندارد جدید به اسم “High Bandwidth Flash” یا همون HBF تعریف کنن. اگه براتون سواله که HBF یعنی چی، بذار راحت توضیح بدم: الان تو کارت گرافیک‌هایی که مخصوص هوش مصنوعی هستن، یه چیزی به اسم HBM یا همون “حافظه پرسرعت” استفاده میشه که معمولاً با DRAM ساخته میشه. DRAM همون حافظه‌هاییه که اگه برقش قطع بشه، همه چی پاک میشه و ظرفیتشم یه حدیه؛ ولی از نظر سرعت خیلی سریعه.

اما Sandisk و SK Hynix میخوان همین ایده حافظه پرسرعت رو با NAND Flash ترکیب کنن. NAND Flash مثل همون حافظه‌هایی هست که توی SSD و فلش مموری داریم. خوبی NAND اینه که وقتی برق قطع بشه، اطلاعات رو نگه می‌داره (یعنی non-volatile هست). اینطوری با حافظه HBF میشه یه حجمی خیلی خیلی بزرگ‌تر (بین ۸ تا ۱۶ برابر ظرفیت DRAM-based HBM!) رو با هزینه تقریبا مشابه، در اختیار مدل‌های هوش مصنوعی گذاشت.

حالا چرا این مهمه؟ چون مدل‌های بزرگ هوش مصنوعی برای یادگیری و جواب دادن به سوالات نیاز به حجم زیادی دیتا دارن. با این روش، نه تنها ظرفیت ذخیره‌سازی خیلی بالا میره، بلکه مصرف انرژی هم کمتر میشه. چون NAND Flash واسه نگه داشتن اطلاعات، دائم نیاز به برق نداره؛ برخلاف DRAM که اگه یک لحظه برق قطع بشه همه اطلاعات می‌پره.

این ایده خیلی با کارایی مراکز داده (Data Centers) سازگاره، مخصوصاً جاهایی که مصرف برق و خنک‌کاری (خنک نگه داشتن تجهیزات) یه دغدغه جدیه. مثلاً Hyperscale Operators یعنی شرکت‌هایی که مراکز داده خیلی بزرگ و مدل‌های پیشرفته دارن، احتمالاً براشون این حافظه‌های جدید هم صرفه اقتصادی داره و هم راحت‌تر میتونن با گرما و هزینه‌های بالا مبارزه کنن.

یه تحقیق هم بوده به اسم “LLM in a Flash” (LLM یعنی Large Language Model یا همون مدل‌های زبانی بزرگ مثل ChatGPT) که توش گفته شده اگه SSDها به کمک DRAM بیان، میشه خیلی بهینه‌تر این مدل‌ها رو اجرا کرد. الان ایده HBF دقیقاً همون منطق رو تو یه بسته‌بندی سریع و یکجا پیاده کرده! یعنی مثلاً هم سرعت نزدیک حافظه‌های پرسرعت رو داره، هم ظرفیت عظیم SSDها رو.

Sandisk تو نمایشگاه Flash Memory Summit 2025 اولین نمونه پروتوتایپ (مدل اولیه) این حافظه رو نشون داده. این نمونه با تکنولوژی اختصاصی BiCS NAND (یعنی یه روش ساخت خاص برای حافظه فلش) و تکنولوژی wafer bonding (یه جور چسبوندن لایه‌های مختلف سیلیکون به‌هم برای ساخت تراشه‌های پیچیده)، ساخته شده. گفته شده نمونه‌های اولیه این حافظه سال ۲۰۲۶ عرضه میشن و اولین کامپیوترهای هوش مصنوعی که از این تکنولوژی پشتیبانی کنن، اوایل ۲۰۲۷ میان رو خط تولید.

فعلاً خبر رسمی از اینکه کدوم شرکت‌ها میخوان محصولات واقعی با این تکنولوژی بسازن نیومده، ولی چون SK Hynix یکی از بزرگ‌ترین تأمین‌کننده‌های حافظه برای چیپ‌های AI، مثلاً برای Nvidia هست، پس احتمالاً وقتی استانداردهای فنی مشخص بشن، این قضیه خیلی سریع پخش میشه بین سازنده‌ها.

جالب اینجاست که سامسونگ (رقیب بزرگ این پروژه) هم نشسته روی یه تکنولوژی مشابه کار می‌کنه، اونم داره روی حافظه‌های HBM4 و حافظه‌های فلش برای AI سرمایه‌گذاری می‌کنه. البته Nvidia فعلاً رو همون حافظه‌های DRAM سنگین تمرکز کرده، چون سرعت براش مهم‌تره، ولی اگه HBF جواب بده، میتونیم تصور کنیم تو آینده یه جا حافظه DRAM، و NAND Flash و حتی بقیه انواع حافظه کنار هم کار کنن و به کامپیوترها کمک کنن که کلی دیتا رو همزمان و سریع پردازش کنن.

در کل، اگه این پروژه جواب بده، میشه انتظار داشت تکنولوژی حافظه تو دنیای هوش مصنوعی یه حرکت اساسی به سمت صرفه‌جویی انرژی و افزایش ظرفیت برداره. یعنی شاید سرویس‌ها و اپلیکیشن‌هایی که الان رویا بودن، با این حافظه‌ها در آینده براشون ممکن بشه. به نظرتون، آینده چجوری میشه وقتی کامپیوترها می‌تونن همزمان انقدر داده زیاد رو با قیمت و انرژی کمتر نگهدارن و پردازش کنن؟

منبع: +