آگورا: بالاخره قیمت GPUهای ابری درست میشه یا نه؟!

Fall Back

یه مدت خیلی طولانیه که همه به قانون مور (Moore’s Law یعنی این داستان معروف تو دنیای کامپیوتر که هر یکی دو سال یه بار، قدرت پردازش سیستم‌ها کلی بیشتر و قیمتش پایین‌تر میشه) اعتماد داشتن. اما راستش رو بخوای، الان دیگه این روند برای GPUها (کارت‌های گرافیکی مخصوص کارای سنگین مثل هوش مصنوعی و بازی) یه کم پیچیده شده؛ چون فقط قدرت پردازش (یا همون سرعت محاسبه یا FLOPs، مخفف Floating Point Operations Per Second یعنی تعداد عمل‌های ریاضی که تو هر ثانیه انجام میدن) زیاد شده، ولی یه موضوع مهم پشتش مونده: پهنای باند حافظه (Memory Bandwidth یعنی سرعت جابجایی داده‌ها بین کارت گرافیک و حافظه‌ش).

الان قیمت و امکانات خیلی از این GPUهای ابری تو فضای ابری بر اساس مدت زمان استفاده ست، یعنی مثلاً میگن به ازای هر ساعت فلان مقدار باید پول بدی. ولی مشکل چیه؟ اکثر این نرم‌افزارا و کارایی که روی این GPUها اجرا میشن، بیشترشون به پهنای باند حافظه حساسن، یعنی اگه این بخش ضعیف باشه یا گرون بشه، عملاً کل کار با مشکل می‌خوره. الان هزینه واقعی اکثراً بر اساس همون قدرت پردازش حساب میشه، و مردم به این موضوع که ممکنه پهنای باند حافظه کل کار رو زمین بزنه، اصلاً توجهی نمیکنن؛ این یعنی حساب کتاب قیمتا یه جورایی غیرمنصفانه و ناکارآمد شده و کسایی که نیاز به پهنای باند بیشتر دارن، مجبورن کلی بیشتر خرج کنن یا منابعی بخرن که لازم ندارن!

حالا تو این مقاله پیشنهاد اومده که باید مدل قیمت‌گذاری رو تغییر بدیم و بیایم هزینه واقعی رو دقیق بر اساس میزان منابعی که هر اپلیکیشن واقعاً مصرف می‌کنه حساب کنیم. یعنی دیگه فقط به زمان یا FLOPs نگاه نشه، بلکه هر چیزی (مثل پهنای باند حافظه) که توی مصرف منابع مهمه، توی قیمت لحاظ بشه.

اینجا سیستم «آگورا» (Agora) معرفی شده که یه مدل قیمت‌گذاری جدیدِ مبتنی بر ویژگی‌ها (Feature-based pricing) روی GPUها رو عملی میکنه و به نحوی طراحی شده که هم امن باشه، هم پیاده‌سازیش راحت باشه. یعنی دیگه هر کسی هر چیزی مصرف کرد، دقیق همونو پول میده!

برای اینکه این مدل کار کنه، باید نرخ نمونه‌گیری (Sampling) داده‌های کاربرد رو هم درست دربیارن؛ مثلاً فهمیدن که اگه هر ۵۰ میکروثانیه یه بار از مصرف‌ها نمونه‌برداری کنن، قیمت‌گذاری تقریباً همون قدر دقیق میشه که تو حالت ایده‌آل. تو این حالت فقط ۵ درصد درآمد از دست میره که خیلی خوبه! حالا اگه سرعت نمونه‌برداری بشه هر ۱۰ میکروثانیه، دقتش بیشتر هم میشه و فقط ۲٫۴ درصد افت درآمد داریم که بی‌نظیره.

خوشبختانه الان بیشتر سیستم‌های تله‌متری (Telemetry یعنی این ابزارها که خودکار میزان مصرف و وضعیت سیستم رو لحظه‌ای پایش میکنن) می‌تونن با همین سرعت کار کنن، پس از لحاظ فنی، هیچ مشکلی واسه پیاده‌سازیش نیست.

تجربه پیاده‌سازی و آزمایش این مدل روی انواع مختلف برنامه و نسل‌های مختلف GPU نشون داده که این روش واقعاً جواب میده و بازار GPUهای ابری رو عادلانه‌تر و شفاف‌تر میکنه. یعنی دیگه هرکی نیازش هرچیه دقیق همونو حساب میکنن و شرکت‌ها یا افراد مجبور نیستن منابع الکی بخرن و پول اضافه بدن. هم بازار بهینه‌تر میشه، هم همه راضی‌تر میشن!

خلاصه اگه کارتون به GPUهای ابری و مسئله هزینه‌ها گره خورده، حسابی این ماجرا رو دنبال کنین. چون اگه این سیستم جا بیفته، شاید بالاخره با بازار قیمت عجیب و غریب و غیرمنصفانه خداحافظی کنیم!

منبع: +