یه مدت خیلی طولانیه که همه به قانون مور (Moore’s Law یعنی این داستان معروف تو دنیای کامپیوتر که هر یکی دو سال یه بار، قدرت پردازش سیستمها کلی بیشتر و قیمتش پایینتر میشه) اعتماد داشتن. اما راستش رو بخوای، الان دیگه این روند برای GPUها (کارتهای گرافیکی مخصوص کارای سنگین مثل هوش مصنوعی و بازی) یه کم پیچیده شده؛ چون فقط قدرت پردازش (یا همون سرعت محاسبه یا FLOPs، مخفف Floating Point Operations Per Second یعنی تعداد عملهای ریاضی که تو هر ثانیه انجام میدن) زیاد شده، ولی یه موضوع مهم پشتش مونده: پهنای باند حافظه (Memory Bandwidth یعنی سرعت جابجایی دادهها بین کارت گرافیک و حافظهش).
الان قیمت و امکانات خیلی از این GPUهای ابری تو فضای ابری بر اساس مدت زمان استفاده ست، یعنی مثلاً میگن به ازای هر ساعت فلان مقدار باید پول بدی. ولی مشکل چیه؟ اکثر این نرمافزارا و کارایی که روی این GPUها اجرا میشن، بیشترشون به پهنای باند حافظه حساسن، یعنی اگه این بخش ضعیف باشه یا گرون بشه، عملاً کل کار با مشکل میخوره. الان هزینه واقعی اکثراً بر اساس همون قدرت پردازش حساب میشه، و مردم به این موضوع که ممکنه پهنای باند حافظه کل کار رو زمین بزنه، اصلاً توجهی نمیکنن؛ این یعنی حساب کتاب قیمتا یه جورایی غیرمنصفانه و ناکارآمد شده و کسایی که نیاز به پهنای باند بیشتر دارن، مجبورن کلی بیشتر خرج کنن یا منابعی بخرن که لازم ندارن!
حالا تو این مقاله پیشنهاد اومده که باید مدل قیمتگذاری رو تغییر بدیم و بیایم هزینه واقعی رو دقیق بر اساس میزان منابعی که هر اپلیکیشن واقعاً مصرف میکنه حساب کنیم. یعنی دیگه فقط به زمان یا FLOPs نگاه نشه، بلکه هر چیزی (مثل پهنای باند حافظه) که توی مصرف منابع مهمه، توی قیمت لحاظ بشه.
اینجا سیستم «آگورا» (Agora) معرفی شده که یه مدل قیمتگذاری جدیدِ مبتنی بر ویژگیها (Feature-based pricing) روی GPUها رو عملی میکنه و به نحوی طراحی شده که هم امن باشه، هم پیادهسازیش راحت باشه. یعنی دیگه هر کسی هر چیزی مصرف کرد، دقیق همونو پول میده!
برای اینکه این مدل کار کنه، باید نرخ نمونهگیری (Sampling) دادههای کاربرد رو هم درست دربیارن؛ مثلاً فهمیدن که اگه هر ۵۰ میکروثانیه یه بار از مصرفها نمونهبرداری کنن، قیمتگذاری تقریباً همون قدر دقیق میشه که تو حالت ایدهآل. تو این حالت فقط ۵ درصد درآمد از دست میره که خیلی خوبه! حالا اگه سرعت نمونهبرداری بشه هر ۱۰ میکروثانیه، دقتش بیشتر هم میشه و فقط ۲٫۴ درصد افت درآمد داریم که بینظیره.
خوشبختانه الان بیشتر سیستمهای تلهمتری (Telemetry یعنی این ابزارها که خودکار میزان مصرف و وضعیت سیستم رو لحظهای پایش میکنن) میتونن با همین سرعت کار کنن، پس از لحاظ فنی، هیچ مشکلی واسه پیادهسازیش نیست.
تجربه پیادهسازی و آزمایش این مدل روی انواع مختلف برنامه و نسلهای مختلف GPU نشون داده که این روش واقعاً جواب میده و بازار GPUهای ابری رو عادلانهتر و شفافتر میکنه. یعنی دیگه هرکی نیازش هرچیه دقیق همونو حساب میکنن و شرکتها یا افراد مجبور نیستن منابع الکی بخرن و پول اضافه بدن. هم بازار بهینهتر میشه، هم همه راضیتر میشن!
خلاصه اگه کارتون به GPUهای ابری و مسئله هزینهها گره خورده، حسابی این ماجرا رو دنبال کنین. چون اگه این سیستم جا بیفته، شاید بالاخره با بازار قیمت عجیب و غریب و غیرمنصفانه خداحافظی کنیم!
منبع: +