یه مدل فشرده و کم‌مصرفِ باحال، بدون افت دقت: داستان CompactifAI و Llama 3.1!

Fall Back

بیا یه خبر جالب از دنیای هوش مصنوعی رو باهات درمیون بذارم! یه تیم خفن به اسم Multiverse Computing اومدن یه روش فشرده‌سازی جدید به اسم CompactifAI رو امتحان کردن رو یه مدل زبون بزرگ—اسمش Llama 3.1 8B هست. مدل زبانی یا Large Language Model یعنی همون مغزای نرم‌افزاری بزززرگی که می‌تونن کلی متن رو بفهمن، ترجمه کنن، یا حتی خودشون محتوا تولید کنن!

داستان چیه؟ خب مشکل اینجاست که این مدل‌های غول‌آسا کلی قدرت پردازشی می‌خوان و مصرف برقشون هم کم نیست. اما حالا با این CompactifAI، هدف این بوده که مدل رو کوچیک‌تر کنن، اما همچنان باهوش بمونه! یعنی هم دقتش حفظ شه، هم دیگه مثل غول‌ها جا و انرژی نخواد.

حالا بریم سر اصل مطلب: تو این تحقیق، اومدن دو تا مدل رو باهم مقایسه کردن. یکی همون Llama 3.1 8B اصلی، یکی هم Llama فشرده‌شده با CompactifAI. برای اینکه مطمئن شن واقعاً تفاوتشون چیه، دو تا فاکتور مهم رو بررسی کردن: یکی “مصرف انرژی” و یکی “دقت مدل”. مصرف انرژی رو با یه ابزار به نام Codecarbon سنجیدن (Codecarbon یعنی یه نرم‌افزار که میزان برق مصرفی الگوریتم رو حساب می‌کنه). واسه دقت مدل هم از Ragas کمک گرفتن (Ragas هم یعنی یه چارچوب که میاد کارایی مدل زبان رو اندازه می‌گیره).

نتیجه چی شد؟ این CompactifAI واقعاً ترکوند! مدل فشرده‌شده نه تنها مصرف منابع محاسباتی (یعنی سخت‌افزار، رم، برق و اینا) رو شدیداً کم کرد، بلکه دقت مدل هم فرقی نکرد—یعنی هیچ در حد مدل اصلی باقی موند. این یعنی می‌تونی مدل رو ببری رو دستگاه‌های کوچیک‌تر، یا حتی با هزینه کمتر روی پروژه‌های بزرگ اجرا کنی، بدون اینکه نگران باشی هوش مصنوعیت هم هوش از سرش پریده!

خلاصه‌ش اینکه اگه اهل هوش مصنوعی و مدل‌های زبانی باشی، این روش جدید فشرده‌سازی CompactifAI یه راه حل واقعاً خلاقانه و مفید برای کم کردن هزینه‌ها و بالا بردن بازدهی مدل‌هاست، بدون اینکه از دقت یا کیفیت چیزی کم بشه. حالا دیگه می‌تونیم توقع داشته باشیم مدلای هوشمند، سبک‌تر و ارزون‌تر و بدون استرس مصرف برق زیاد، وارد زندگی‌مون بشن!

منبع: +