بهینه‌سازی گروهی و باحال مسائل بزرگ: داستان CLMOAS!

خب بچه‌ها، امروز می‌خوام یه موضوع خفن رو واستون باز کنم که اگه به هوش مصنوعی و الگوریتم‌های بهینه‌سازی علاقه دارید، حسابی باهاش حال می‌کنید! موضوعمون راجع به یه الگوریتم جدیده به اسم CLMOAS که برای حل مسائلی که چند تا هدف دارن و تصمیم‌گیری‌هاشون کلی متغیر داره ساخته شده. بذارید راحت‌تر توضیح بدم!

فرض کنید یه مساله داری که چند تا هدف مختلف باید با هم بهینه بشن (مثلاً هم ارزونه باشه، هم سریع باشه، هم کیفیتش خوب باشه). اینا رو بهش میگن Multi-objective Optimization یا همون “بهینه‌سازی چند هدفه”. حالا قضیه وقتی سخت‌تر میشه که تعداد متغیرات (یعنی اون چیزایی که قراره تغییرشون بدیم تا به جواب برسیم) خیلی زیاد باشه – مثلاً صدتا، هزار تا! به اینا هم میگن Large-scale Decision Variables که یعنی حجم متغیرهای تصمیم‌گیری خیلی بالاست.

تا الان بیشتر محقق‌ها تمرکزشون روی این بوده که چطور با زیاد بودن اهداف، الگوریتم‌ها رو جوابگو نگه دارن. ولی کمتر کسی بوده که به این فکر کنه وقتی متغیرها زیاد میشن، چه بلایی سر کل داستان میاد!

اینجا بود که CLMOAS وارد میشه و کار رو حسابی متحول می‌کنه! این الگوریتم باهوش، اومده چند تا تکنیک باحالم اضافه کرده که این‌جا واستون میگم:

اولین ترفندش اینه که از Clustering یا همون دسته‌بندی استفاده می‌کنه — یعنی اول میاد متغیرای تصمیم رو دسته‌بندی می‌کنه تو گروه‌های کوچیک‌تر. مثل اینه که می‌خوای خونه رو مرتب کنی، اول لباسا رو از اسباب‌بازی‌ها جدا می‌کنی که هرکدوم رو جداگانه جمع کنی.

جالب‌تر اینکه این الگوریتم تعیین می‌کنه هر متغیر به کدوم گروه تعلق داره: یا به گروه convergence-bas (یعنی اونایی که هدفشون نزدیک شدن به جواب نهاییه)، یا diversity-base (یعنی اونایی که باعث میشن جوابا خیلی شبیه هم نشه و تنوع داشته باشیم). هر کدوم رو هم یه جور جداگونه بهینه می‌کنه، اینجوری بین نزدیک شدن به جواب واقعی و متنوع بودن جواب‌ها توازن ایجاد میشه.

یه داستان جالب دیگه اینکه اینجا یه مفهوم جدید به اسم dominance relation اضافه کردن. dominance relation رو اگه بخوای راحت بفهمی یعنی الگوریتم میاد دوتا جواب رو با هم مقایسه می‌کنه و میگه کدوم یکی بهتره، اما به روش خودش. حالا تو CLMOAS یه روش باحال‌تر به اسم angle-based dominance introduction کردن – یعنی این دفعه زاویه بین جواب‌ها رو هم لحاظ می‌کنن تا بهتر بتونن انتخاب کنن. با این کار، یه مشکل همیشگی با اسم dominance resistance (یعنی مقاومت یکی از جوابا در برابر برتری کامل جواب دیگه) تا حد زیادی کمتر میشه.

نتیجه این نوآوری‌ها چی شد؟ توی آزمایش‌هایی که با چند تا دیتاست استاندارد مخصوص تست بهینه‌سازی چندهدفه امتحانش کردن — مثلاً DTLZ و UF (اینا کلاسیک‌ترین دیتاست‌های این حوزه‌ان) —، دیدن که الگوریتم CLMOAS تونسته مقادیری به اسم IGD رو پایین‌تر از بقیه الگوریتم‌های معروف مثل MOEA/D و LMEA کنه! حالا IGD یعنی چی؟ یه معیار خوبیه برای اینکه بفهمیم جواب‌های الگوریتم چقدر به جوابای ایده‌آل نزدیکن. هرچی IGD کمتر باشه یعنی جواب‌ها بهتر بودن. به زبان ساده: CLMOAS بهتر از رقیب‌ها جواب داده!

پس خلاصه، اگه یه مسئله بهینه‌سازی داری که هم کلی هدف مختلف داره و هم متغیرای تصمیم زیاد و پخش و پلا داره، CLMOAS می‌تونه یکی از بهترین انتخاب‌ها باشه. هم هنرش تو دسته‌بندی و مدیریت متغیرها عالیه، هم تو رقابت با بقیه الگوریتم‌ها سرآمد بوده!

خلاصه که دنیای هوش مصنوعی همین‌طوری داره هر روز با ابتکار جدید غافلگیرمون می‌کنه. اگه به این مدل الگوریتم‌ها علاقه دارید، حتماً پیگیرش باشید. این داستان CLMOAS مطمئناً قراره به درد خیلی از پروژه‌های آینده‌مون بخوره!

منبع: +