خب بچهها، امروز میخوام یه موضوع خفن رو واستون باز کنم که اگه به هوش مصنوعی و الگوریتمهای بهینهسازی علاقه دارید، حسابی باهاش حال میکنید! موضوعمون راجع به یه الگوریتم جدیده به اسم CLMOAS که برای حل مسائلی که چند تا هدف دارن و تصمیمگیریهاشون کلی متغیر داره ساخته شده. بذارید راحتتر توضیح بدم!
فرض کنید یه مساله داری که چند تا هدف مختلف باید با هم بهینه بشن (مثلاً هم ارزونه باشه، هم سریع باشه، هم کیفیتش خوب باشه). اینا رو بهش میگن Multi-objective Optimization یا همون “بهینهسازی چند هدفه”. حالا قضیه وقتی سختتر میشه که تعداد متغیرات (یعنی اون چیزایی که قراره تغییرشون بدیم تا به جواب برسیم) خیلی زیاد باشه – مثلاً صدتا، هزار تا! به اینا هم میگن Large-scale Decision Variables که یعنی حجم متغیرهای تصمیمگیری خیلی بالاست.
تا الان بیشتر محققها تمرکزشون روی این بوده که چطور با زیاد بودن اهداف، الگوریتمها رو جوابگو نگه دارن. ولی کمتر کسی بوده که به این فکر کنه وقتی متغیرها زیاد میشن، چه بلایی سر کل داستان میاد!
اینجا بود که CLMOAS وارد میشه و کار رو حسابی متحول میکنه! این الگوریتم باهوش، اومده چند تا تکنیک باحالم اضافه کرده که اینجا واستون میگم:
اولین ترفندش اینه که از Clustering یا همون دستهبندی استفاده میکنه — یعنی اول میاد متغیرای تصمیم رو دستهبندی میکنه تو گروههای کوچیکتر. مثل اینه که میخوای خونه رو مرتب کنی، اول لباسا رو از اسباببازیها جدا میکنی که هرکدوم رو جداگانه جمع کنی.
جالبتر اینکه این الگوریتم تعیین میکنه هر متغیر به کدوم گروه تعلق داره: یا به گروه convergence-bas (یعنی اونایی که هدفشون نزدیک شدن به جواب نهاییه)، یا diversity-base (یعنی اونایی که باعث میشن جوابا خیلی شبیه هم نشه و تنوع داشته باشیم). هر کدوم رو هم یه جور جداگونه بهینه میکنه، اینجوری بین نزدیک شدن به جواب واقعی و متنوع بودن جوابها توازن ایجاد میشه.
یه داستان جالب دیگه اینکه اینجا یه مفهوم جدید به اسم dominance relation اضافه کردن. dominance relation رو اگه بخوای راحت بفهمی یعنی الگوریتم میاد دوتا جواب رو با هم مقایسه میکنه و میگه کدوم یکی بهتره، اما به روش خودش. حالا تو CLMOAS یه روش باحالتر به اسم angle-based dominance introduction کردن – یعنی این دفعه زاویه بین جوابها رو هم لحاظ میکنن تا بهتر بتونن انتخاب کنن. با این کار، یه مشکل همیشگی با اسم dominance resistance (یعنی مقاومت یکی از جوابا در برابر برتری کامل جواب دیگه) تا حد زیادی کمتر میشه.
نتیجه این نوآوریها چی شد؟ توی آزمایشهایی که با چند تا دیتاست استاندارد مخصوص تست بهینهسازی چندهدفه امتحانش کردن — مثلاً DTLZ و UF (اینا کلاسیکترین دیتاستهای این حوزهان) —، دیدن که الگوریتم CLMOAS تونسته مقادیری به اسم IGD رو پایینتر از بقیه الگوریتمهای معروف مثل MOEA/D و LMEA کنه! حالا IGD یعنی چی؟ یه معیار خوبیه برای اینکه بفهمیم جوابهای الگوریتم چقدر به جوابای ایدهآل نزدیکن. هرچی IGD کمتر باشه یعنی جوابها بهتر بودن. به زبان ساده: CLMOAS بهتر از رقیبها جواب داده!
پس خلاصه، اگه یه مسئله بهینهسازی داری که هم کلی هدف مختلف داره و هم متغیرای تصمیم زیاد و پخش و پلا داره، CLMOAS میتونه یکی از بهترین انتخابها باشه. هم هنرش تو دستهبندی و مدیریت متغیرها عالیه، هم تو رقابت با بقیه الگوریتمها سرآمد بوده!
خلاصه که دنیای هوش مصنوعی همینطوری داره هر روز با ابتکار جدید غافلگیرمون میکنه. اگه به این مدل الگوریتمها علاقه دارید، حتماً پیگیرش باشید. این داستان CLMOAS مطمئناً قراره به درد خیلی از پروژههای آیندهمون بخوره!
منبع: +