یه چیزی که این روزها حسابی سر زبونهاست، موضوع زنجیره تأمین یا Supply Chain هست. این همون راهیه که کالاها و مواد اولیه از تولیدکننده تا مشتری نهایی دست به دست میشه. خب، تو دنیا همهچی سر جاش نیست و گاهی مشکلات غیرقابل پیشبینی تو این مسیر پیش میاد که میتونه کلی دردسر درست کنه، چه برای شرکتها، چه دولتها.
حالا فرض کن میشه همه این ضعفها و مشکلات زنجیره تأمین رو تقریباً به صورت لحظهای شناسایی کرد! عصای جادو؟ نه بابا، این وسط یه عالم تکنولوژی خفن جدید هست که کار رو خیلی راحتتر کرده. یکی از همین تکنولوژیها، هوش مصنوعی زایشی یا همون Generative AI هست. یعنی هوش مصنوعیای که خودش میتونه محتوا بسازه، مثلاً متن بنویسه یا گزارش تولید کنه.
مدلهای زبانی بزرگ یا LLMها (Large Language Models) مثل ChatGPT و … به ما این امکان رو میدن که حجم زیادی از دادهها رو تحلیل کنیم و الگوهایی رو از دلشون در بیاریم که قبلاً نمیشد. اما یه مشکل هست: این مدلها فقط تا زمان آخرین تاریخی که آموزششون دادن اطلاعات دارن و بعد اون دیگه خبری از دنیای جدید ندارن! یعنی نمیتونن از اخبار داغ یا اتفاقات مهم روز باخبر باشن و فقط تا آخرین آپدیتشون هوش دارن.
اینجاست که ترکیب یه روش فوقالعاده به اسم RAG یا Retrieval-Augmented Generation وارد میشه. یعنی مدلی که علاوه بر اینکه مسائل و سوالات رو بر اساس دانش خودش جواب میده، با جمعآوری اطلاعات تازه از اینترنت هم کاملش میکنه. به زبون ساده، یه سیستم RAG مثل موتور جستجویی میشه که به مغز هوش مصنوعی وصل شده، هر بار با یه عالمه داده جدید بهش خوراک میده و جوابهاش بهروزتر و دقیقتر میشه.
حالا، محققان این مقاله اومدن سراغ ترکیب RAG با یه روش دیگه: وباسکرپینگ یا Web-Scraping. یعنی رباتهایی که میچرخن تو سایتها و اخبار جدید رو به صورت خودکار جمعآوری میکنن و به مدل میدن. اینجوری هر بار که توی زنجیره تأمین جهان اتفاقی افتاد (مثل اختلال یا تاخیر)، سیستم تقریباً بلافاصله اون رو وارد تحلیلهاش میکنه.
نتیجه؟ همه اطلاعات زنجیره تأمین تقریباً در لحظه بهروزرسانی میشن و اگه جایی قراره اختلال ایجاد بشه، سریع پیشبینی و هشدار داده میشه.
توی تحقیقشون، اومدن یه عالمه تست کردن که ببینن کدوم روش توی سرعت و کیفیت تحلیل بهتر جواب میده. مهمترین نکتهای که گرفتن این بود: اگه مدل بازیابی یا همون Embedding Retrieval Model رو ریز و دقیق (یعنی Fine-Tune کنن)، عملکرد خیلی بیشتری پیدا میکنه. یعنی هرچی سیستم بازیابی دادهها هوشمندتر و دقیقتر باشه و بر اساس موضوع بهینه بشه، نتیجه تحلیلها واقعیتر میشه.
راجع به Iterative Adaptive Retrieval هم حرف زدن یعنی چی؟ یعنی سیستم به جای اینکه همیشه یه تعداد ثابت اطلاعات بکشه، با توجه به شرایط و سوالها تصمیم میگیره چقدر عمیق بره و دنبال جواب بگرده. این موضوع باعث میشه تو سوالهای پیچیدهتر (مثلاً وقتی چندتا فاکتور روی زنجیره تأمین تاثیر میذاره)، جوابها کاملتر و دقیقتر باشه.
در عوض، اگه فقط مدل LLM رو فاینتون کنیم (یعنی آموزش مجدد بدیم)، هزینه منابع خیلی زیادتر میشه و رشد کیفیت خیلی محسوس نیست. یعنی کارایی اونقدری که فکر میکنید بالاتر نمیره نسبت به روش بازیابی بهینه.
یه نکته جالب دیگه اینجا اینه که تو مفهوم Query Abstraction اومدن بحث کردن که اگه سوالی رو کلیتر کنیم (Upward Abstraction) یا جزئیترش کنیم (Downward Abstraction)، کدوم نتیجه بهتری میده. نتیجه این شد که تاکید بیشتر روی جزئیات یا همون Downward Abstraction بهتر عمل میکنه.
در کل حرف این تحقیقات اینه: اگه میخواین زنجیره تأمین رو به شکل بهروز و دقیق زیر نظر بگیرین و مشکلات رو زود بفهمین، برو سراغ ترکیب RAG و وباسکرپینگ، و بیشتر روی مدلهای بازیابی وقت بذارید تا آموزش دوباره مدلهای بزرگ. اینجوری با سرعت و کیفیت بالا میشه جلوی کلی مشکلات بزرگ رو گرفت! به همین راحتی و خوشمزگی! 😉
منبع: +