چطور با ترکیب هوش مصنوعی و روش‌های جدید، ضعف‌های زنجیره تأمین رو سریع‌تر پیدا کنیم؟

Fall Back

یه چیزی که این روزها حسابی سر زبون‌هاست، موضوع زنجیره تأمین یا Supply Chain هست. این همون راهیه که کالاها و مواد اولیه از تولیدکننده تا مشتری نهایی دست به دست میشه. خب، تو دنیا همه‌چی سر جاش نیست و گاهی مشکلات غیرقابل پیش‌بینی تو این مسیر پیش میاد که می‌تونه کلی دردسر درست کنه، چه برای شرکت‌ها، چه دولت‌ها.

حالا فرض کن می‌شه همه این ضعف‌ها و مشکلات زنجیره تأمین رو تقریباً به صورت لحظه‌ای شناسایی کرد! عصای جادو؟ نه بابا، این وسط یه عالم تکنولوژی خفن جدید هست که کار رو خیلی راحت‌تر کرده. یکی از همین تکنولوژی‌ها، هوش مصنوعی زایشی یا همون Generative AI هست. یعنی هوش مصنوعی‌ای که خودش می‌تونه محتوا بسازه، مثلاً متن بنویسه یا گزارش تولید کنه.

مدل‌های زبانی بزرگ یا LLMها (Large Language Models) مثل ChatGPT و … به ما این امکان رو میدن که حجم زیادی از داده‌ها رو تحلیل کنیم و الگوهایی رو از دلشون در بیاریم که قبلاً نمیشد. اما یه مشکل هست: این مدل‌ها فقط تا زمان آخرین تاریخی که آموزش‌شون دادن اطلاعات دارن و بعد اون دیگه خبری از دنیای جدید ندارن! یعنی نمی‌تونن از اخبار داغ یا اتفاقات مهم روز باخبر باشن و فقط تا آخرین آپدیت‌شون هوش دارن.

اینجاست که ترکیب یه روش فوق‌العاده به اسم RAG یا Retrieval-Augmented Generation وارد میشه. یعنی مدلی که علاوه بر اینکه مسائل و سوالات رو بر اساس دانش خودش جواب میده، با جمع‌آوری اطلاعات تازه از اینترنت هم کاملش می‌کنه. به زبون ساده، یه سیستم RAG مثل موتور جستجویی میشه که به مغز هوش مصنوعی وصل شده، هر بار با یه عالمه داده جدید بهش خوراک میده و جواب‌هاش به‌روزتر و دقیق‌تر میشه.

حالا، محققان این مقاله اومدن سراغ ترکیب RAG با یه روش دیگه: وب‌اسکرپینگ یا Web-Scraping. یعنی ربات‌هایی که می‌چرخن تو سایت‌ها و اخبار جدید رو به صورت خودکار جمع‌آوری می‌کنن و به مدل میدن. اینجوری هر بار که توی زنجیره تأمین جهان اتفاقی افتاد (مثل اختلال یا تاخیر)، سیستم تقریباً بلافاصله اون رو وارد تحلیل‌هاش می‌کنه.

نتیجه؟ همه اطلاعات زنجیره تأمین تقریباً در لحظه به‌روزرسانی میشن و اگه جایی قراره اختلال ایجاد بشه، سریع پیش‌بینی و هشدار داده میشه.

توی تحقیقشون، اومدن یه عالمه تست کردن که ببینن کدوم روش توی سرعت و کیفیت تحلیل بهتر جواب میده. مهم‌ترین نکته‌ای که گرفتن این بود: اگه مدل بازیابی یا همون Embedding Retrieval Model رو ریز و دقیق (یعنی Fine-Tune کنن)، عملکرد خیلی بیشتری پیدا میکنه. یعنی هرچی سیستم بازیابی داده‌ها هوشمندتر و دقیق‌تر باشه و بر اساس موضوع بهینه بشه، نتیجه تحلیل‌ها واقعی‌تر میشه.

راجع به Iterative Adaptive Retrieval هم حرف زدن یعنی چی؟ یعنی سیستم به جای اینکه همیشه یه تعداد ثابت اطلاعات بکشه، با توجه به شرایط و سوال‌ها تصمیم می‌گیره چقدر عمیق بره و دنبال جواب بگرده. این موضوع باعث میشه تو سوال‌های پیچیده‌تر (مثلاً وقتی چندتا فاکتور روی زنجیره تأمین تاثیر میذاره)، جواب‌ها کامل‌تر و دقیق‌تر باشه.

در عوض، اگه فقط مدل LLM رو فاین‌تون کنیم (یعنی آموزش مجدد بدیم)، هزینه منابع خیلی زیادتر میشه و رشد کیفیت خیلی محسوس نیست. یعنی کارایی اون‌قدری که فکر می‌کنید بالاتر نمیره نسبت به روش بازیابی بهینه.

یه نکته جالب دیگه اینجا اینه که تو مفهوم Query Abstraction اومدن بحث کردن که اگه سوالی رو کلی‌تر کنیم (Upward Abstraction) یا جزئی‌ترش کنیم (Downward Abstraction)، کدوم نتیجه بهتری میده. نتیجه این شد که تاکید بیشتر روی جزئیات یا همون Downward Abstraction بهتر عمل می‌کنه.

در کل حرف این تحقیقات اینه: اگه می‌خواین زنجیره تأمین رو به شکل به‌روز و دقیق زیر نظر بگیرین و مشکلات رو زود بفهمین، برو سراغ ترکیب RAG و وب‌اسکرپینگ، و بیشتر روی مدل‌های بازیابی وقت بذارید تا آموزش دوباره مدل‌های بزرگ. اینجوری با سرعت و کیفیت بالا میشه جلوی کلی مشکلات بزرگ رو گرفت! به همین راحتی و خوشمزگی! 😉

منبع: +