خب، اگه تا حالا اسم اقتصاد ارتفاع پایین (Low-altitude economy) به گوشت خورده باشه، حتماً میدونی که این روزا بحث طراحی راهروهای پروازی برای پهپادها و کلی وسایل پرنده دیگه حسابی داغ شده. یکی از بزرگترین چالشها توی این حوزه، پیشبینی پوشش شبکه توی ارتفاعهای پایین یا همون Low-Altitude Network Coverage (به اختصار LANC) هست – یعنی بدونیم آنتندهی شبکه تو این ارتفاعها چه شکلی میشه.
حالا موضوع اینجاست که دقت این پیشبینیها خیلی بستگی به یه چیز داره به اسم الگوهای پرتوی آنتنهای ایستگاههای اصلی (Base Stations یا BSs). منظور از الگوی پرتوی یعنی اینکه سیگنال آنتن تو چه جهتهایی پخش میشه و چه پوششی رو به دست میده. مشکل اینجاس که اکثر این الگوها محرمانه و اختصاصیِ شرکتها هستن و دست ما نمیرسه!
اما یه راه دیگه وجود داره: استفاده از پارامترهای عملیاتی یا همون اطلاعات عملیاتی BSها که خودشون یکجورایی دیتا در مورد الگوی پرتوها توشون هست. میشه با استفاده از این دادهها، به صورت دادهمحور یا به قول باکلاسا Data-driven، همون پوشش شبکه ارتفاع پایین رو پیشبینی کرد. ولی خب اینم بی مشکل نیست. چرا؟
اولاً جمعآوری این دیتاها از تستهای جادهای در ارتفاع پایین کلی هزینه داره و عموماً نمیصرفه، چون فقط تعداد کمی نمونه از هر ایستگاه جمع میشه. دوماً این کم بودن نمونهها، دو تا مشکل اصلی درست میکنه:
۱. عدم تعادل توی نمونهبرداری ویژگیها (Feature Sampling): یعنی تو بعضی اطلاعات عملیاتی که اساساً ابعاد بالایی دارن (High-dimensional operational parameters) تنوع کمی داریم، ولی تو مختصات نمونهگیری که ابعاد کمتری داره (Low-dimensional sampling locations) تغییرات خیلی زیاده. خلاصه ما از یه جای بزرگ اطلاعات کمی میگیریم و این باعث میشه مدل یادگیریمون اطلاعات کافی نداشته باشه.
۲. پایین اومدن قابلیت تعمیم مدل (Generalizability): مدلهای یادگیری ماشین وقتی داده کم دارن، تو شرایط جدید یا دادههایی که قبلاً ندیده بودن، افت میکنن – یعنی نمیتونن خوب پیشبینی کنن.
حالا دانشمندا اومدن یه چارچوب جدید معرفی کردن که ترکیب دوتا راه حل هوشمندانهس:
یکیش فشردهسازی ویژگیها بر پایه دانش تخصصی (Expert knowledge-based feature compression) – یعنی با کمک آدمای باتجربه تو مخابرات، بخشای اضافی یا کم اثر رو تو دادهها پیدا کنن و بندازن دور تا مدل مجبور نشه با یه عالمه داده بیخاصیت کشتی بگیره!
دومی یادگیری بازنمایی جدا از هم یا به زبان باکلاس Disentangled Representation Learning. این یعنی مدل رو جوری تعلیم میدن که هر زیر شبکه (Subnetworks) داخل مدل، یه بخش از معنای پنهان دادهها (Latent Features) رو جداگونه یاد بگیره و بعدش همهی اینا رو با هم جمع کنه تا پیشبینی دقیقتری داشته باشیم. در کنارش هم از مدلاهای انتشار سیگنال (Propagation models) استفاده میکنن تا دادهها بهتر تفسیر و استفاده بشه – یه جور تلفیق هوش انسانی و هوش مصنوعی!
وقتی اومدن این چارچوب رو تو آزمایشها تست کردن، دیدن که خطای مدلشون ۷٪ کمتر از بهترین الگوریتمهای قبلی بوده! (ای بابا، کی بدش میاد خطا رو کم کنه!) حتی وقتی رفتن تو شبکه واقعی هم امتحان کردن، نتایج خیلی رضایتبخش بوده چون میانگین خطاش تو محدودهی ۵ دسیبل (dB) مونده. خب، اگه نمیدونی دسیبل چیه: تو شبکه تلفن و اینترنت، واحدقدرته که پایینتر بودنش یعنی پیشبینی بهتر و دقیقتره.
در کل، این چارچوب جدید کمک میکنه حتی وقتی داده کمی از تست پروازی داریم، با هوشمندی دادههای لازم رو فشرده و جداگونه مدل کنیم تا بتونیم خیلی دقیقتر پوشش شبکه ارتفاع پایین رو پیشبینی کنیم. خلاصه خیلی مناسب برای آیندهای که پهپادها و پرندههای کوچیک زیاد شدن و همهجا دنبال اینترنت پرسرعتان!
منبع: +