چطور Readme_AI کمک می‌کنه هوش مصنوعی حرف درست بزنه؟!

Fall Back

بیاید یه چیزی رو بهتون راست و پوست‌کنده بگم. این مدل‌های زبان بزرگ (LLM) که همه جا حرفشونه – همونا که متنی می‌نویسن، به سوال جواب می‌دن و حتی شعر می‌گن – همیشه هم اونقدر که فکر می‌کنید دقیق و بی‌اشتباه نیستن! مثلاً ممکنه یکی یه سوال خاص ازشون بپرسه، ولی چون اطلاعات درست و مخصوص اون سوال رو ندارن، جواب‌هایی بدن که نصفه‌نیمه یا حتی اشتباه باشه. خلاصه بعضی وقتا شروع می‌کنن چرت و پرت گفتن! این رو بهش می‌گن “hallucination” – یعنی مدل هوش مصنوعی خیال‌بافی می‌کنه، جواب درست نداره و خودش یه چیزی درمی‌آره.

خب حالا مشکل اینجاست: چطوری باید حواس این هوش مصنوعی‌ها رو جمع کنیم که جوابِ درست بر اساس واقعیت بدن؟

یه تیم باهوش اومده پیشنهاد داده که به مدل زبان بزرگ به جای اینکه بی‌هوا و بدون اطلاعات زمینه‌ای سؤال بدیم، براش “context” (یعنی اطلاعات زمینه‌ای مرتبط با هر سوال) بسازیم. اینجوری احتمال اینکه جواب درست بده خیلی بیشتره. اینجا پای پروژه جالب “Readme_AI” به میون میاد.

حالا Readme_AI چیه؟

ReadmeAI در واقع یه جور پروتکل (یعنی روش و استاندارد ارتباطی) به اسم Model Context Protocol (یا خلاصه MCP) هست که می‌ره از منابع داده، اطلاعات زمینه‌ای می‌گیره و برای مدل هوش مصنوعی آماده می‌کنه. یعنی فرض کن یه مدلی رو می‌خوای درباره یه کتابخونه نرم‌افزاری خاص مثل Hedgehog (این یه کتابخونه‌ست که مثلا سازمان NIST ساخته) بپرسی. قبلا مدل‌های هوش مصنوعی معمولاً یا اشتباه جواب می‌دادن یا چیزایی می‌گفتن که اصلاً به درد نمی‌خورد. ولی اگه با ReadmeAI براش توضیحات زمینه‌ای درست آماده شده باشه، اون‌وقت جواباش دقیق‌تر و کاربردی‌تر می‌شه.

چطور کار می‌کنه؟
یک فایل مخصوص توسط صاحب داده یا همون دیتا سورس ساخته میشه که توش اطلاعات و نشانه‌گذاری‌ها (metadata) هست – مثلاً تگ‌هایی که مشخص می‌کنن هر قسمت مربوط به چیه. بعد یه سرور نمونه ساخته شده که بهش می‌گن MCP server. این سرور می‌ره این اطلاعات زمینه‌ای رو می‌خونه و برای مدل هوش مصنوعی می‌فرسته.

ویژگی مهم این پروتکل اینه که خیلی قابل گسترشه؛ یعنی میشه انواع داده‌ها رو بهش داد: از صفحات وب گرفته تا پایگاه داده‌ها، حتی مقاله‌ها و هر متن دیگه. هر چیزی که لازمه مدل درباره‌ش دلیل بیاره یا جواب‌های پیچیده‌تر بده، می‌تونه بیاد توی این context.

حالا برای اینکه قدرت این قضیه رو نشون بدن، اومدن یه مدل هوش مصنوعی رو گذاشتن جلوی سوالات مربوط به همین کتابخونه Hedgehog. قبلاً این مدل‌ها واقعا جواب درست بلد نبودن و حتی بعضاً چرت می‌گفتن! اما وقتی Readme_AI اطلاعات زمینه‌ای رو براش آماده کرد، دیگه مدل کلیات و نکات درست رو گرفت، حتی تونست قطعه‌کد درست‌وحسابی، با نمونه‌هایی که توسط توسعه‌دهنده کتابخونه آماده شده بودند، بسازه و پیشنهاد بده.

در واقع میشه گفت مهم‌ترین دستاورد این پروژه اینه که یه پروتکلِ گسترش‌پذیر برای پر کردن هوش مصنوعی با داده‌های تخصصی و قابل اطمینانِ مالک داده‌ها ارائه داده که نتیجه‌ش کاهش تخیلات یا hallucination و افزایش دقت جواب‌هاست. خلاصه اگه شما هم دوست داری به هوش مصنوعی داده‌های تخصصی‌تر و مفیدتر برسونی، کد منبع این ReadmeAI رو گذاشتن اینجا:
https://github.com/usnistgov/readme
ai

جا داره دست طراحاش رو بابت این ایده خلاقانه فشار بدیم!

منبع: +