خب بچهها، این روزا مدلهای زبانی بزرگ (مثلاً همون هوش مصنوعیهایی که میتونن خودشون کلی متن تولید کنن) دارن روز به روز خفنتر میشن و خیلی برای خلاصهکردن یا جمعبندی مقالهها و تحقیقات به کار میان. اما مشکل چیه؟ این مدلها بعضی وقتا چیزایی رو از خودشون درمیارن یا ارجاعها رو اشتباه میزنن! به این میگن “hallucination” یا همون توهم زدن هوش مصنوعی. یعنی ممکنه یه چیزی بگه که اصلاً وجود نداره یا ربط نداره.
حالا یه تیم اومده یه دستیار تحقیق ساختن به اسم RA-FSM که مخفف Research Assistant – Finite State Machine هست. خیلی راحت بخوام توضیح بدم، این یه دستیار تحقیق مدولار و مبتنی بر GPT هست که خیلی منظم و مرحله به مرحله عمل میکنه. ایدهش اینه که قبل از اینکه جواب بده، از سه تا فیلتر رد میشه: اول بررسی میکنه آیا این سؤال اصلاً به تحقیق ربط داره یا نه (یعنی موضوع اصلی هست یا نه)، بعد میزان اطمینان خودش رو درباره جواب چک میکنه، و در نهایت سراغ اطلاعات قطعی میره.
یه چیز باحال این دستیار اینه که از چیزی به اسم “vector retrieval” بهره میبره؛ به زبان ساده یعنی برای پیدا کردن جواب، میره توی یه پایگاه داده پیشرفته که اطلاعات رو به صورت برداری (همون عددی و فشرده) ذخیره کرده. اینجوری پیدا کردن جوابها دقیقتره و ارجاعها هم واضح و قابل پیگیری میشن. یه مرحله هم هست به اسم “deterministic citation pipeline” یعنی ارجاعدهی کاملاً مشخص و قابل اطمینان رو انجام میده، طوری که همیشه میشه فهمید از کجا آورده.
کنترلکننده (یعنی اون مغز اصلی سیستم) یه سری کار باحال انجام میده: اگه سؤال بیربط باشه ردش میکنه، بررسی میکنه که اصلاً جواب دادن به این موضوع امکانپذیره یا نه، اگه سؤال پیچیده باشه قسمتبندیش میکنه و فقط هر موقع واقعاً لازمه، میره سراغ اطلاعات توی دیتابیس. موقع جواب دادن هم به جوابش یه برچسب اطمینان میزنه و برای هر حرفی که میزنه یه ارجاع معتبر و بدون تکرار میآره.
راستی روند کارش واسه جمع کردن دانش هم جالبه! از همهجای علمی (مثلاً ژورنالها، کنفرانسها، پایگاههای اطلاعاتی، پیشچاپها و حتی پتنتها) دادههاش رو میگیره و همه اینا رو هم توی یه پایگاه داده برداری و هم یه جدول رابطهای (relational store یعنی همون دیتابیس جدولی که اطلاعاتش رو استاندارد و تمیز ذخیره میکنه) نگهداری میکنه.
این سیستم رو فعلاً واسه زمینه فوتونیک (photonics یعنی علمی که درباره نور و لیزر و چیزای این مدلیه) پیادهسازی و تست کردن. روی شش نوع سؤال مختلف هم امتحانش کردن: مثل تحلیل منطقی، آنالیز عددی، نقد روش تحقیق، مقایسه خلاصهوار، استخراج اطلاعات دقیق و حتی طراحی کاربرد. توی مقایسه نابینا (یعنی کارشناسایی که نمیدونستن جوابها رو کی داده)، متخصصها این دستیار رو به مدلهای دیگه مثل Notebook LM و نسخه عادی GPT ترجیح دادن، چون بهتر میتونه مرزها رو رعایت کنه و شواهد قابل دفاعتری ارائه بده.
از نظر پوشش و نوآوری، این دستیار تازه حتی موضوعاتی رو کشف میکنه که مدلهای رقیب سراغش نرفتن. البته این همه دقت یه کم زمان و هزینه بیشتر میبره، اما میشه تنظیمش کرد. خلاصه دیگه، این طراحی دستیار، جوابهایی شفاف و خوب ارجاعدار ارائه میده، خیلی به درد کارهای حساس فنی میخوره و راحت میشه تو حوزههای علمی دیگه هم توسعهش داد.
منبع: +