امروز میخوام درباره یه روش هیجانانگیز به اسم Truth-Aware Decoding (یا همون TAD) براتون بگم که قراره کمک کنه هوش مصنوعی موقع نوشتن متن، خیلی راحت خالی نبنده و حرفاش به واقعیت نزدیک باشه.
خب، بذار اول خیلی ساده بگم TAD چیه. معمولاً وقتی هوش مصنوعیهای امروزی مثل چتباتها یا مدلهای زبانی بزرگ (مثلاً ChatGPT) میخوان متنی تولید کنن، فقط دنبال درست بودن از نظر آماریان. یعنی میبینن کدوم جمله تو دیتاشون بیشترین احتمال رو داره، همونو مینویسن. اما مشکلش اینه که بعضی وقتا همین احتمالات باعث میشه مدل یه چیز الکی بسازه – به این میگن hallucination یا «توهم زدن»، یعنی مدل چیزیو میگه که واقعیت نداره!
حالا دانشمندا اومدن یه راه حل باحال پیدا کردن. گفتن بیاید موقع تولید جمله، یه جور «بررسی حقیقت» بذاریم وسط کار. اسم این متود جدید، Truth-Aware Decoding هست. یه جوری کار میکنه که مدل هر چی مینویسه رو سریع با دانشنامهها یا منبعهای واقعگرایانه چِک میکنه، تا مطمئن شه پرت و پلا نمیگه.
توی این مقاله، چندتا ایده مهم اومده که لازمه یه توضیح خودمونی بدم:
۱. semantics based on constraints یعنی مدل حالا حواش رو جمع میکنه و هر بار که میخواد جمله جدیدی بسازه، با قوانین منطقی چک میکنه ببینه مجازه اون جمله رو استفاده کنه یا نه. این کار رو به سبک برنامهنویسی منطقی (program-logic) انجام میدن که یعنی با منطق برنامهها تصمیم میگیرن چی صحیحه.
۲. یه قضیه جالب ثابت کردن (تو مقاله بهش میگن Theorem 2.7) که نشون میده اگه این گاردها (guard یعنی نگهبان، اینجا منظورشون چکهای منطقیه) درست و کامل باشن، بهتره مدل دنبال بهینهترین جمله به سبک «greedy selection» بره (یعنی هر بار بهترین گزینه رو انتخاب کنه).
۳. برای اینکه ببینیم مدل چقدر ممکنه چرت بگه، یه معیار ساختن به اسم “entropy-style invariant”. این یعنی با فرمول احتمال (مثلاً اینکه چقدر مطمئنیم حرف مدل درسته یا نه) میتونیم ریسک چرت گفتن رو اندازه بگیریم. “Knowledge-aware safe mass” هم یعنی اون میزان جملههایی که خیالمون از نظر حقیقی بودن راحت باشه.
۴. شاید باورت نشه، ولی حتی یه سیستم چند عامله (multi-agent operational calculus) ساختن که خودش میتونه بررسی کنه آیا عملکرد مدل واقعاً اوکیه یا نه! اینجا از یه ابزار تحقیقاتی به اسم Lean هم استفاده کردن – Lean یه سیستم اثبات ریاضی که باعث میشه برنامهها واقعاً قابل اطمینان باشن.
یه نکته کنکوری: این مقاله واقعاً فقط تو ریاضی و منطق بحث نکرده، بلکه آزمایش عددی و الگوریتمی هم داشته که نشون داده با این روش، مدل واقعا کمتر توهم میزنه و اطلاعات الکی نمیسازه. تازه سرعت و بازدهی مدل هم خیلی کم نمیشه، پس دیگه لازم نیست نگران باشیم مدل کند میشه یا جواب درستش فدای سرعت میشه.
در کل، Truth-Aware Decoding یه پلیه بین مدلهای ماشینی بزرگ که تو دنیای واقعی کاربرد دارن با مدلهایی که میخایم مطمئن باشیم کارشون درسته و چک شده است. این کار مخصوصاً به درد جاهایی میخوره که اطلاعات درست خیلی مهمه – مثلاً حوزه پزشکی یا خبرنویسی. پس اگه دوست دارین هوش مصنوعیها کمتر توهم بزنن و بیشتر حرف حساب بزنن، بد نیست با TAD بیشتر آشنا بشین!
منبع: +