حقیقت‌دونی موقع تولید متن با هوش مصنوعی: چجوری مطمئن شیم چرت نمی‌گه!

Fall Back

امروز میخوام درباره یه روش هیجان‌انگیز به اسم Truth-Aware Decoding (یا همون TAD) براتون بگم که قراره کمک کنه هوش مصنوعی موقع نوشتن متن، خیلی راحت خالی نبنده و حرفاش به واقعیت نزدیک باشه.

خب، بذار اول خیلی ساده بگم TAD چیه. معمولاً وقتی هوش مصنوعی‌های امروزی مثل چت‌بات‌ها یا مدل‌های زبانی بزرگ (مثلاً ChatGPT) میخوان متنی تولید کنن، فقط دنبال درست بودن از نظر آماری‌ان. یعنی میبینن کدوم جمله تو دیتاشون بیشترین احتمال رو داره، همونو مینویسن. اما مشکلش اینه که بعضی وقتا همین احتمالات باعث میشه مدل یه چیز الکی بسازه – به این میگن hallucination یا «توهم زدن»، یعنی مدل چیزیو میگه که واقعیت نداره!

حالا دانشمندا اومدن یه راه حل باحال پیدا کردن. گفتن بیاید موقع تولید جمله، یه جور «بررسی حقیقت» بذاریم وسط کار. اسم این متود جدید، Truth-Aware Decoding هست. یه جوری کار میکنه که مدل هر چی مینویسه رو سریع با دانشنامه‌ها یا منبع‌های واقع‌گرایانه چِک میکنه، تا مطمئن شه پرت و پلا نمیگه.

توی این مقاله، چندتا ایده مهم اومده که لازمه یه توضیح خودمونی بدم:

۱. semantics based on constraints یعنی مدل حالا حواش رو جمع میکنه و هر بار که میخواد جمله جدیدی بسازه، با قوانین منطقی چک میکنه ببینه مجازه اون جمله رو استفاده کنه یا نه. این کار رو به سبک برنامه‌نویسی منطقی (program-logic) انجام میدن که یعنی با منطق برنامه‌ها تصمیم میگیرن چی صحیحه.

۲. یه قضیه جالب ثابت کردن (تو مقاله بهش میگن Theorem 2.7) که نشون میده اگه این گاردها (guard یعنی نگهبان، اینجا منظورشون چک‌های منطقیه) درست و کامل باشن، بهتره مدل دنبال بهینه‌ترین جمله به سبک «greedy selection» بره (یعنی هر بار بهترین گزینه رو انتخاب کنه).

۳. برای اینکه ببینیم مدل چقدر ممکنه چرت بگه، یه معیار ساختن به اسم “entropy-style invariant”. این یعنی با فرمول احتمال (مثلاً اینکه چقدر مطمئنیم حرف مدل درسته یا نه) می‌تونیم ریسک چرت گفتن رو اندازه بگیریم. “Knowledge-aware safe mass” هم یعنی اون میزان جمله‌هایی که خیالمون از نظر حقیقی بودن راحت باشه.

۴. شاید باورت نشه، ولی حتی یه سیستم چند عامله (multi-agent operational calculus) ساختن که خودش میتونه بررسی کنه آیا عملکرد مدل واقعاً اوکیه یا نه! اینجا از یه ابزار تحقیقاتی به اسم Lean هم استفاده کردن – Lean یه سیستم اثبات ریاضی که باعث میشه برنامه‌ها واقعاً قابل اطمینان باشن.

یه نکته کنکوری: این مقاله واقعاً فقط تو ریاضی و منطق بحث نکرده، بلکه آزمایش عددی و الگوریتمی هم داشته که نشون داده با این روش، مدل واقعا کمتر توهم میزنه و اطلاعات الکی نمیسازه. تازه سرعت و بازدهی مدل هم خیلی کم نمیشه، پس دیگه لازم نیست نگران باشیم مدل کند میشه یا جواب درستش فدای سرعت میشه.

در کل، Truth-Aware Decoding یه پلیه بین مدل‌های ماشینی بزرگ که تو دنیای واقعی کاربرد دارن با مدل‌هایی که میخایم مطمئن باشیم کارشون درسته و چک شده است. این کار مخصوصاً به درد جاهایی می‌خوره که اطلاعات درست خیلی مهمه – مثلاً حوزه پزشکی یا خبرنویسی. پس اگه دوست دارین هوش مصنوعی‌ها کمتر توهم بزنن و بیشتر حرف حساب بزنن، بد نیست با TAD بیشتر آشنا بشین!

منبع: +