یه کامپیوتر عصبی با حافظه باحال مثل مغز برای جواب دادن به سؤالا!

خب حالا بیاید یه کم روراست حرف بزنیم. همیشه تو دنیای هوش مصنوعی کلی چالش هست، مخصوصاً وقتی پای جواب دادن به سؤالا و دلیل آوردن وسط میاد. این کارها واسه ما آدم‌ها شاید ساده باشه، ولی واسه کامپیوتر و مدل‌های هوش مصنوعی هنوز خیلی داستان داره.

تا الان مدل‌های زبونی بزرگ مثل ChatGPT واقعاً پیشرفت داشتن، اما یه مشکلی هنوز ته ذهن دانشمندا هست: چطور بتونیم به این مدل‌ها یه حافظه واقعی و قابل کنترل بدیم که بتونن مثل مغز ما منطقی فکر کنن و جواب درست بدن؟

حالا اینجا یه مدل به اسم Differentiable Neural Computer یا همون DNC میاد وسط. زیاد سخت نگیرین – این یه نوع مدل شبکه عصبی خاصه که می‌تونه یه جورایی یاد بگیره اطلاعات رو جوری ذخیره کنه که بعداً اگه نیاز داشت بهشون راحت دسترسی پیدا کنه. اما DNC هم با همه جذابیت‌هاش، بازم مشکلات خودش رو داره: یادگیریش ممکنه کند باشه، گاهی پیچیده میشه یا خیلی مقاوم نیست، یعنی ممکنه تو شرایط مختلف جوابای عجیب بده.

یه تیم خلاق اومدن از مغز آدم الهام گرفتن و گفتن: “بیاین حافظه کوتاه‌مدت و بلندمدت مغز رو هم بیاریم تو این مدل!” حالا حافظه کوتاه‌مدت یا Working Memory یعنی همون جایی توی مغز که اطلاعات دم دستی رو سریع نگه می‌داریم، مثلاً موقعی که داریم شماره تلفن رو قبل از نوشتن تو ذهنمون نگه می‌داریم. حافظه بلندمدت یا Long-term Memory هم همون چیزیه که اطلاعات مهم رو واسه مدت طولانی تو مغزمون نگه می‌داره، مثلاً خاطرات کودکی.

مدل جدیدی که ساختن رو اسم گذاشتن MT-DNC (Memory Transformation based DNC). تو این مدل، یه ماژول حافظه کاری هست و یه ماژول حافظه بلندمدت – درست شبیه مغز خودمون. این دو تا با هم همکاری می‌کنن که وقتی مدل داره چیزی یاد می‌گیره، تصمیم بگیره کدوم اطلاعات موقتیه (باید راحت پاک بشه) و کدوم یکی ارزش داره بره تو بلندمدت و بعداً هم به درد بخوره.

این تبدیل خودکار اطلاعات بین این دو حافظه باعث میشه مدل اطلاعات مهم‌تر رو بهتر استخراج کنه و استدلال قوی‌تری داشته باشه. یعنی هم سریع‌تر یاد می‌گیره، هم موقعی که داره به سؤال جواب میده، پایداری بیشتری داره و احتمال اینکه جوابی پرت بده کمتر میشه.

تیم پژوهشگر این روش رو روی یه مجموعه سؤال و جواب به اسم bAbI تست کردن (این دیتاستیه که مخصوص آزمایش سؤال و جواب کامپیوتریه). نتایجش هم خیلی جالب بوده، چون MT-DNC تونسته مدل‌های قبلی مثل همین DNC و همچنین Deep Neural Networks ها (یعنی شبکه‌‌های عصبی عمیق که چندین لایه دارن) رو شکست بده! هم سریع‌تر یاد گرفته و هم کیفیت جواباش بهتر بوده.

حتی با آزمایش جداگانه هم نشون دادن که اگر قسمت انتقال حافظه از کاری به بلندمدت رو حذف کنن، مدل ضعف پیدا می‌کنه. پس این بخش کلی مهمه واسه قوی‌تر شدن مدل در استدلال و پایداری جواب‌هاش.

در کل، این ایده که از مغز و حافظه‌ی ما الهام بگیرن و اون رو وارد مدل‌های هوش مصنوعی کنن، می‌تونه دنیای جدیدی واسه ساخت مدل‌های گفتگومحور و سیستم‌های استدلالی باز کنه. خلاصه، کامپیوترها دارن کم‌کم به مغز ما نزدیک‌تر می‌شن!

منبع: +