چطوری مغزمون داستان‌ها رو توی درختای ریاضی می‌چینه؟ یه مدل جدید و باحال برای حافظه!

خب بیا یه چیز جالب رو برات تعریف کنم! یه تیم خفن از محققای مؤسسه تحقیقات پیشرفته تو آمریکا، دانشگاه ایموری و موسسه وایزمن اسرائیل نشستن و یه مدل ریاضی درست کردن برای اینکه بفهمیم مغزمون چطوری داستان‌ها رو توی حافظه نگه می‌داره و بعدش یادش میاد. حالا این مدل بهش میگن مدل درخت تصادفی یا همون Random Tree Model. یعنی چی؟ یعنی اینکه داستانا رو به شکل یه درخت فرض کردن؛ همونطور که شاخه‌ شاخه میشه و هر شاخه خودش چندتا برگ داره یا شاخه‌ی کوچیک‌تر.

این ایده چطور کار می‌کنه؟ بذار یه جور ساده بگم: هر قسمت مهم داستان، مثل یه گره (node) توی این درخت هست و جزئیات ریزتر، میشن شاخه‌ها و برگ‌های پایین‌تر درخت. مثلاً فرض کن یه نفر داره خاطره‌ی یه مهمونی رو تعریف می‌کنه، کل مهمونی میشه یه گره اصلی، بعد تولد گرفتن و آهنگ زدن و کیک آوردن میشن شاخه‌ها. اینجوری کلاً مغز آدم اطلاعاتو دسته‌بندی می‌کنه.

خیلی از دانشمندها قبلاً فکر می‌کردن که داستان‌ها اونقدر پیچیدن که نمیشه براشون مدل ریاضی ساخت. ولی این تیم نشون دادن نه، اتفاقاً یه الگوریتم ساده و چند تا قانون کلی پیدا کردن که کلی فرایند یادآوری داستانا رو با آمار و احتمال میشه پیش‌بینی کرد! به قول میشا تسودیکز، نویسنده اصلی مقاله، گفت: «با اینکه داستانا پیچیده‌ان، ولی الگوهای آماری مشخصی تو نحوه یادآوریشون هست.»

حالا چجوری اینو تست کردن؟ اومدن ۱۱ تا داستان با طولای مختلف، از ۲۰ تا ۲۰۰ جمله که یه زبان‌شناس معروف به اسم ویلیام لابوف جمع کرده بود (Labov که کلی درباره روایت‌شناسی تحقیق کرده) رو به بیش از ۱۰۰ نفر دادن—اونم آنلاین، با سرویس‌هایی مثل Amazon و Prolific که در واقع پلتفرم‌هایی برای جذب شرکت‌کننده تو تحقیقات هستن. بعد به آدم‌ها گفتن این داستانا رو بعد از خوندن یا شنیدن، تعریف کنن ببینیم چی یادشونه.

نتیجه چی شد؟ معلوم شد اغلب آدما میان کل یه قسمت مهم از داستان رو با یه جمله خلاصه می‌کنن! مثلاً کل ماجرای دعوا توی مهمونی رو فقط با یه جمله توضیح میدن. این نشون میده مغز داستانو همینجوری شاخه‌ای و کم‌کم خلاصه می‌کنه، دقیقاً مثل ساختار یه درخت. هرچی یه اتفاق کلی‌تر باشه، توی گره‌های بالاتر ذخیره می‌شه و چیزای ریزتر، مثل شاخه‌های پایینی جا می‌گیرن.

محقق‌ها برای تحلیل بهتر داده‌ها از ابزارهای مدرن مثل AI و Large Language Models هم کمک گرفتن. Large Language Model یعنی هوش مصنوعی‌هایی که خیلی متن بلدن بخونن و تولید کنن، مثل ChatGPT! حتی با داستانای صوتی لابوف که مال دهه ۱۹۶۰ بود کار کردن و هزار جور تحلیل کامپیوتری انجام دادن.

در نهایت فهمیدن وقتی کسی برای اولین بار داستانی رو می‌شنوه یا می‌خونه و می‌فهمه، مغزش همون لحظه یه ساختار درختی تو ذهنش می‌سازه. اما نکته خفن اینه: هرکسی بسته به دیده خودش و برداشت شخصی، شکل درختش فرق داره! مثلاً یکی ممکنه جزئیات بیشتری یادش بمونه، یکی دیگه فقط خلاصه کلیات.

یه بخش هیجان‌انگیز دیگه اینکه مدلشون با حل ریاضی کامل جواب می‌ده! یعنی فرمولا و شبیه‌سازی‌هاشون دقیقاً با داده‌هایی که از آدما گرفتن جور درمیاد. دانشمندها فکر می‌کنن نه فقط داستان، هر محتوای معناداری تو ذهن ما احتمالاً تو همین ساختار درختی دسته‌بندی میشه.

کاربرد این کشف چیه؟ خب واقعاً کلی راه جدید بهمون میده برای فهمیدن اینکه مغزمون چطوری چیزا رو معنی‌دار می‌کنه؛ مخصوصاً چون روایت‌گری یه جور راه پایه‌ایه واسه اینکه ما دنیا، خاطرات، اتفاقای اجتماعی و حتی تاریخ رو بفهمیم. ضمناً نشون میده ترکیب مدل‌های ریاضی با تکنیک‌های هوش مصنوعی (AI techniques یعنی روش‌هایی که بر پایه هوش مصنوعی هستن) چقدر می‌تونه تو تحقیقات حافظه و مغز مفید باشه.

خلاصه، اگه دوست داری جزئیات مقاله رو ببینی، خودشون اینجا منتشرش کردن: Physical Review Letters. این همونه که کلی مقاله علمی مهم توش چاپ میشه!

در کل، دفعه بعدی که میخوای خاطره‌ تعریف کنی یا داستانی رو به یاد بیاری، بدون مغزت داره یه درخت بزرررگ توی حافظه‌ات می‌کاره و شاخه‌هاش همون خاطره‌ها و جزئیاته!

منبع: +