خب بیا یه چیز جالب رو برات تعریف کنم! یه تیم خفن از محققای مؤسسه تحقیقات پیشرفته تو آمریکا، دانشگاه ایموری و موسسه وایزمن اسرائیل نشستن و یه مدل ریاضی درست کردن برای اینکه بفهمیم مغزمون چطوری داستانها رو توی حافظه نگه میداره و بعدش یادش میاد. حالا این مدل بهش میگن مدل درخت تصادفی یا همون Random Tree Model. یعنی چی؟ یعنی اینکه داستانا رو به شکل یه درخت فرض کردن؛ همونطور که شاخه شاخه میشه و هر شاخه خودش چندتا برگ داره یا شاخهی کوچیکتر.
این ایده چطور کار میکنه؟ بذار یه جور ساده بگم: هر قسمت مهم داستان، مثل یه گره (node) توی این درخت هست و جزئیات ریزتر، میشن شاخهها و برگهای پایینتر درخت. مثلاً فرض کن یه نفر داره خاطرهی یه مهمونی رو تعریف میکنه، کل مهمونی میشه یه گره اصلی، بعد تولد گرفتن و آهنگ زدن و کیک آوردن میشن شاخهها. اینجوری کلاً مغز آدم اطلاعاتو دستهبندی میکنه.
خیلی از دانشمندها قبلاً فکر میکردن که داستانها اونقدر پیچیدن که نمیشه براشون مدل ریاضی ساخت. ولی این تیم نشون دادن نه، اتفاقاً یه الگوریتم ساده و چند تا قانون کلی پیدا کردن که کلی فرایند یادآوری داستانا رو با آمار و احتمال میشه پیشبینی کرد! به قول میشا تسودیکز، نویسنده اصلی مقاله، گفت: «با اینکه داستانا پیچیدهان، ولی الگوهای آماری مشخصی تو نحوه یادآوریشون هست.»
حالا چجوری اینو تست کردن؟ اومدن ۱۱ تا داستان با طولای مختلف، از ۲۰ تا ۲۰۰ جمله که یه زبانشناس معروف به اسم ویلیام لابوف جمع کرده بود (Labov که کلی درباره روایتشناسی تحقیق کرده) رو به بیش از ۱۰۰ نفر دادن—اونم آنلاین، با سرویسهایی مثل Amazon و Prolific که در واقع پلتفرمهایی برای جذب شرکتکننده تو تحقیقات هستن. بعد به آدمها گفتن این داستانا رو بعد از خوندن یا شنیدن، تعریف کنن ببینیم چی یادشونه.
نتیجه چی شد؟ معلوم شد اغلب آدما میان کل یه قسمت مهم از داستان رو با یه جمله خلاصه میکنن! مثلاً کل ماجرای دعوا توی مهمونی رو فقط با یه جمله توضیح میدن. این نشون میده مغز داستانو همینجوری شاخهای و کمکم خلاصه میکنه، دقیقاً مثل ساختار یه درخت. هرچی یه اتفاق کلیتر باشه، توی گرههای بالاتر ذخیره میشه و چیزای ریزتر، مثل شاخههای پایینی جا میگیرن.
محققها برای تحلیل بهتر دادهها از ابزارهای مدرن مثل AI و Large Language Models هم کمک گرفتن. Large Language Model یعنی هوش مصنوعیهایی که خیلی متن بلدن بخونن و تولید کنن، مثل ChatGPT! حتی با داستانای صوتی لابوف که مال دهه ۱۹۶۰ بود کار کردن و هزار جور تحلیل کامپیوتری انجام دادن.
در نهایت فهمیدن وقتی کسی برای اولین بار داستانی رو میشنوه یا میخونه و میفهمه، مغزش همون لحظه یه ساختار درختی تو ذهنش میسازه. اما نکته خفن اینه: هرکسی بسته به دیده خودش و برداشت شخصی، شکل درختش فرق داره! مثلاً یکی ممکنه جزئیات بیشتری یادش بمونه، یکی دیگه فقط خلاصه کلیات.
یه بخش هیجانانگیز دیگه اینکه مدلشون با حل ریاضی کامل جواب میده! یعنی فرمولا و شبیهسازیهاشون دقیقاً با دادههایی که از آدما گرفتن جور درمیاد. دانشمندها فکر میکنن نه فقط داستان، هر محتوای معناداری تو ذهن ما احتمالاً تو همین ساختار درختی دستهبندی میشه.
کاربرد این کشف چیه؟ خب واقعاً کلی راه جدید بهمون میده برای فهمیدن اینکه مغزمون چطوری چیزا رو معنیدار میکنه؛ مخصوصاً چون روایتگری یه جور راه پایهایه واسه اینکه ما دنیا، خاطرات، اتفاقای اجتماعی و حتی تاریخ رو بفهمیم. ضمناً نشون میده ترکیب مدلهای ریاضی با تکنیکهای هوش مصنوعی (AI techniques یعنی روشهایی که بر پایه هوش مصنوعی هستن) چقدر میتونه تو تحقیقات حافظه و مغز مفید باشه.
خلاصه، اگه دوست داری جزئیات مقاله رو ببینی، خودشون اینجا منتشرش کردن: Physical Review Letters. این همونه که کلی مقاله علمی مهم توش چاپ میشه!
در کل، دفعه بعدی که میخوای خاطره تعریف کنی یا داستانی رو به یاد بیاری، بدون مغزت داره یه درخت بزرررگ توی حافظهات میکاره و شاخههاش همون خاطرهها و جزئیاته!
منبع: +