خب بذار برات از یه موضوع جالب بگم: میدونی که وقتی سن بالا میره، خیلی از مهارتهای ذهنیمون مثل حافظه، تمرکز یا فهم زبان یه کم اُفت میکنن. این چیزیه که زندگی روزمرهی خیلیا رو تحت تاثیر قرار میده، مخصوصاً وقتایی که حافظهی اشتباه یا همون False Memory پیش میاد. یعنی آدم یه چیزی یادش میاد که اصلاً اتفاق نیفتاده یا یه چیزی یادش میاد که نصفهنیمه و اشتباهه! مشکل اینجاست که دانشمندا هنوز دقیق نمیدونن چرا با بالا رفتن سن، این مشکل بیشتر میشه.
حالا دانشمندا برای اینکه بفهمن دقیقاً چه اتفاقی تو مغز میافته و چرا این مشکل بیشتر میشه، روشهای علمی مختلفی رو امتحان کردن، اما خیلیاشون کامل و جوابگو نبوده. برای همین تو این تحقیق اومدن یه روش هیبریدی یا ترکیبی درست کردن که مخلوطی از هوش مصنوعی پیشرفته و مدلهای زبانی بر پایه transformer هست. (Transformer یعنی یه مدل جدید هوش مصنوعی واسه درک و تولید زبان که زبان طبیعی رو میفهمه و مثلاً ChatGPT هم روش ساخته شده). هدفشون چی بوده؟ اینکه الگوهای رفتاری رو پیدا کنن که میتونن خاطرات واقعی رو از خاطرات اشتباه از هم جدا کنن، اونم هم تو آدمای جوون، هم تو بزرگسالها.
در واقع اومدن یه مدل ماشین لرنینگ یا همون یادگیری ماشین ساختن که اسمش LightGBM هست (LightGBM یعنی یه الگوریتم یادگیری ماشین سریع و سبک که معمولاً برای دستهبندی دادهها و پیدا کردن الگوها استفاده میشه.) البته یه نسخه شخصیسازی شده ازش ساختن و براش اهمیت ویژگیها رو با یه روشی به اسم permutation importance سنجیدن (یعنی براشون مهم بوده کدوم ویژگیها بیشتر توی نتیجه تاثیر دارن.
جالبیش اینه که نه تا ویژگی کلیدی کشف کردن که توی تفاوت بین خاطره واقعی و خاطره اشتباه نقش دارن. بعد هم این مدل رو با مدل زبانی (همون مدل هوش مصنوعی که زبان رو میفهمه) ترکیب کردن تا بشه بهتر تفسیر کرد که چرا این الگوها پیش میان.
حالا بیام سر اصل نتیجهها. دانشمندا فهمیدن که آدمای جوون وقتی دارن متن میخونن، اگه روی زمان تخصیص به هدف (target encoding time) تمرکز کنن، راحتتر میتونن اطلاعات اشتباهی که بهشون داده میشه رو تشخیص بدن و گول نخورن. اما بزرگسالها بیشتر قربانی شباهت معنایی بین کلمات میشن (Semantic similarity یعنی مثلاً دوتا کلمه از نظر معنی شبیهن، مثل “گرگ” و “سگ”، و باعث میشه ذهن اشتباه کنه).
خلاصه که این تحقیق نشون داده با ترکیب مدلهای ماشین لرنینگ و مدلهای زبانی میشه الگوهای عمیقتری از نحوه افت حافظه تو پیری رو فهمید. مدل LightGBM که تغییرش داده بودن، حسابی خوب جواب داد و تونست با F1-score برابر 0.82 و recall حدود 0.88 بقیه مدلهای هوش مصنوعی عمیق (Deep learning) و مدلهای Transformer رو شکست بده. (F1-score و Recall هم دوتا معیار برای ارزیابی مدلن که عدد نزدیک ۱ یعنی مدل خیلی کارش خوب بوده!)
پس اگه تا حالا برات سوال بوده چرا مثلاً مادربزرگ یا پدربزرگت چیزی رو اشتباه یادشون میمونه، باید بدونی علوم داده و هوش مصنوعی دارن کلی کار میکنن تا الگوهاشو کشف کنن و شاید در آینده بتونن راهی پیدا کنن که کیفیت زندگی تو سن بالا بهتر بشه! 😁
منبع: +