ترکیب هوش مصنوعی و مدل‌های زبانی برای فهم حافظه‌ی اشتباه تو پیری! 😲

خب بذار برات از یه موضوع جالب بگم: می‌دونی که وقتی سن بالا می‌ره، خیلی از مهارت‌های ذهنی‌مون مثل حافظه، تمرکز یا فهم زبان یه کم اُفت می‌کنن. این چیزیه که زندگی روزمره‌ی خیلیا رو تحت تاثیر قرار می‌ده، مخصوصاً وقتایی که حافظه‌ی اشتباه یا همون False Memory پیش میاد. یعنی آدم یه چیزی یادش میاد که اصلاً اتفاق نیفتاده یا یه چیزی یادش میاد که نصفه‌نیمه و اشتباهه! مشکل اینجاست که دانشمندا هنوز دقیق نمی‌دونن چرا با بالا رفتن سن، این مشکل بیشتر می‌شه.

حالا دانشمندا برای اینکه بفهمن دقیقاً چه اتفاقی تو مغز می‌افته و چرا این مشکل بیشتر می‌شه، روش‌های علمی مختلفی رو امتحان کردن، اما خیلیاشون کامل و جوابگو نبوده. برای همین تو این تحقیق اومدن یه روش هیبریدی یا ترکیبی درست کردن که مخلوطی از هوش مصنوعی پیشرفته و مدل‌های زبانی بر پایه transformer هست. (Transformer یعنی یه مدل جدید هوش مصنوعی واسه درک و تولید زبان که زبان طبیعی رو می‌فهمه و مثلاً ChatGPT هم روش ساخته شده). هدفشون چی بوده؟ اینکه الگوهای رفتاری رو پیدا کنن که می‌تونن خاطرات واقعی رو از خاطرات اشتباه از هم جدا کنن، اونم هم تو آدمای جوون، هم تو بزرگ‌سال‌ها.

در واقع اومدن یه مدل ماشین لرنینگ یا همون یادگیری ماشین ساختن که اسمش LightGBM هست (LightGBM یعنی یه الگوریتم یادگیری ماشین سریع و سبک که معمولاً برای دسته‌بندی داده‌ها و پیدا کردن الگوها استفاده می‌شه.) البته یه نسخه شخصی‌سازی شده ازش ساختن و براش اهمیت ویژگی‌ها رو با یه روشی به اسم permutation importance سنجیدن (یعنی براشون مهم بوده کدوم ویژگی‌ها بیشتر توی نتیجه تاثیر دارن.

جالبیش اینه که نه تا ویژگی کلیدی کشف کردن که توی تفاوت بین خاطره واقعی و خاطره اشتباه نقش دارن. بعد هم این مدل رو با مدل زبانی (همون مدل هوش مصنوعی که زبان رو می‌فهمه) ترکیب کردن تا بشه بهتر تفسیر کرد که چرا این الگوها پیش میان.

حالا بیام سر اصل نتیجه‌ها. دانشمندا فهمیدن که آدمای جوون وقتی دارن متن می‌خونن، اگه روی زمان تخصیص به هدف (target encoding time) تمرکز کنن، راحت‌تر می‌تونن اطلاعات اشتباهی که بهشون داده می‌شه رو تشخیص بدن و گول نخورن. اما بزرگ‌سال‌ها بیشتر قربانی شباهت معنایی بین کلمات می‌شن (Semantic similarity یعنی مثلاً دوتا کلمه از نظر معنی شبیهن، مثل “گرگ” و “سگ”، و باعث می‌شه ذهن اشتباه کنه).

خلاصه که این تحقیق نشون داده با ترکیب مدل‌های ماشین لرنینگ و مدل‌های زبانی می‌شه الگوهای عمیق‌تری از نحوه افت حافظه تو پیری رو فهمید. مدل LightGBM که تغییرش داده بودن، حسابی خوب جواب داد و تونست با F1-score برابر 0.82 و recall حدود 0.88 بقیه مدل‌های هوش مصنوعی عمیق (Deep learning) و مدل‌های Transformer رو شکست بده. (F1-score و Recall هم دوتا معیار برای ارزیابی مدلن که عدد نزدیک ۱ یعنی مدل خیلی کارش خوب بوده!)

پس اگه تا حالا برات سوال بوده چرا مثلاً مادربزرگ یا پدربزرگت چیزی رو اشتباه یادشون می‌مونه، باید بدونی علوم داده و هوش مصنوعی دارن کلی کار می‌کنن تا الگوهاشو کشف کنن و شاید در آینده بتونن راهی پیدا کنن که کیفیت زندگی تو سن بالا بهتر بشه! 😁

منبع: +