چطور هوش مصنوعی باحال می‌تونه افسردگی رو از پست‌های شبکه‌های اجتماعی بفهمه (و توضیح هم بده که چی‌ کار داره میکنه!)

بذار از همین اول یه چیز مهم رو بگم: بیماری‌های روان مثل افسردگی این روزها حسابی همه‌گیر شدن و واقعاً روی زندگی خیلی‌ها تاثیر گذاشتن. خب معمولاً تشخیص‌شون آسون نیست، مخصوصاً وقتی پای دنیای آنلاین و شبکه‌های اجتماعی وسط باشه؛ چون آدم‌ها خیلی از احساسات واقعیشون رو اونجا می‌نویسن.

حالا یه تیم باحال اومدن و گفتن: بیاید با ترکیب هوش مصنوعی پیشرفته و داده‌های شبکه‌های اجتماعی (مثل پست‌ها، کامنت‌ها و چت‌ها)، سعی کنیم افسردگی رو زودتر و دقیق‌تر تشخیص بدیم. چرا؟ چون هرچی زودتر بفهمیم یکی افسرده‌ست، هم به خودش کمک کردیم، هم کلی هزینه و دردسر برای جامعه کم میشه.

ولی قضیه فقط این نیست که یه مدل هوش مصنوعی (مثلاً همون‌هایی که بهشون می‌گن black box یا جعبه سیاه – یعنی کار داخلیشون معلوم نیست و فقط نتیجه بهت می‌دن) بذاریم سر کار. چون پزشک‌ها و روانشناس‌ها دوست دارن دلیل پشت پیش‌بینی رو بفهمن، نه اینکه فقط بگیم این آدم افسرده‌ست یا نه!

توی این پژوهش، چند تا مدل معروف یادگیری ماشین امتحان کردن: مدل‌هایی مثل SVM (یعنی ماشین بردار پشتیبان،‌یه مدل که اومده داده‌ها رو با خطوط فرضی از هم جدا کنه)، Random Forest (که مجموعه زیادی از تصمیم‌گیری ساده رو ترکیب می‌کنه مثلاً مثل یه جنگل پر از درخت تصمیم‌گیری)، XGBoost یا همون Extreme Gradient Boosting (یکی از مدل‌های قدرتمند و سریع در مسابقات هوش مصنوعی)، و شبکه‌های عصبی مصنوعی یا ANN (یعنی مدل‌هایی که از مغز آدم الهام گرفتن).

برای اینکه این مدل‌ها بتونن حرف و نوشته‌های آدم‌ها رو بفهمن، کلی تکنیک باحال پردازش زبان طبیعی اینجا استفاده شده. مثلاً TF-IDF (یه روش برای اینکه بفهمن هر کلمه چقدر تو یک متن خاص مهمه)، LDA یا Latent Dirichlet Allocation (یه الگوریتم برای کشف موضوعات مخفی داخل متن)، N-grams (یعنی بررسی چند کلمه پشت سر هم برای گرفتن الگوی حرف زدن)، Bag of Words (یا همون کیسه کلمات که کلمه‌ها رو بدون توجه به ترتیب‌شون فقط می‌شمره)، و GloVe embeddings (که بر اساس شباهت معنایی، کلمات رو به اعداد تبدیل می‌کنه تا ماشین بفهمدشون).

ولی می‌دونی مشکل مدل‌های جعبه سیاه چیه؟ هیچکس نمی‌دونه چرا یه تصمیم خاص گرفتن! برای همین این تیم اومدن از یه ابزار خفن به اسم LIME استفاده کردن. LIME یعنی Local Interpretable Model-Agnostic Explanations – یه تکنیک که بهت کمک می‌کنه بفهمی چرا مدل تصمیم گرفته فلان پست رو مثبت یا منفی یا مثلاً افسرده تشخیص بده. اینطوری دیگه مدل مثل یه جعبه سیاه نیست و می‌تونی یه نگاه کوتاه بندازی پشت صحنه‌اش!

نتیجه اینکه توی این مقاله SVM بهترین عملکرد رو نشون داد و تونست بهتر از بقیه مدل‌ها افسردگی رو از روی حرف‌های مردم تو شبکه‌های اجتماعی حدس بزنه. LIME هم باعث شد بفهمیم مدل دقیقاً به چه واژه‌ها و الگوهایی حساسیت نشون می‌ده، که کلی به تحقیقات روان‌شناسی واقعی نزدیک بود و میشه بهش اعتماد بیشتری کرد.

در واقع، فرق عمده این کار با بقیه تحقیقات اینه که فقط دنبال دقت مدل نبودن، بلکه خیلی رو شفافیت و قابل فهم بودن مدل برای درمانگرها هم تاکید کردن. اینطوری هم دقت بالا می‌ره، هم اعتماد پزشک‌ها به مدل جلب میشه و میشه این مدل‌های هوش مصنوعی رو واقعاً وارد کارهای درمانی کرد. خلاصه اگر دیدی روزی یه اپلیکیشن بهت گفت افسرده به نظر میای، بدون پشت پرده‌اش کلی تکنولوژی و هوش مصنوعی و توضیح شفاف خوابیده! 😉

منبع: +