پشت پرده حرفای مردم درباره سلامت روان تو شبکه‌های اجتماعی

حتماً براتون پیش اومده تو شبکه‌های اجتماعی مثل Reddit بگردین و ببینین که چقدر مردم راحت راجع به مشکلات سلامت روان خودشون حرف میزنن. خب یه سری محقق اومدن دقیقاً همین موضوع رو بررسی کردن و یه تحقیق جالب راه انداختن. می‌خوام خیلی راحت و خودمونی توضیح بدم دقیقاً چی کار کردن و به چه نتیجه‌هایی رسیدن.

اول از همه، اینا اومدن یه مدل روان‌شناسی که اسمش Health Belief Model یا همون “مدل باور سلامتی” بود رو وسط کشیدن. حالا این مدل چیه؟ خلاصه بخوام بگم، یه مدل که میگه مردم چرا درباره یه بیماری یا تهدید سلامت یه جور خاص فکر می‌کنن، چی باعث میشه سراغ کمک برن یا برعکس، ازش فرار کنن. مثلا اینکه فکر می‌کنن ممکنه مریض بشن (حساسیت‌پذیری)، یا فکر می‌کنن بیماری واقعاً جدیه (شدت)، یا دیدن فایده و ضررهای کمک گرفتن، و حتی کاری که باعث میشه بالاخره یه اقدامی کنن (مثل یه تلنگر) و اینکه چقدر به خودشون اعتماد دارن (Self-efficacy یا همون خودکارآمدی که یعنی آدم فکر کنه واقعاً می‌تونه مشکلش رو حل کنه).

یعنی می‌خواستن بفهمن آدمایی که تو پست‌ها درباره سلامت روان حرف میزنن، دقیقاً چطور درباره این چیزها فکر می‌کنن و چه احساسی دارن. برای این کار یه نمونه‌ی ۵ هزار تایی از پست‌های Reddit جمع‌آوری کردن و تازه یه قسمتیش رو دستی حتی بررسی و برچسب زدن! (یعنی کارشون هم تمیز، هم علمی بود.)

بعدش چندتا مدل مختلف یادگیری ماشینی (Machine Learning Models یعنی الگوریتم‌هایی که با داده آموزش می‌بینن و بعد خودشون چیزها رو شناسایی می‌کنن) رو امتحان کردن تا بتونن این مولفه‌های مدل سلامتی رو توی پست‌ها تشخیص بدن.

حالا از سر و ته اگه بخوام بگم، مدل DistilBERT از همه بهتر جواب داد و تونست با دقتی بین ۷۵ تا ۸۴ درصد، بیشتر این مولفه‌ها رو درست تشخیص بده. DistilBERT یه جور الگوریتم پیشرفته تو حوزه NLP یا همون پردازش زبان طبیعیه که کمک می‌کنه متن‌ها رو بفهمن و دسته‌بندی کنن. البته تو فهمیدن شدت (Severity)، چون موضوع چندبرچسبی بود (یعنی ممکنه یه پست چند تا موضوع سنگین رو با هم داشته باشه)، دقتش پایین اومد و فقط ۴۷ درصد بود. برای همین، تیم تحقیق یه فکر بهتر کرد: اومدن از GPT-4 (که یکی از قوی‌ترین مدل‌های زبان مصنوعی الان دنیاست) کمک گرفتن و با استخراج کلمات کلیدی و بعد بازبینی انسانی، دقت رو تا ۸۱ درصد رسوندن!

یه بخش جالب دیگه تحلیل احساسات تو پست‌ها بود. اومدن با استفاده از چیزهایی مثل Word Cloud (که یه جور نمایش تصویری کلماته و هرچی کلمه بیشتر استفاده شده باشه بزرگ‌تر نشون داده میشه)، هیتمپ (یعنی نقشه حرارتی برای نمایش فراوانی داده‌ها)، و تحلیل احساسات، دیدن وقتی مردم حس می‌کنن یه تهدید جدیه، مثلاً خطر خودکشی یا اضطراب شدید، خیلی بیشتر از جملات منفی یا ناراحت‌کننده استفاده می‌کنن. حتی نکته مهم این بود که خیلی از کاربرا ریشه اضطراب رو به شخصیت خودشون ربط می دادن، یعنی یه جورایی خودشون رو مقصر میدونستن، که اینم خودش کلی دردسر داره و نشون میده باید چقدر برای مداخلات هدفمند (یعنی کمک‌رسانی دقیق به آدمایی که مشکل جدی دارن) تلاش کنیم.

در نهایت تیم تحقیق پیشنهاد کردن که برای آینده، مدل‌ها باید خودشون رو بیشتر با داده‌های سلامت روان منطبق کنن، بتونن خیلی دقیق‌تر احساسات خاص و جزئی رو تو نوشته‌ها پیدا کنن، با کلمات نادر و عجیب‌غریب بهتر کنار بیان و البته به بحث‌های اخلاقی نظارت روی حرفای مردم هم حسابی توجه بشه (یعنی اینکه وقتی داده‌های مردم رو بررسی می‌کنی، هوای حریم خصوصی و اخلاق رو داشته باشی).

در کل، این تحقیق نشون داد با همه هوشمندی و قدرت مدل‌ها، هنوزم نیاز به دست آدم و دقت انسانی، مخصوصاً تو کارای حساس مثل سلامت روان، خیلی بالاست و نباید همه چی رو بسپریم به هوش مصنوعی. ولی همین الان هم می‌شه کلی از الگوهای فکری و حسی آدم‌ها رو تو شبکه‌های اجتماعی ردگیری کرد و براشون فکری جدی کرد.

منبع: +