هوش مصنوعی و سونوگرافی زبان: چطور قراره بچه‌هایی که مشکل تلفظ دارن رو راحت‌تر شناسایی کنیم؟

این روزها کلی بچه هستن که با اختلالات گفتاری دست‌وپنجه نرم می‌کنن. یعنی خیلی راحت نتونن بعضی صداها رو درست بگن و همین رو ارتباط و رشدشون تاثیر می‌ذاره. حالا یه تکنولوژی خیلی باحال داره میاد وسط که می‌تونه این داستانو آسون‌تر و سریع‌تر کنه: تصویربرداری زبان با سونوگرافی یا همون UTI. اگه براتون سوال شد، UTI یعنی گرفتن تصویر حرکت زبان موقع صحبت با استفاده از سونوگرافی – اصلاً درد هم نداره و کاملاً غیرتهاجمیه.

حالا این وسط Deep Learning یا همون یادگیری عمیق هم داره غوغا می‌کنه! یادگیری عمیق یعنی یه مدل هوش مصنوعی که خودش می‌تونه با دیدن داده‌های زیاد (مثلاً همین تصاویر سونوگرافی زبان)، یاد بگیره که چی به چیه. دانشمندها دارن از این مدل‌های یادگیری عمیق استفاده می‌کنن تا تصاویر UTI رو خیلی سریع و خودکار تحلیل کنن و ببینن آیا یه بچه مشکل تلفظ داره یا نه.

تو این بررسی که انجام شده، اومدن حسابی توی دیتابیس‌های علمی چرخ زدن؛ از IEEE Xplore و PubMed گرفته تا ScienceDirect و Scopus و حتی arXiv. فقط مقالاتی رو انتخاب کردن که واقعاً توشون یادگیری عمیق روی تصاویر UTI برای شناسایی اختلالات گفتاری بچه‌ها استفاده شده باشه، یا حداقل کمکی به این حوزه کنه (مثل مدل‌سازی حرکت زبان یا استخراج ویژگی‌های مهم از داده‌ها).

نتیجه‌اش؟
یازده تا مقاله پیدا کردن که سه‌تاشون مستقیماً سراغ دسته‌بندی گفتار اختلال‌دار رفتن؛ چهار تا هم بیشتر کمک کردن به مراحل پایه‌ای‌تر مثل جداکردن لبه‌ی زبان توی تصویر یا مدل کردن حرکت زبان. تو هر بخش هم نتایج نویدبخشی دیدن. مثلاً بعضی مدل‌ها تونستن الگوهای مشکل‌دار رو از بین کلی تصویر تشخیص بدن.

ولی همه‌چی گل و بلبل نیست؛ خیلی از این تحقیقات هنوز روی دیتاست‌های کوچیک انجام شدن. دیتاست یعنی همون مجموعه داده‌هایی که مدل‌های یادگیری باید باهاشون یاد بگیرن – و اگه کم باشن یا فقط بچه‌های سالم توش باشه، مدل تو دنیای واقعی جواب نخواهد داد. تازه، هنوز همه به یه روش استاندارد ارزیابی نرسیدن و کلی تفاوت هست.

نکته باحال دیگه اینه که این مدل‌های یادگیری عمیق مراحل مختلفی رو طی کردن؛ از آماده‌سازی داده‌ها تا شناسایی صدا یا فونِم (همون صدای کوچیکی که معنی رو تغییر می‌ده) در بچه‌های سالم و بعدش اقدامات اولیه برای پیدا کردن اختلال‌های واقعی در حرف زدن بچه‌هایی که مشکل دارن. این یعنی هنوز باید کلی راه بریم تا سیستم‌ها بتونن دقیق و همه‌کاره باشن.

حالا آینده این فناوری چیه؟ قطعاً پتانسیل خیلی بالایی داره. خب تصور کنین یه سیستم خودکار داشته باشیم که به جای این‌که کارشناس با دقت همه چیز رو تحلیل کنه، خودش همزمان با حرف زدن بچه، فیدبک بده و بگه کجاها مشکل هست. این می‌تونه تشخیص اختلالات گفتاری رو راحت‌تر و جذاب‌تر کنه، مخصوصاً برای بچه‌ها.

ولی برای این که واقعاً تو دنیای واقعی جواب بده، بهتره که روی دیتاست‌های بزرگ‌تر کار کنن، مدل‌هایی طراحی کنن که دقیقاً قابل توضیح باشه (یعنی بشه فهمید چرا یه نتیجه داد) و آخرش هم این سیستم‌ها رو تو کلینیک‌ها روی بچه‌های واقعی تست کنن.

خلاصه این که هوش مصنوعی و سونوگرافی دارن دست‌به‌دست هم می‌دن تا تشخیص اختلالات گفتاری تو بچه‌ها رو ببرن به یه سطح جدید – سریع‌تر، کم‌دردسرتر و کلی هیجان‌انگیزتر!

منبع: +