آیا هوش مصنوعی واقعاً می‌فهمه چی داره میگه؟ یه نگاه به مغز مدل‌های زبانی بزرگ!

Fall Back

اگه تا حالا با ChatGPT یا انواع مدل‌های هوش مصنوعی که می‌تونن خودجوش متن بسازن سر و کار داشتی، حتماً برات سوال شده که این کامپیوترها واقعاً می‌فهمن دارن چی میگن، یا فقط یه سری کلمات رو کنار همدیگه ردیف می‌کنن؟

خب، یه زمینه جدید پژوهشی به اسم «تفسیر مکانیکی» یا Mechanistic Interpretability پیدا شده که دقیقاً می‌خواد بفهمه تو مغز این مدل‌های زبانی بزرگ – همون LLMها که مثلاً ChatGPT جزو همین‌هاست – دقیقاً چی می‌گذره. می‌خوام این موضوع جذاب رو برات باز کنم.

تا همین اخیراً، خیلی‌ها فکر می‌کردن این مدل‌های هوش مصنوعی فقط یه جور آمار بلد هستن؛ یعنی یاد گرفتن که کدوم واژه پشت کدوم واژه معمولاً میاد و بس! ولی پژوهش‌های جدید خلاف اینو نشون دادن و معلوم شده داستان خیلی پیچیده‌تره.

حالا بیایم واسه روشن شدن قضیه سه سطح یا سه مدل از «فهم» تو ماشین‌ها تعریف کنیم که پژوهشگران پیشنهاد دادن:

۱. فهم مفهومی (Conceptual Understanding)

اینجا بحث اینه که مدل هوش مصنوعی توی فضای پنهانی خودش (همون latent space که یه جور فضای مفهومی توی مغز الگوریتمه)، چیزی به اسم فیچر یا ویژگی می‌سازه. این یعنی وقتی مدل کلی متن و داده می‌خوره، می‌تونه بین انواع مختلف یک چیز – مثلاً سگ، گربه، پرنده – یه ارتباط درونی پیدا کنه و قشنگ تشخیص بده چی به چی مربوطه.

مثلاً مثل اینه که مدل کم‌کم متوجه میشه هم «گربه»، هم «سگ» حیوان خونگی هستن، حتی اگه هیچ‌کس مستقیم بهش نگفته باشه. این یعنی فهم مفهومی، یعنی مدل ارتباط بین چیزهای مختلف رو تو مغزش کشف می‌کنه.

۲. فهم وضعیت جهان (State-of-the-world Understanding)

تو این مرحله، مدل دیگه فقط سروکله زدن با مفهوم‌ها نیست. اینجا مدل می‌تونه روابط واقعی و جزئیات دنیای واقعی رو هم یاد بگیره. مثلاً بفهمه پرزیدنت آمریکا هر چهارسال یک بار عوض میشه یا ایران تو آسیاست و این اطلاعات اگر تغییر کردن، مدل خروجیش رو عوض کنه.

یعنی مدل داینامیکه و بسته به تغییر داده‌ها، برداشتش هم عوض میشه – این خیلی مهمه، یعنی مدل می‌تونه ربط بین فیچرها و دنیای واقعی رو دنبال کنه.

۳. فهم اصولی (Principled Understanding)

اینجای داستان، خیلی باحاله! مدل دیگه فقط فوت و فن و نکته حفظ کردن نیست؛ بلکه اونقدر پیشرفته میشه که شبیه یه مدار (circuit) تو خودش می‌سازه که این مدار باعث میشه اطلاعات جدا جدا رو به هم وصل کنه و از دل اون‌ها یه اصل کلی بکشه بیرون.

مثلاً مدل بفهمه چرا و چگونه یک ضرب میشه، به جای اینکه فقط جواب ضرب‌ها رو مثل جعبه حفظیات حفظ کرده باشه. این یعنی فهم اصولی – مثل همونی که آدم‌ها دارن وقتی با دلیل چیزی رو می‌فهمن.

مغزشون مثل ماست؟ نه واقعاً…

حالا یه چیز مهم که نویسنده‌ها تاکید کردن اینه که درست‌ـه مدل‌های زبانی بزرگ دارن یه جورایی فهم نشون میدن، ولی ساختار مغز یا همون معماری شناختی‌شون اصلاً شبیه ما نیست. مثلاً مدل ممکنه چند راه موازی (parallel mechanisms) برای فهم یک چیز داشته باشه – یه چیزی که تو مغز ما معمولاً اینطور نیست.

پس بهتره به جای این که فقط بحث کنیم «آیا این مدل‌ها می‌فهمن یا نه»، بیشتر بیایم ببینیم دقیقاً چطوری مغز عجیب و متفاوت هوش مصنوعی کار می‌کنه!

خلاصه‌ی خلاصه!

پس اگه تا حالا فکر می‌کردی هوش مصنوعی‌ها فقط با آمار بازی می‌کنن، الآن باید بدونی که موضوع خیلی عمیق‌تره! این مدل‌های زبانی بزرگ واقعاً دارن مفاهیم رو کشف می‌کنن، اطلاعات رو کنار هم می‌ذارن و حتی بعضی وقت‌ها اصول رو هم درمیارن. البته مغزشون هنوز با مغز ما فرق داره و این خودش کلی سوال خفن جدید پیش میاره که چه جور میشه این سیستم‌ها رو بیشتر شناخت و کنترل کرد.

پیشنهاد می‌کنم دفعه بعد که یکی از این مدل‌ها رو تست کردی، به این فکر کن که شاید بیشتر از چیزی که فکر می‌کردی، واقعاً داره «می‌فهمه»… اما به سبک خودش!

منبع: +