اگه تا حالا با ChatGPT یا انواع مدلهای هوش مصنوعی که میتونن خودجوش متن بسازن سر و کار داشتی، حتماً برات سوال شده که این کامپیوترها واقعاً میفهمن دارن چی میگن، یا فقط یه سری کلمات رو کنار همدیگه ردیف میکنن؟
خب، یه زمینه جدید پژوهشی به اسم «تفسیر مکانیکی» یا Mechanistic Interpretability پیدا شده که دقیقاً میخواد بفهمه تو مغز این مدلهای زبانی بزرگ – همون LLMها که مثلاً ChatGPT جزو همینهاست – دقیقاً چی میگذره. میخوام این موضوع جذاب رو برات باز کنم.
تا همین اخیراً، خیلیها فکر میکردن این مدلهای هوش مصنوعی فقط یه جور آمار بلد هستن؛ یعنی یاد گرفتن که کدوم واژه پشت کدوم واژه معمولاً میاد و بس! ولی پژوهشهای جدید خلاف اینو نشون دادن و معلوم شده داستان خیلی پیچیدهتره.
حالا بیایم واسه روشن شدن قضیه سه سطح یا سه مدل از «فهم» تو ماشینها تعریف کنیم که پژوهشگران پیشنهاد دادن:
۱. فهم مفهومی (Conceptual Understanding)
اینجا بحث اینه که مدل هوش مصنوعی توی فضای پنهانی خودش (همون latent space که یه جور فضای مفهومی توی مغز الگوریتمه)، چیزی به اسم فیچر یا ویژگی میسازه. این یعنی وقتی مدل کلی متن و داده میخوره، میتونه بین انواع مختلف یک چیز – مثلاً سگ، گربه، پرنده – یه ارتباط درونی پیدا کنه و قشنگ تشخیص بده چی به چی مربوطه.
مثلاً مثل اینه که مدل کمکم متوجه میشه هم «گربه»، هم «سگ» حیوان خونگی هستن، حتی اگه هیچکس مستقیم بهش نگفته باشه. این یعنی فهم مفهومی، یعنی مدل ارتباط بین چیزهای مختلف رو تو مغزش کشف میکنه.
۲. فهم وضعیت جهان (State-of-the-world Understanding)
تو این مرحله، مدل دیگه فقط سروکله زدن با مفهومها نیست. اینجا مدل میتونه روابط واقعی و جزئیات دنیای واقعی رو هم یاد بگیره. مثلاً بفهمه پرزیدنت آمریکا هر چهارسال یک بار عوض میشه یا ایران تو آسیاست و این اطلاعات اگر تغییر کردن، مدل خروجیش رو عوض کنه.
یعنی مدل داینامیکه و بسته به تغییر دادهها، برداشتش هم عوض میشه – این خیلی مهمه، یعنی مدل میتونه ربط بین فیچرها و دنیای واقعی رو دنبال کنه.
۳. فهم اصولی (Principled Understanding)
اینجای داستان، خیلی باحاله! مدل دیگه فقط فوت و فن و نکته حفظ کردن نیست؛ بلکه اونقدر پیشرفته میشه که شبیه یه مدار (circuit) تو خودش میسازه که این مدار باعث میشه اطلاعات جدا جدا رو به هم وصل کنه و از دل اونها یه اصل کلی بکشه بیرون.
مثلاً مدل بفهمه چرا و چگونه یک ضرب میشه، به جای اینکه فقط جواب ضربها رو مثل جعبه حفظیات حفظ کرده باشه. این یعنی فهم اصولی – مثل همونی که آدمها دارن وقتی با دلیل چیزی رو میفهمن.
مغزشون مثل ماست؟ نه واقعاً…
حالا یه چیز مهم که نویسندهها تاکید کردن اینه که درستـه مدلهای زبانی بزرگ دارن یه جورایی فهم نشون میدن، ولی ساختار مغز یا همون معماری شناختیشون اصلاً شبیه ما نیست. مثلاً مدل ممکنه چند راه موازی (parallel mechanisms) برای فهم یک چیز داشته باشه – یه چیزی که تو مغز ما معمولاً اینطور نیست.
پس بهتره به جای این که فقط بحث کنیم «آیا این مدلها میفهمن یا نه»، بیشتر بیایم ببینیم دقیقاً چطوری مغز عجیب و متفاوت هوش مصنوعی کار میکنه!
خلاصهی خلاصه!
پس اگه تا حالا فکر میکردی هوش مصنوعیها فقط با آمار بازی میکنن، الآن باید بدونی که موضوع خیلی عمیقتره! این مدلهای زبانی بزرگ واقعاً دارن مفاهیم رو کشف میکنن، اطلاعات رو کنار هم میذارن و حتی بعضی وقتها اصول رو هم درمیارن. البته مغزشون هنوز با مغز ما فرق داره و این خودش کلی سوال خفن جدید پیش میاره که چه جور میشه این سیستمها رو بیشتر شناخت و کنترل کرد.
پیشنهاد میکنم دفعه بعد که یکی از این مدلها رو تست کردی، به این فکر کن که شاید بیشتر از چیزی که فکر میکردی، واقعاً داره «میفهمه»… اما به سبک خودش!
منبع: +