وقتی نوشته‌های استدلالی هوش مصنوعی، ما رو گول می‌زنن!

Fall Back

خب، بیاید یه موضوع جالب در مورد هوش مصنوعی (همون AI که این روزا همه‌جا اسمش رو می‌شنویم) رو با هم بررسی کنیم. جدیداً یه نسل تازه از مدل‌های هوش مصنوعی مد شده که قبل از اینکه جواب نهایی رو بدن، قدم‌به‌قدم منطق خودشون رو برات می‌نویسن. یعنی مثلاً سوال می‌پرسی، اینا مثلاً می‌نویسن: «خب، اول اینو بررسی کردم، بعد اون رو حساب کردم، پس نتیجه این شد». این روند باعث شده خیلی‌ها فکر کنن می‌تونن دقیق بفهمن که این هوش مصنوعی‌ها تو ذهنشون چی می‌گذره و کارشون رو تفسیر کنن. شفافیت و قابل درک بودن منطقشون هم حسابی بولد شده.

اما یه سوال مهم پیش میاد: آیا واقعاً ما آدما می‌تونیم از این توضیحات قدم‌به‌قدم بفهمیم که هوش مصنوعی چجوری به جواب رسیده؟ این مقاله اومده دقیقاً همین رو بررسی کنه.

توی این تحقیق، یه کار بامزه انجام دادن. اومدن به آدم‌ها سوال‌هایی دادن که جوابش به توضیحات قدم‌به‌قدم هوش مصنوعی بستگی داشت. کاری که باید می‌کردن این بود که بفهمن کدوم مرحله واقعاً روی مراحل بعدی تاثیر گذاشته (یعنی اون قدم، باعث تغییر جواب شده یا نه). در واقع یه جورایی داشتن دنبال رابطه‌ی علت و معلولی می‌گشتن.

حالا نتیجه چی شد؟ دقت شرکت‌کننده‌ها فقط ۲۹.۳ درصد بود! یعنی تقریباً در حد شانس داشتن حدس می‌زدن (شانس خالی هم ۲۵ درصد بود!). حتی وقتی به جواب جمعی بیشتر افراد (یعنی رأی اکثریت) نگاه کردن، دقت رسید به ۴۲ درصد که باز هم چندان بالا نیست.

اینجا یه نکته خیلی مهم وجود داره: این نشون می‌ده بین چیزی که ما از متن‌های استدلالی AI برداشت می‌کنیم و چیزی که واقعاً اون مدل داره حساب می‌کنه، یه فاصله اساسی وجود داره. یعنی مثلاً ممکنه فکر کنیم “آهان، حالا که این رو گفت پس حتماً این مرحله روی جواب تاثیر داشته” ولی در واقع مدل اصلاً اونطوری فکر نمی‌کنه یا این مرحله رو همین‌طوری نوشته.

خلاصه بحث مقاله اینه که نباید این توضیحات قدم‌به‌قدم مدل‌ها رو خیلی جدی گرفت یا فکر کنیم همین که خوندیمشون، پس همه چیز مشخصه. باید بدونیم این متن‌ها در واقع یه جور اثر جانبی یا artefact هستن – یعنی خودشون یه چیزهایی دارن که باید حسابی کاوش بشه و نمی‌شه روشون راحت تکیه کرد.

در نهایت، نویسنده‌ها می‌گن فهمیدن اینکه مدل‌های زبانی (Language models یعنی همین مدل‌هایی که متنو می‌نویسن و حرف می‌زنن مثل ChatGPT) دقیقاً چطور از زبان استفاده می‌کنن – بدون اینکه الزاماً مثل آدم‌ها فکر کنن – یکی از مهم‌ترین موضوعات پژوهشی این حوزه‌ست. پس باید با احتیاط بیشتری به استدلال‌های AI نگاه کنیم و دنبال راه‌هایی باشیم که واقعاً بتونیم ذهن این مدل‌ها رو بخونیم، نه اینکه فقط ظاهر حرفاشون رو باور کنیم!

منبع: +