ماجرایی که میخوام براتون تعریف کنم، واقعاً جالبه و یه جورایی نشون میده که هوش مصنوعی امروزی چقدر میتونه غیرقابل پیشبینی باشه! ماجرا از این قراره که یه تیم از دانشمندای دانشگاه کمبریج و دانشگاه عبری اورشلیم تصمیم گرفتن یه معمای ریاضی خیلی قدیمی و عجیب رو که ۲۴۰۰ سال پیش افلاطون در موردش نوشته بود، از ChatGPT بپرسن.
داستان اصلی اینه: افلاطون درباره سقراط نوشته که یه شاگردشو با یه معمای ساده اما پرچالش گول زده بود: چطور میشه مساحت یه مربع رو دو برابر کرد؟ شاگردش فکر کرد کافیه طول هر ضلع رو دو برابر کنه، ولی اشتباه کرد. واقعیت اینه که باید طول جدید هر ضلع برابر با قطر (خط مورب) مربع قبلی باشه تا مساحتش دو برابر شه. (قطر یعنی همون خطی که دو تا گوشه مخالف مربع رو به هم وصل میکنه.)
حالا چرا این معما رو انتخاب کردن؟ چون جوابش خیلی بدیهی نیست و میخواستن ببینن هوش مصنوعی مثل ChatGPT که بیشتر با خوندن متن آموزش دیده (نه با دیدن تصویر و شکل)، آیا میتونه به جواب برسه یا نه. حتی شک داشتن که اصلاً همچین مثالی تو دادههای آموزشیاش بوده باشه. اگر به جواب درست میرسید، میشد گفت یاد گرفتن ریاضی توش با تجربه است، نه ذات.
نتیجه؟ ChatGPT توی اولین مرحله خوب عمل کرد و با استدلال خودش یه جوابی داد که نشون میداد انگار داشت واقعاً فکر میکرد. دانشمندا گرفتنش برای یه معمای شبیه: این دفعه پرسیدن چطور میشه مساحت یه مستطیل رو دو برابر کرد. (مستطیل یعنی شکلی مثل مربع ولی اضلاعش الزماً برابر نیستن!) جواب این دفعهش جالب بود و حتی اشتباهِ واضح داد: گفت چون قطر مستطیل به درد این کار نمیخوره، پس راه حلی وجود نداره! در حالی که محققها میدونستن راه حل هندسی برای این کار وجود داره.
اون چیزی که شگفتزدهشون کرد این بود که این جواب غلط به احتمال زیاد تو دیتاهای آموزشی ChatGPT نبوده، پس مدل به نوعی داشت از صحبت قبلی و گفتمان خودش الهام میگرفت و یه جواب “بداهه” درست میکرد. یعنی انگار داشت خودش فرضیه میداد و آزمون و خطا میکرد.
دکتر نداو مارکو (دانشگاه عبری اورشلیم) و پروفسور آندریاس استیلیانیدس (دانشگاه کمبریج) که روی این موضوع کار میکردن، به این نتیجه رسیدن که ChatGPT داره شبیه یه “یادگیرنده” یا حتی شاگرد واقعی رفتار میکنه. مثلاً مثل خیلی از دانشآموزهای واقعی، اشتباه هم میکنه و جواب قطعی یا بینقص نمیده، بلکه با فرضیهسازی پیش میره. این مدل هوش مصنوعیها بهشون میگن “Large Language Model” یا به اختصار LLM، یعنی مدلهای زبانی بزرگی که با کلی متن آموزش داده شدن.
یه بخش مهم دیگه بحث Black Box بودن هوش مصنوعیه؛ یعنی دقیقاً نمیدونیم مدل چه مسیری رو طی میکنه تا به جواب برسه. فقط خروجی رو میبینیم، اما پشت پردهش برامون نامعلومه.
پژوهشگرا یه مفهومی رو هم وسط کشیدن به اسم Zone of Proximal Development (ZPD) یا “منطقه رشد تقریبی”. این اصطلاح یعنی فاصلهای که بین دانستههای فعلی یه فرد تا چیزایی هست که با یه کوچولو کمک میتونه یاد بگیره. دانشمندها میگفتن ChatGPT هم شاید داره خودبخود از همین الگو کمک میگیره و با کمی راهنمایی میتونه مسائل جدید رو حل کنه، حتی وقتی تو دیتاش نبوده.
یه نکته جالب که مارکو و استیلیانیدس تاکید کردن، اینه که باید حواسمون باشه: جوابهایی که ChatGPT میده لزوماً درست نیستن و مثل اثباتهایی که تو کتابای معتبر ریاضی میبینیم، قابل اعتماد نیستن. پس بچهمدرسهایها و معلمها باید یاد بگیرن که چطور جوابای هوش مصنوعی رو بسنجن، نه اینکه هرچی گفت رو قبول کنن.
نتیجه نهایی شون این بود که باید تو مدرسهها به بچهها یاد بدیم چطور با AI کار کنن و سوال بپرسن. مثلاً به جای اینکه فقط بگین “جواب رو بده”، بهتره با مدل همکاری کنن و مسئله رو با هم کشف کنن. اینطوری هم تجربه یادگیری بهتری میگیرن، هم یاد میگیرن که چطور با هوش مصنوعی دیالوگ داشته باشن.
در نهایت، دانشمندها خیلی هیجانزده شدن که نسل بعدی مدلهای هوش مصنوعی (مثلاً مدلهایی که علاوه بر زبان، با سیستمهای هندسی دینامیک یا نرمافزارهای اثبات قضیه تلفیق میشن) میتونن تجربه آموزش ریاضی رو خیلی غنیتر کنن. یعنی شاید معلم و دانشآموزها به کمک هوش مصنوعی، تو فضایی همکاری کنن که فرصت آزمون و خطا و کشف شهودری رو افزایش بده.
در کل این ماجرا بهمون نشون داد ChatGPT ممکنه موقع گرفتن سوالای جدید، واقعاً مثل یه آدم یادگیرنده عمل کنه، ولی نباید ازش انتظار معجزه یا جواب کاملاً بینقص داشته باشیم. کارای جالبی میتونه انجام بده، ولی هنوزم بررسی و قضاوت انسانی لازمه!
منبع: +