وقتی دانشمندا یه معمای ریاضی دو هزار ساله رو از ChatGPT پرسیدن و حسابی سورپرایز شدن!

ماجرایی که می‌خوام براتون تعریف کنم، واقعاً جالبه و یه جورایی نشون می‌ده که هوش مصنوعی امروزی چقدر می‌تونه غیرقابل پیش‌بینی باشه! ماجرا از این قراره که یه تیم از دانشمندای دانشگاه کمبریج و دانشگاه عبری اورشلیم تصمیم گرفتن یه معمای ریاضی خیلی قدیمی و عجیب رو که ۲۴۰۰ سال پیش افلاطون در موردش نوشته بود، از ChatGPT بپرسن.

داستان اصلی اینه: افلاطون درباره سقراط نوشته که یه شاگردشو با یه معمای ساده اما پرچالش گول زده بود: چطور می‌شه مساحت یه مربع رو دو برابر کرد؟ شاگردش فکر کرد کافیه طول هر ضلع رو دو برابر کنه، ولی اشتباه کرد. واقعیت اینه که باید طول جدید هر ضلع برابر با قطر (خط مورب) مربع قبلی باشه تا مساحتش دو برابر شه. (قطر یعنی همون خطی که دو تا گوشه مخالف مربع رو به هم وصل می‌کنه.)

حالا چرا این معما رو انتخاب کردن؟ چون جوابش خیلی بدیهی نیست و می‌خواستن ببینن هوش مصنوعی مثل ChatGPT که بیشتر با خوندن متن آموزش دیده (نه با دیدن تصویر و شکل)، آیا می‌تونه به جواب برسه یا نه. حتی شک داشتن که اصلاً همچین مثالی تو داده‌های آموزشی‌اش بوده باشه. اگر به جواب درست می‌رسید، می‌شد گفت یاد گرفتن ریاضی توش با تجربه است، نه ذات.

نتیجه؟ ChatGPT توی اولین مرحله خوب عمل کرد و با استدلال خودش یه جوابی داد که نشون می‌داد انگار داشت واقعاً فکر می‌کرد. دانشمندا گرفتنش برای یه معمای شبیه: این دفعه پرسیدن چطور می‌شه مساحت یه مستطیل رو دو برابر کرد. (مستطیل یعنی شکلی مثل مربع ولی اضلاعش الزماً برابر نیستن!) جواب این دفعه‌ش جالب بود و حتی اشتباهِ واضح داد: گفت چون قطر مستطیل به درد این کار نمی‌خوره، پس راه حلی وجود نداره! در حالی که محقق‌ها می‌دونستن راه حل هندسی برای این کار وجود داره.

اون چیزی که شگفت‌زده‌شون کرد این بود که این جواب غلط به احتمال زیاد تو دیتاهای آموزشی ChatGPT نبوده، پس مدل به نوعی داشت از صحبت قبلی و گفتمان خودش الهام می‌گرفت و یه جواب “بداهه” درست می‌کرد. یعنی انگار داشت خودش فرضیه می‌داد و آزمون و خطا می‌کرد.

دکتر نداو مارکو (دانشگاه عبری اورشلیم) و پروفسور آندریاس استیلیانیدس (دانشگاه کمبریج) که روی این موضوع کار می‌کردن، به این نتیجه رسیدن که ChatGPT داره شبیه یه “یادگیرنده” یا حتی شاگرد واقعی رفتار می‌کنه. مثلاً مثل خیلی از دانش‌آموزهای واقعی، اشتباه هم می‌کنه و جواب قطعی یا بی‌نقص نمی‌ده، بلکه با فرضیه‌سازی پیش می‌ره. این مدل هوش مصنوعی‌ها بهشون می‌گن “Large Language Model” یا به اختصار LLM، یعنی مدل‌های زبانی بزرگی که با کلی متن آموزش داده شدن.

یه بخش مهم دیگه بحث Black Box بودن هوش مصنوعیه؛ یعنی دقیقاً نمی‌دونیم مدل چه مسیری رو طی می‌کنه تا به جواب برسه. فقط خروجی رو می‌بینیم، اما پشت پرده‌ش برامون نامعلومه.

پژوهشگرا یه مفهومی رو هم وسط کشیدن به اسم Zone of Proximal Development (ZPD) یا “منطقه رشد تقریبی”. این اصطلاح یعنی فاصله‌ای که بین دانسته‌های فعلی یه فرد تا چیزایی هست که با یه کوچولو کمک می‌تونه یاد بگیره. دانشمندها می‌گفتن ChatGPT هم شاید داره خودبخود از همین الگو کمک می‌گیره و با کمی راهنمایی می‌تونه مسائل جدید رو حل کنه، حتی وقتی تو دیتاش نبوده.

یه نکته جالب که مارکو و استیلیانیدس تاکید کردن، اینه که باید حواسمون باشه: جواب‌هایی که ChatGPT می‌ده لزوماً درست نیستن و مثل اثبات‌هایی که تو کتابای معتبر ریاضی می‌بینیم، قابل اعتماد نیستن. پس بچه‌مدرسه‌ای‌ها و معلم‌ها باید یاد بگیرن که چطور جوابای هوش مصنوعی رو بسنجن، نه اینکه هرچی گفت رو قبول کنن.

نتیجه نهایی شون این بود که باید تو مدرسه‌ها به بچه‌ها یاد بدیم چطور با AI کار کنن و سوال بپرسن. مثلاً به جای اینکه فقط بگین “جواب رو بده”، بهتره با مدل همکاری کنن و مسئله رو با هم کشف کنن. اینطوری هم تجربه یادگیری بهتری می‌گیرن، هم یاد می‌گیرن که چطور با هوش مصنوعی دیالوگ داشته باشن.

در نهایت، دانشمندها خیلی هیجان‌زده شدن که نسل بعدی مدل‌های هوش مصنوعی (مثلاً مدل‌هایی که علاوه بر زبان، با سیستم‌های هندسی دینامیک یا نرم‌افزارهای اثبات قضیه تلفیق می‌شن) می‌تونن تجربه آموزش ریاضی رو خیلی غنی‌تر کنن. یعنی شاید معلم و دانش‌آموزها به کمک هوش مصنوعی، تو فضایی همکاری کنن که فرصت آزمون و خطا و کشف شهودری رو افزایش بده.

در کل این ماجرا بهمون نشون داد ChatGPT ممکنه موقع گرفتن سوالای جدید، واقعاً مثل یه آدم یادگیرنده عمل کنه، ولی نباید ازش انتظار معجزه یا جواب کاملاً بی‌نقص داشته باشیم. کارای جالبی می‌تونه انجام بده، ولی هنوزم بررسی و قضاوت انسانی لازمه!

منبع: +