هوش مصنوعی مولد توی آموزش کامپیوتر: فرصت‌ها و دردسرهاش از نزدیک!

Fall Back

حتماً این روزا اسم ChatGPT یا Claude به گوشتون خورده؛ اینا از همون ابزارای هوش مصنوعی مولد هستن که خودشون می‌تونن متن یا حتی کد تولید کنن. (مثلاً هوش مصنوعی مولد همون Generative AI ـه، یعنی مدلی از هوش مصنوعی که می‌تونه خودش خلاقیت به خرج بده و محتوا یا اطلاعات تازه بسازه، نه اینکه فقط داده‌ها رو تکرار کنه.)

حالا قراره راجع به اینکه این ابزارا چطور دارن وارد آموزش علوم کامپیوتر می‌شن و چه فرصت‌ها و چالش‌هایی دارن حرف بزنیم. قصه از این‌جا شروع می‌شه که خیلی از دانشجوها و حتی استادها سراغ این ابزارا رفتن تا سریع‌تر و خلاق‌تر کار کنن. مثلاً وقتشون صرف نوشتن کد تکراری یا توضیح مسائل ساده نشه و بیشتر سراغ ایده‌های جدید برن.

اما، مثل همیشه که یه تکنولوژی جدید میاد، فقط خوبی نیس؛ یه عالمه سوال و ابهام هم باهاش میاد. مثلاً یکی از نگرانی‌ها، همین «hallucination» هوش مصنوعی‌ست؛ یعنی گاهی خود مدل بدون اینکه خودش بدونه، یه چیزایی سرهم می‌کنه که نه پایه علمی داره و نه درست حسابیه! (Hallucination یعنی وقتی مدل هوش مصنوعی با اطمینان یه اطلاعات اشتباه و ساختگی تحویلت می‌ده)

از طرف دیگه، اگر اشتباهات مدل تصحیح نشه، همون اشتباه همینطور لابلای جواب‌های بقیه به چرخه می‌فته (به این می‌گن propagation of error، یعنی گسترش خطا). تازه گاهی ممکنه مدل‌ها نسبت به گروهی از داده‌ها یا افراد، سوگیری داشته باشن (bias)، که دیگه خودش دنیایی از مشکل درست می‌کنه!

یه دردسر دیگه هم اینه که دیگه معلوم نیست کی واقعاً خودش کار کرده و کی از هوش مصنوعی کمک گرفته. یعنی فرق کار دانشجو با ابزار هوش مصنوعی خیلی وقتا گم می‌شه و مشخص نیس واقعاً اون علم رو داره یا فقط هوش مصنوعی براش حلش کرده.

به خاطر همین ماجراها، همه می‌گن باید «نظارت انسانی» (یعنی استادها و دست‌اندرکارای آموزشی باید حواسشون باشه و ساده از کنار پاسخ‌هایی که مدل می‌ده نگذرن) همچنان نقش اساسی داشته باشه و صرفاً به مدل‌های هوش مصنوعی تکیه نکنیم.

راه‌حل‌هایی که تو مقالات مختلف پیشنهاد شده چیه؟ یکی اینکه ارزیابی‌ها رو ترکیبی کنیم: یعنی باز هم همون انسان‌ها کنار هوش مصنوعی به کارها و آثار بچه‌ها نمره بدن (به این می‌گن hybrid assessment). یکی دیگه اینکه ساختارهایی درست کنیم که بتونن تشخیص بدن مدل کجاش داره خطا می‌زنه یا سوگیری نشون می‌ده (frameworkهای تشخیص سوگیری).

یه نکته مهم دیگه که همه بهش تاکید دارن، اینه که باید آموزش هوش مصنوعی توی برنامه درسی هم به استاد و هم دانشجو داده بشه (AI Literacy یعنی شعور و سواد هوش مصنوعی، که اونایی که با این مدلا سروکار دارن، بفهمن چی کار دارن می‌کنن و گول مدل رو نخورن!).

در کل با همه این داستانا، اگر درست و متعادل استفاده کنیم، هوش مصنوعی می‌تونه واقعاً هم فرآیند آموزش رو بهتر، سریع‌تر و خلاقانه‌تر کنه و هم فرصت بده تا استادها و دانشجوها وقتشون رو صرف چیزای مهم‌تر کنن. فقط باید حواسمون باشه که از نظر اخلاقی (یعنی راست و درست رفتار کردن)، فنی (یعنی بدونیم مدل چه محدودیت‌هایی داره)، و آموزشی (یعنی واقعاً یادگیری اتفاق بیفته نه فقط کپی کردن جواب هوش مصنوعی)، همه جوانب رو درنظر بگیریم.

تو آینده هم می‌شه انتظار داشت که این مدل‌ها روزبه‌روز دقیق‌تر، مطمئن‌تر و انعطاف‌پذیرتر بشن؛ یعنی هم بتونن به خلاقیت دانشجو کمک کنن، هم اطمینان بدن که اشتباه نمی‌زنن و اصل ماجرا کپی نشده. خلاصه اینکه همش می‌ره سمت اینکه هوش مصنوعی و انسان کنار هم، یه آموزش قوی‌تر و بهتر بسازن. اما هنوز تا رسیدن به اون نقطه کامل راه داریم، باید هم روی پژوهش و هم روی کاربرد درست هوش مصنوعی سرمایه‌گذاری کنیم تا به بهترین نتیجه برسیم.

منبع: +