نگاهی خودمونی به هوش مصنوعی و حق سواد دیجیتال تو آموزش

تا حالا فکر کردی وقتی هوش مصنوعی (Artificial Intelligence یا همون AI که یعنی سیستم‌هایی که می‌تونن مثل آدم‌ها یاد بگیرن، تصمیم بگیرن یا حتی پیشنهاد بدن!) داره کم‌کم پای خودش رو تو مدرسه‌ها و دانشگاه‌ها باز می‌کنه، چه داستان‌هایی پیش میاد؟ بیاید یه گپ خودمونی بزنیم راجع به اینکه چرا حق سواد دیجیتال (Digital Literacy یعنی اینکه بتونی تکنولوژی و مخصوصاً ابزارهای دیجیتال رو راحت و امن استفاده کنی) انقدر مهمه و چه قوانینی پشتش هست!

خب واقعیت اینه که الان تو اتحادیه اروپا و حتی خود یونان خیلی دارن رو اینکه دانش‌آموزها و معلم‌ها بتونن با این ابزارهای جدید کار کنن مانور می‌دن. مثلاً قوانین EU AI Act (یعنی همون قانون اروپا برای کنترل هوش مصنوعی و کم کردن خطرهاش) اومده تا مشخص کنه چه استفاده‌هایی از AI تو مدارس و دانشگاه‌ها مشکل‌زاس و چه کارهایی اوکیه.

حالا یه چیزی که تو این قانون خیلی روش تاکید شده اینه که بعضی کاربردهای هوش مصنوعی، مثل پذیرش دانشجو، نمره‌دهی خودکار یا حتی مراقبت تو آزمون آنلاین (Proctoring یعنی چک کردن دانش‌آموز موقع امتحان با دوربین یا نرم‌افزار)، «پرریسک» حساب می‌شن. یعنی قبل از استفاده باید کلی بررسی حقوق بشری و امنیتی صورت بگیره و دائم حواسشون به داده‌ها و تصمیمات باشه.

یه نکته جالب دیگه تو این قوانین اینه که مثلاً تشخیص احساسات (Emotion Recognition یعنی تشخیص اینکه الان دانش‌آموز ناراحته یا خوشحاله بر اساس چهره یا صداش) به جز در بحث پزشکی یا مسائل ایمنی عملاً تو آموزش اجازه نداره! چون خیلی خطرناک می‌تونه باشه واسه حقوق افراد.

چالش‌هایی مثل تبعیض (Bias) یا تصمیم‌گیری کورکورانه و بی‌شفافیت (Opacity یعنی وقتی نمی‌تونی بفهمی اصلاً سیستم بر چه اساسی یه تصمیم رو گرفته) و حتی کنترل بیش از حد دانش‌آموزها همشون باعث شدن قانون‌گذارا حسابی دغدغه پیدا کنن که باید حتماً یه نظارت واقعی انسانی باشه و سیستم‌ها توضیح‌پذیر باشن. یعنی مثلاً معلم یا دانش‌آموز بفهمه چرا همچون تصمیمی گرفته شده.

نتیجه این بررسی‌ها چیه؟ میگن که باید تو مدرسه‌ها و دانشگاه‌ها یکسری کارها الزامی بشه:

  • ارزیابی تاثیر بر حقوق بنیادین (یعنی بررسی اینکه آیا این AI به حقوق دانش‌آموزها آسیب نمی‌زنه؟)
  • سیستم‌ها باید توضیح‌پذیر باشن، یعنی وقتی سیستم یه تصمیم گرفت، بشه علتش رو توضیح داد.
  • برای شکایت یا اعتراض، مسیر شفاف و مشخص وجود داشته باشه.
  • دسترسی برابر برای همه گروه‌ها باید تضمین شه تا کسی عقب نمونه (همون بستن شکاف دیجیتال!)
  • مشارکت همه ذینفع‌ها (Multi-stakeholder Oversight یعنی دانش‌آموز، معلم، والدین، حتی متخصص‌ها باید تو نظارت نقش داشته باشن)

اینجوری دیگه بحث اخلاقیات انتزاعی کنار می‌ره و تبدیل می‌شه به الزامات حقوقی واقعی؛ یعنی دیگه شوخی نداره و باید رعایت شن. آخرش هم این‌جوری می‌تونیم مطمئن باشیم که ورود هوش مصنوعی به مدارس و دانشگاه‌ها یه فرصت برای افزایش آگاهی، تفکر انتقادی و مسئولیت‌پذیر شدن دانش‌آموزهاس، نه یه تهدید واسه آزادی و عدالت آموزشی.

کلاً داستان اینه که باید همیشه یادمون باشه تکنولوژی اومده کمک کنه نه سدی جلوی حقوقمون بزنه! پس یه چشممون به منفعت‌ها باشه، یه چشممون به خطرات و یه گوشمون هم به قوانین جدید!

منبع: +