آیا شیوه یادگیری روی نگرش ما به هوش مصنوعی تاثیر داره؟ تجربه جالب دانشجوهای چینی!

خب بیاید یه کم درباره اینکه چطور آدم‌ها نسبت به هوش مصنوعی (AI) نظرشون کم‌کم شکل می‌گیره حرف بزنیم. مخصوصاً وقتی قراره کلی اطلاعات مختلف دریافت کنن. یه تحقیق باحال تو یکی از دانشگاه‌های شمال چین انجام شده که خیلی چیز جالبی رو نشون میده. میخوای بدونی داستان چیه؟ من برات میگم!

اول اینکه اصل ماجرا این بود که دانشمندها اومدن ۱۳۲ تا دانشجوی چینی رو جمع کردن و به مدت ۶ هفته بهشون سه مدل مختلف آموزش یا تعامل با موضوع هوش مصنوعی دادن:
۱. کلاس‌های مرتب و ساختاریافته (یعنی آموزش منظم با فشرده اطلاعات زیاد)
۲. بحث و گفتگوی گروهی
۳. تحقیق شخصی (خود دانشجو هر چی دوست داره خودش بره جستجو کنه)

حالا نکته باحال اینجاست که محقق‌ها اومدن دو تا چیز مهم رو بررسی کردن: Cognitive Load یعنی «بار ذهنی» یا همون میزان سختی و چالش فکری که هر مدل آموزش ایجاد می‌کنه، و Reliability یعنی چقدر دانشجوها این اطلاعات رو معتبر و قابل‌اعتماد می‌دونن.

خب نتایج چی شد؟
کلاس‌های ساختاریافته که هم بار ذهنی بالایی داشتن و هم قابل اعتماد بودن حسابی داشتن کار خودشون رو می‌کردن! یعنی Polarization یا همون «قطبی شدن نگرش»ها، کاهش پیدا کرد. (قطبی شدن نگرش یعنی این که یه عده خیلی طرفدار و یه عده خیلی مخالف بشن با هم، بدون اینکه وسطی وجود داشته باشه.)
تو این حالت آمارش این بود: β = -0.32 (یعنی اثر منفی و کاهش قطبی شدن)، با p < 0.01 (یعنی بسیار معنادار) و η2 = 0.11 (اندازه اثر نسبتا خوب).
از اون ور، کسایی که خودشون رفتن سراغ تحقیق و هر چی دوست داشتن خوندن، قطبی شدن دیدگاهشون زیاد شد! دقیقاً برعکس کلاس ساختاریافته: β = 0.45 و η2 = 0.15.

یه بخش مهم دیگه اینه که محقق‌ها با سنجش نگرش قبل و بعدِ این ۶ هفته، نشون دادن یه ابزار به اسم GAAIS (یعنی General Attitudes Toward Artificial Intelligence Scale – یه جور مقیاس برای سنجیدن نگرش نسبت به هوش مصنوعی) واقعاً داره خوب کار می‌کنه. چون تغییرات گزارش‌شده خود دانشجوها با نتایج این مقیاس هم‌خوانی داشت، r = 0.68 (که یعنی خیلی همبستگی خوبی بود) و p < 0.001 هم نشون میده کاملاً معنی‌داره.

موضوع جالب بعدی! حتی وقتی درباره ترجیحات سیاستی یا Policy Preferences (یعنی ترجیح افراد به نوع قوانین و سیاست‌گذاری تو حوزه هوش مصنوعی) پرسیدنشون، دیدن اونایی که توی کلاس ساختارمند بودن، به موضعی وسط و متعادل رسیدن! میانگین این تغییرات -۰.۱۵ بود (یعنی به سمت بالانس حرکت کرده بودن)، با SD = ۰.۴۰ و p < 0.05 که باز هم نشون میده معنی‌داره.

جمع‌بندی خود تحقیق: اگر میخوایم آدما رو تو زمینه هوش مصنوعی زود قطبی نکنیم، لازمه نظام آموزش طوری باشه که هم اطلاعات معتبر و هم یه کم چالش ذهنی براشون ایجاد کنه. اینطوری هم نگاهشون منطقی‌تر میشه، هم کمتر طرفدار یا مخالفِ دوآتیشه در میان.

این یافته‌ها هم برای معلم‌ها و استادها کلی کاربرد داره، هم برای اینکه متولی‌های سیاست‌گذاری (یعنی کسایی که باید راجع به مقررات حوزه‌ی هوش مصنوعی تصمیم بگیرن) بدونن چطور برای بهتر بودن فضای آموزش و تصمیم‌سازی برنامه بریزن.

پس یه جورهایی یادگیری منظم، حتی اگه یه کم سخت یا سنگین باشه، آدمو مشتاق‌تر و منطقی‌تر نگه میداره نسبت به AI. برعکسش، اگه هر کسی هر چی خودش خواست بخونه و منبعش هم نامشخص باشه، حسابی دیدگاهش زاویه‌دار میشه و کمتر اهل تعادل می‌مونه!

در کل، این تحقیق ثابت کرد شیوه و کیفیت یادگیری درباره موضوعات جنجالی، مثل هوش مصنوعی، چقدر می‌تونه تو نگرش و تفکر ما تاثیر بذاره – چیزی که شاید کمتر بهش توجه کنیم!

منبع: +