خب بیاید یه کم درباره اینکه چطور آدمها نسبت به هوش مصنوعی (AI) نظرشون کمکم شکل میگیره حرف بزنیم. مخصوصاً وقتی قراره کلی اطلاعات مختلف دریافت کنن. یه تحقیق باحال تو یکی از دانشگاههای شمال چین انجام شده که خیلی چیز جالبی رو نشون میده. میخوای بدونی داستان چیه؟ من برات میگم!
اول اینکه اصل ماجرا این بود که دانشمندها اومدن ۱۳۲ تا دانشجوی چینی رو جمع کردن و به مدت ۶ هفته بهشون سه مدل مختلف آموزش یا تعامل با موضوع هوش مصنوعی دادن:
۱. کلاسهای مرتب و ساختاریافته (یعنی آموزش منظم با فشرده اطلاعات زیاد)
۲. بحث و گفتگوی گروهی
۳. تحقیق شخصی (خود دانشجو هر چی دوست داره خودش بره جستجو کنه)
حالا نکته باحال اینجاست که محققها اومدن دو تا چیز مهم رو بررسی کردن: Cognitive Load یعنی «بار ذهنی» یا همون میزان سختی و چالش فکری که هر مدل آموزش ایجاد میکنه، و Reliability یعنی چقدر دانشجوها این اطلاعات رو معتبر و قابلاعتماد میدونن.
خب نتایج چی شد؟
کلاسهای ساختاریافته که هم بار ذهنی بالایی داشتن و هم قابل اعتماد بودن حسابی داشتن کار خودشون رو میکردن! یعنی Polarization یا همون «قطبی شدن نگرش»ها، کاهش پیدا کرد. (قطبی شدن نگرش یعنی این که یه عده خیلی طرفدار و یه عده خیلی مخالف بشن با هم، بدون اینکه وسطی وجود داشته باشه.)
تو این حالت آمارش این بود: β = -0.32 (یعنی اثر منفی و کاهش قطبی شدن)، با p < 0.01 (یعنی بسیار معنادار) و η2 = 0.11 (اندازه اثر نسبتا خوب).
از اون ور، کسایی که خودشون رفتن سراغ تحقیق و هر چی دوست داشتن خوندن، قطبی شدن دیدگاهشون زیاد شد! دقیقاً برعکس کلاس ساختاریافته: β = 0.45 و η2 = 0.15.
یه بخش مهم دیگه اینه که محققها با سنجش نگرش قبل و بعدِ این ۶ هفته، نشون دادن یه ابزار به اسم GAAIS (یعنی General Attitudes Toward Artificial Intelligence Scale – یه جور مقیاس برای سنجیدن نگرش نسبت به هوش مصنوعی) واقعاً داره خوب کار میکنه. چون تغییرات گزارششده خود دانشجوها با نتایج این مقیاس همخوانی داشت، r = 0.68 (که یعنی خیلی همبستگی خوبی بود) و p < 0.001 هم نشون میده کاملاً معنیداره.
موضوع جالب بعدی! حتی وقتی درباره ترجیحات سیاستی یا Policy Preferences (یعنی ترجیح افراد به نوع قوانین و سیاستگذاری تو حوزه هوش مصنوعی) پرسیدنشون، دیدن اونایی که توی کلاس ساختارمند بودن، به موضعی وسط و متعادل رسیدن! میانگین این تغییرات -۰.۱۵ بود (یعنی به سمت بالانس حرکت کرده بودن)، با SD = ۰.۴۰ و p < 0.05 که باز هم نشون میده معنیداره.
جمعبندی خود تحقیق: اگر میخوایم آدما رو تو زمینه هوش مصنوعی زود قطبی نکنیم، لازمه نظام آموزش طوری باشه که هم اطلاعات معتبر و هم یه کم چالش ذهنی براشون ایجاد کنه. اینطوری هم نگاهشون منطقیتر میشه، هم کمتر طرفدار یا مخالفِ دوآتیشه در میان.
این یافتهها هم برای معلمها و استادها کلی کاربرد داره، هم برای اینکه متولیهای سیاستگذاری (یعنی کسایی که باید راجع به مقررات حوزهی هوش مصنوعی تصمیم بگیرن) بدونن چطور برای بهتر بودن فضای آموزش و تصمیمسازی برنامه بریزن.
پس یه جورهایی یادگیری منظم، حتی اگه یه کم سخت یا سنگین باشه، آدمو مشتاقتر و منطقیتر نگه میداره نسبت به AI. برعکسش، اگه هر کسی هر چی خودش خواست بخونه و منبعش هم نامشخص باشه، حسابی دیدگاهش زاویهدار میشه و کمتر اهل تعادل میمونه!
در کل، این تحقیق ثابت کرد شیوه و کیفیت یادگیری درباره موضوعات جنجالی، مثل هوش مصنوعی، چقدر میتونه تو نگرش و تفکر ما تاثیر بذاره – چیزی که شاید کمتر بهش توجه کنیم!
منبع: +