امروز واقعاً همه جا حرف از هوش مصنوعی مولد یا همون “Generative AI” هست—یعنی همون هوش مصنوعیهایی که خودشون میتونن چیزهایی مثل متن یا تصویر درست کنن. حالا تو دانشگاهها بحث سر اینه که این تکنولوژیها چه جوری روی آموزش تاثیر میذارن و چرا بعضیها طرفش میرن و بعضیا نه.
چی شد که این تحقیق راه افتاد؟
یه مشکلی که خیلی از مدلهای قدیمی برای پذیرش و ورود تکنولوژی دارن اینه که نمیتونن همهی پیچیدگیهای ذهنی، فکری و حتی اخلاقی رو که دانشجوها باهاش سر و کله میزنن، حساب کنن. برای همین این تحقیق اومده یه مدل جدید و پیشرفتهتر رو پیاده کنه که بشه واقعاً فهمید این داستان چیه.
مدل AIDUA و مدل شناختی چیه؟
اینجا یه مدل مخصوص به اسم AIDUA آورده شده که اومده تو دل تئوری شناختی-رفتاری فرو رفته. یعنی اون حال و هوا و فکری که آدمها انجام میدن موقع تصمیم گرفتن برای پذیرش یه تکنولوژی رو واکاوی کرده. گفتن پذیرش این تکنولوژی سه مرحله داره و قراره ببینیم دقیقاً چیها تو ذهن افراد میگذره.
مثلاً اومدن به یه سری فاکتور جدید و باحال توجه کردن:
-
عوامل اجتماعی-اخلاقی (Socio-Ethical): مثل “ethical risk” (یعنی ریسک یا خطرهای اخلاقی که ممکنه یه تکنولوژی داشته باشه مثلاً نگرانی بابت تبعیض یا دزدی اطلاعات) و “explainability” (یعنی اینکه تکنولوژی قابل توضیح باشه، طرف بفهمه داره چه کار میکنه).
-
عوامل تکنو-عملکردی (Techno-Performance): مثل کیفیت محتوای مولد، اینکه چقدر خوب میتونه محتوا بسازه و Context-awareness (یعنی اینکه سیستم بفهمه کجاست و بر اساس شرایط تولید محتوا کنه).
بعدش اومدن اینارو کنار یه سری فاکتور سنتی گذاشتن مثل تاثیر اجتماعی (Social Influence)، انگیزه لذت بردن (Hedonic Motivation) و Anthropomorphism (یعنی اینکه تکنولوژی شبیه آدمیزاد باشه و حس بگیری داره باهات حرف میزنه).
اینا همه روی باورهای کلیدی کاربر مثل “انتظارش از عملکرد سیستم” (Performance Expectancy) و “انتظار از زحمتی که باید بکشه” (Effort Expectancy) تاثیر میذاره و به صورت غیرمستقیم باعث میشه کاربر چه حسی پیدا کنه و آخرش بره سمت استفاده یا نه.
چه کسایی وارد داستان شدن؟
برای تست کردن این مدل، دادهها رو از سوالات پرسشنامهای که ۴۶۲ تا دانشجوی دانشگاههای مختلف چین (از ۱۵ تا دانشگاه گوناگون) جواب داده بودن جمع کردن. بعدش با روش مدلسازی معادلات ساختاری (Structural Equation Modeling – یعنی یه روش آماری پیشرفته که روابط بین کلی فاکتور رو بررسی میکنه) حسابی شخم زدن.
نتایج باحال و عجیب چی بوده؟
مهمترین نکته اینه که ذهنیت و دید دانشجوها بیشتر از همه به عملکرد و ایمنی حس شده از این هوش مصنوعی بستگی داره. مثلاً کیفیت تولید محتوا (Generation Quality) بیشترین تاثیر رو داشته (ضریب بتا ۰.۵۳)، بعدش قابلیت توضیحپذیری سیستم (Explainability) با ضریب ۰.۴۱ و البته ریسک اخلاقی با ضریب منفی ۰.۲۵ که نشون میده اگه کسی احساس کنه این سیستم زیاد قابل اعتماد نیست یا از لحاظ اخلاقی مشکل داره، هم انتظارش از عملکرد سیستم پایین میاد هم زحمت استفادهاش تو ذهنش زیاد میشه (Effort Expectancy با بتا ۰.۳۳).
یه نکته جالبتر اینه که تاثیر این عوامل داخلی (یعنی همون چیزایی که تو ذهن خود کاربر میگذره) کلی بیشتر از تاثیر عوامل بیرونی مثل فشار اجتماع، دوست و همکلاسیهاست. یعنی آخرش خود فرده که براش مهمه سیستم چه جوری به نظر میاد نه اینکه همه میگن بیا تو هم استفاده کن.
اما آیا همه دانشجوها یه جورن؟ نه واقعاً!
تحلیلهای چند گروهی نشون داده که مثلاً جنسیت، رشته تحصیلی، قومیت و جهتگیری سیاسی هم بر این مسیرها تاثیر میذاره. یعنی اینکه فرهنگ و پیشزمینه فردی و اجتماعی هر کسی، باعث میشه تجربهاش با این هوش مصنوعی فرق داشته باشه. خبری از “کاربر دانشجویی جهانی و یکسان” نیست!
حرف آخر: برای سیاستگذارها و سازندهها
طبق این تحقیق، دانشگاهها و توسعهدهندههای هوش مصنوعی باید یه جوری کار کنن که هم عملکرد فنی کارشون رو قویتر کنن و هم ترسها و ناراحتیهای ذهنی و اخلاقی دانشجوها رو بشناسن و براش شفافیت و طراحی کاربرمحور بذارن. یعنی هم اعتماده رو بسازن و هم موانع رو کم کنن. فقط با آپگرید تکنولوژی و بیتوجهی به جنبههای انسانی و اخلاقی نمیشه توقع داشت همه بیان سمت استفاده!
در کل، این پژوهش نشون داد تصمیمهای دانشجوها کلی پیچیدگی داره و باید جدیتر بهش نگاه کرد. فقط یه چیز ساده مثل سادگی یا قدرت تکنولوژی نیست؛ تجربه، اخلاق و فرهنگ هم کلی مهمه!
منبع: +