چی باعث می‌شه دانشجوها سمت هوش مصنوعی مولد برن؟ یه نگاه خودمونی به عوامل تاثیرگذار!

امروز واقعاً همه جا حرف از هوش مصنوعی مولد یا همون “Generative AI” هست—یعنی همون هوش مصنوعی‌هایی که خودشون می‌تونن چیزهایی مثل متن یا تصویر درست کنن. حالا تو دانشگاه‌ها بحث سر اینه که این تکنولوژی‌ها چه جوری روی آموزش تاثیر می‌ذارن و چرا بعضی‌ها طرفش می‌رن و بعضیا نه.

چی شد که این تحقیق راه افتاد؟
یه مشکلی که خیلی از مدل‌های قدیمی برای پذیرش و ورود تکنولوژی دارن اینه که نمی‌تونن همه‌ی پیچیدگی‌های ذهنی، فکری و حتی اخلاقی رو که دانشجوها باهاش سر و کله می‌زنن، حساب کنن. برای همین این تحقیق اومده یه مدل جدید و پیشرفته‌تر رو پیاده کنه که بشه واقعاً فهمید این داستان چیه.

مدل AIDUA و مدل شناختی چیه؟
اینجا یه مدل مخصوص به اسم AIDUA آورده شده که اومده تو دل تئوری شناختی-رفتاری فرو رفته. یعنی اون حال و هوا و فکری که آدم‌ها انجام می‌دن موقع تصمیم گرفتن برای پذیرش یه تکنولوژی رو واکاوی کرده. گفتن پذیرش این تکنولوژی سه مرحله داره و قراره ببینیم دقیقاً چی‌ها تو ذهن افراد می‌گذره.

مثلاً اومدن به یه سری فاکتور جدید و باحال توجه کردن:

  • عوامل اجتماعی-اخلاقی (Socio-Ethical): مثل “ethical risk” (یعنی ریسک یا خطرهای اخلاقی که ممکنه یه تکنولوژی داشته باشه مثلاً نگرانی بابت تبعیض یا دزدی اطلاعات) و “explainability” (یعنی اینکه تکنولوژی قابل توضیح باشه، طرف بفهمه داره چه کار می‌کنه).

  • عوامل تکنو-عملکردی (Techno-Performance): مثل کیفیت محتوای مولد، اینکه چقدر خوب می‌تونه محتوا بسازه و Context-awareness (یعنی اینکه سیستم بفهمه کجاست و بر اساس شرایط تولید محتوا کنه).

    بعدش اومدن اینارو کنار یه سری فاکتور سنتی گذاشتن مثل تاثیر اجتماعی (Social Influence)، انگیزه لذت بردن (Hedonic Motivation) و Anthropomorphism (یعنی اینکه تکنولوژی شبیه آدمیزاد باشه و حس بگیری داره باهات حرف می‌زنه).

اینا همه روی باورهای کلیدی کاربر مثل “انتظارش از عملکرد سیستم” (Performance Expectancy) و “انتظار از زحمتی که باید بکشه” (Effort Expectancy) تاثیر می‌ذاره و به صورت غیرمستقیم باعث می‌شه کاربر چه حسی پیدا کنه و آخرش بره سمت استفاده یا نه.

چه کسایی وارد داستان شدن؟
برای تست کردن این مدل، داده‌ها رو از سوالات پرسشنامه‌ای که ۴۶۲ تا دانشجوی دانشگاه‌های مختلف چین (از ۱۵ تا دانشگاه گوناگون) جواب داده بودن جمع کردن. بعدش با روش مدل‌سازی معادلات ساختاری (Structural Equation Modeling – یعنی یه روش آماری پیشرفته که روابط بین کلی فاکتور رو بررسی می‌کنه) حسابی شخم زدن.

نتایج باحال و عجیب چی بوده؟
مهم‌ترین نکته اینه که ذهنیت و دید دانشجوها بیشتر از همه به عملکرد و ایمنی حس شده از این هوش مصنوعی بستگی داره. مثلاً کیفیت تولید محتوا (Generation Quality) بیشترین تاثیر رو داشته (ضریب بتا ۰.۵۳)، بعدش قابلیت توضیح‌پذیری سیستم (Explainability) با ضریب ۰.۴۱ و البته ریسک اخلاقی با ضریب منفی ۰.۲۵ که نشون می‌ده اگه کسی احساس کنه این سیستم زیاد قابل اعتماد نیست یا از لحاظ اخلاقی مشکل داره، هم انتظارش از عملکرد سیستم پایین میاد هم زحمت استفاده‌اش تو ذهنش زیاد می‌شه (Effort Expectancy با بتا ۰.۳۳).

یه نکته جالب‌تر اینه که تاثیر این عوامل داخلی (یعنی همون چیزایی که تو ذهن خود کاربر می‌گذره) کلی بیشتر از تاثیر عوامل بیرونی مثل فشار اجتماع، دوست و همکلاسی‌هاست. یعنی آخرش خود فرده که براش مهمه سیستم چه جوری به نظر میاد نه اینکه همه می‌گن بیا تو هم استفاده کن.

اما آیا همه دانشجوها یه جورن؟ نه واقعاً!
تحلیل‌های چند گروهی نشون داده که مثلاً جنسیت، رشته تحصیلی، قومیت و جهت‌گیری سیاسی هم بر این مسیرها تاثیر می‌ذاره. یعنی اینکه فرهنگ و پیش‌زمینه فردی و اجتماعی هر کسی، باعث می‌شه تجربه‌اش با این هوش مصنوعی فرق داشته باشه. خبری از “کاربر دانشجویی جهانی و یکسان” نیست!

حرف آخر: برای سیاست‌گذارها و سازنده‌ها
طبق این تحقیق، دانشگاه‌ها و توسعه‌دهنده‌های هوش مصنوعی باید یه جوری کار کنن که هم عملکرد فنی کارشون رو قوی‌تر کنن و هم ترس‌ها و ناراحتی‌های ذهنی و اخلاقی دانشجوها رو بشناسن و براش شفافیت و طراحی کاربرمحور بذارن. یعنی هم اعتماده رو بسازن و هم موانع رو کم کنن. فقط با آپگرید تکنولوژی و بی‌توجهی به جنبه‌های انسانی و اخلاقی نمی‌شه توقع داشت همه بیان سمت استفاده!

در کل، این پژوهش نشون داد تصمیم‌های دانشجوها کلی پیچیدگی داره و باید جدی‌تر بهش نگاه کرد. فقط یه چیز ساده مثل سادگی یا قدرت تکنولوژی نیست؛ تجربه، اخلاق و فرهنگ هم کلی مهمه!

منبع: +