ماجرای چت‌جی‌پی‌تی و دغدغه‌های اخلاقی دانشگاه‌ها: هوش مصنوعی دوست‌داشتنی یا دردسرساز؟

خب رفیق، این روزها همه سر و کله‌شون با تکنولوژی حسابی گرمه و تقریباً هیچ چیزی مثل قبل نمونده، به ویژه توی دانشگاه‌ها! یکی از همین تکنولوژی‌های بروز، مدل‌های زبانی بزرگ مثل ChatGPT هستن؛ همون LLMها که کلی هم بحث دارن. راستی، LLM یعنی Large Language Model، مدل‌های خیلی بزرگی که با کلی متنی که دیده‌ان، یاد گرفتن خیلی کارهای مربوط به زبان و نوشتن و ترجمه و اینا رو شبیه آدم‌ها انجام بدن.

این مدل‌ها حسابی دارن محیط آکادمیک و دانشگاهی رو متحول می‌کنن و کلی کار راه بنداز شدن. مثلاً می‌تونن بهت کمک کنن سریع‌تر تحقیق بنویسی یا متن بسازی که خیلی شبیه نوشته‌های انسانیه. ولی خب، هیچ چیزی بدون چالش نیست! استفاده از این مدل‌ها توی دانشگاه کلی بحث اخلاقی و نگرانی درست کرده.

یه تیم تحقیقاتی یه مطالعه جالب انجام دادن و اومدن با دانشجوها، استادها، مدیرهای دانشگاه و حتی آدم‌های فنی‌ای که AI می‌سازن حرف زدن. روش تحقیقشون هم بانمک بوده؛ هم مصاحبه داشتن، هم پرسش‌نامه و حتی چندتا گروه مباحثه. خلاصه کلی حرف و داستان جمع کردن درباره اینکه مردم چه جوری از این مدل‌ها استفاده می‌کنن و بیشتر دغدغه‌هاشون چیه.

حالا بریم سر اصل مطلب؛ که چه دغدغه‌هایی پیش اومده؟ یکی از اصلی‌ترین‌ها، موضوع سرقت ادبی یا همون Plagiarism هست. یعنی وقتی یکی بدون اجازه از یه متن تولید شده توسط LLM استفاده می‌کنه و جا می‌زنه واسه نوشته خودش! خب این خیلی رو اعصاب اساتیده و کل ایدهٔ درست‌کاری علمی رو زیر سوال می‌بره.

بحث دوم، Bias یا همون تعصب الگوریتمیه. مثلاً مدل‌های زبانی ممکنه یه جاهایی بر اساس داده‌هایی که باهاشون آموزش دیدن، نظر یا باور خاصی رو بیشتر تکرار کنن، حتی اگه اون نظر غلط باشه یا انصاف نباشه. Bias یعنی مدل ممکنه دیدگاهای نادرست یا ناعادلانه رو به صورت ناخودآگاه تقویت کنه.

مسئله دیگه، بحث اصالت (Authenticity) پژوهشه. چون دیگه واقعاً سخته بفهمی یه متن یا نتیجه تحقیق رو کی نوشته و چپ و راست دارن کارهای تولیدشده توسط هوش مصنوعی رو به اسم تحقیق جدی ارائه می‌دن. این خودش یه جور ضربه‌ به اعتبار دانشگاه‌هاست.

برای همین، این محقق‌ها چندتا راهکار هم پیشنهاد دادن تا بشه این مدل‌های زبانی رو درست و اخلاقی وارد محیط دانشگاه کرد:

۱. اول و مهم‌تر از همه باید برای استفاده از این هوش مصنوعی‌ها یه قوانین روشن، شفاف و دم‌دستی تنظیم بشه که همه بدونن دقیقاً مجاز به چه کاری هستن و کجاها نه!

۲. دوم اینکه توی درس‌ها و برنامه‌های آموزشی، یه جایی برای آموزش سواد هوش مصنوعی در نظر بگیرن. یعنی به بچه‌ها یاد بدن که این مدل‌ها چی هستن، چطوری کار می‌کنن و باهاشون باید چطور مسئولانه رفتار کرد. یه جورایی مثل سواد رسانه‌ای برای عصر جدید!

۳. بعد لازمه یه سری گروه ناظر یا چارچوب‌های بررسی توی دانشگاه باشه که محتواهای تولیدشده با AI رو چک کنن. یعنی یادگیری ماشینی (Machine Learning) و هوش مصنوعی بیاد ولی زیرنظر باشه و هر چیزی رو ارائه نکنیم.

۴. در نهایت هم گفتن باید همیشه یه ارتباط و گفتگو بین دانشجوها، اساتید و سازنده‌های هوش مصنوعی باشه تا هر موقع تکنولوژی تغییر کرد، قوانین هم آپدیت بشه.

جمع‌بندی ماجرا اینه که چت‌جی‌پی‌تی و هم‌خانواده‌هاش قراره بمونن و هر روز بیشتر شبیه آدم‌ها رفتار کنن. آره، کلی به کارها سرعت می‌دن و تولید محتوا رو راحت می‌کنن ولی بی‌خیال دغدغه‌های اخلاقی و مسئولیت‌پذیریم نمی‌تونیم بشیم. اگر با عقل جلو بریم و حسابی حواس‌جمع باشیم، میشه از این ابزارهای عجیب‌وغریب بهترین استفاده رو برد و دانشگاه‌ها رو هوشمندتر و سالم‌تر کرد!

منبع: +