خب رفیق، این روزها همه سر و کلهشون با تکنولوژی حسابی گرمه و تقریباً هیچ چیزی مثل قبل نمونده، به ویژه توی دانشگاهها! یکی از همین تکنولوژیهای بروز، مدلهای زبانی بزرگ مثل ChatGPT هستن؛ همون LLMها که کلی هم بحث دارن. راستی، LLM یعنی Large Language Model، مدلهای خیلی بزرگی که با کلی متنی که دیدهان، یاد گرفتن خیلی کارهای مربوط به زبان و نوشتن و ترجمه و اینا رو شبیه آدمها انجام بدن.
این مدلها حسابی دارن محیط آکادمیک و دانشگاهی رو متحول میکنن و کلی کار راه بنداز شدن. مثلاً میتونن بهت کمک کنن سریعتر تحقیق بنویسی یا متن بسازی که خیلی شبیه نوشتههای انسانیه. ولی خب، هیچ چیزی بدون چالش نیست! استفاده از این مدلها توی دانشگاه کلی بحث اخلاقی و نگرانی درست کرده.
یه تیم تحقیقاتی یه مطالعه جالب انجام دادن و اومدن با دانشجوها، استادها، مدیرهای دانشگاه و حتی آدمهای فنیای که AI میسازن حرف زدن. روش تحقیقشون هم بانمک بوده؛ هم مصاحبه داشتن، هم پرسشنامه و حتی چندتا گروه مباحثه. خلاصه کلی حرف و داستان جمع کردن درباره اینکه مردم چه جوری از این مدلها استفاده میکنن و بیشتر دغدغههاشون چیه.
حالا بریم سر اصل مطلب؛ که چه دغدغههایی پیش اومده؟ یکی از اصلیترینها، موضوع سرقت ادبی یا همون Plagiarism هست. یعنی وقتی یکی بدون اجازه از یه متن تولید شده توسط LLM استفاده میکنه و جا میزنه واسه نوشته خودش! خب این خیلی رو اعصاب اساتیده و کل ایدهٔ درستکاری علمی رو زیر سوال میبره.
بحث دوم، Bias یا همون تعصب الگوریتمیه. مثلاً مدلهای زبانی ممکنه یه جاهایی بر اساس دادههایی که باهاشون آموزش دیدن، نظر یا باور خاصی رو بیشتر تکرار کنن، حتی اگه اون نظر غلط باشه یا انصاف نباشه. Bias یعنی مدل ممکنه دیدگاهای نادرست یا ناعادلانه رو به صورت ناخودآگاه تقویت کنه.
مسئله دیگه، بحث اصالت (Authenticity) پژوهشه. چون دیگه واقعاً سخته بفهمی یه متن یا نتیجه تحقیق رو کی نوشته و چپ و راست دارن کارهای تولیدشده توسط هوش مصنوعی رو به اسم تحقیق جدی ارائه میدن. این خودش یه جور ضربه به اعتبار دانشگاههاست.
برای همین، این محققها چندتا راهکار هم پیشنهاد دادن تا بشه این مدلهای زبانی رو درست و اخلاقی وارد محیط دانشگاه کرد:
۱. اول و مهمتر از همه باید برای استفاده از این هوش مصنوعیها یه قوانین روشن، شفاف و دمدستی تنظیم بشه که همه بدونن دقیقاً مجاز به چه کاری هستن و کجاها نه!
۲. دوم اینکه توی درسها و برنامههای آموزشی، یه جایی برای آموزش سواد هوش مصنوعی در نظر بگیرن. یعنی به بچهها یاد بدن که این مدلها چی هستن، چطوری کار میکنن و باهاشون باید چطور مسئولانه رفتار کرد. یه جورایی مثل سواد رسانهای برای عصر جدید!
۳. بعد لازمه یه سری گروه ناظر یا چارچوبهای بررسی توی دانشگاه باشه که محتواهای تولیدشده با AI رو چک کنن. یعنی یادگیری ماشینی (Machine Learning) و هوش مصنوعی بیاد ولی زیرنظر باشه و هر چیزی رو ارائه نکنیم.
۴. در نهایت هم گفتن باید همیشه یه ارتباط و گفتگو بین دانشجوها، اساتید و سازندههای هوش مصنوعی باشه تا هر موقع تکنولوژی تغییر کرد، قوانین هم آپدیت بشه.
جمعبندی ماجرا اینه که چتجیپیتی و همخانوادههاش قراره بمونن و هر روز بیشتر شبیه آدمها رفتار کنن. آره، کلی به کارها سرعت میدن و تولید محتوا رو راحت میکنن ولی بیخیال دغدغههای اخلاقی و مسئولیتپذیریم نمیتونیم بشیم. اگر با عقل جلو بریم و حسابی حواسجمع باشیم، میشه از این ابزارهای عجیبوغریب بهترین استفاده رو برد و دانشگاهها رو هوشمندتر و سالمتر کرد!
منبع: +