هوش مصنوعی پشت در دانشگاه‌ها و انتشارات: داستان سیاست‌ها و ماجراهای ترکیبی!

بچه‌ها، یه موضوع داغ این روزا اینه که هوش مصنوعی (AI یا همون هوش ساختگی که خودش می‌تونه کارهای آدم رو انجام بده) داره وارد دنیای دانشگاه‌ها و ناشرها (کسایی که مقاله و کتاب علمی چاپ می‌کنن) میشه و همه رو حسابی به فکر انداخته که چجوری باید باهاش کنار بیان.

خب، یه تحقیقی انجام شده که اومده بررسی کنه این دانشگاه‌ها و ناشرهای معروف چطور با این موضوع روبرو شدن و چه سیاست‌هایی واسه استفاده از AI گذاشتن. اصل داستان اینه که چطور می‌تونن با موج جدید فناوری کنار بیان و در عین حال ارزش‌های علمی و دانشگاهی رو حفظ کنن.

واسه این کار، محقق‌ها اومدن سراغ ۱۶ دانشگاه معتبر و ۱۲ ناشر بزرگ و قوانین و سیاست‌هاشون رو درباره هوش مصنوعی موشکافی کردن. روششون هم جالب بوده، از چیزی به اسم “boundary work theory” (یعنی تئوری مرزبندی، اینکه چطور آدم‌ها یا گروه‌ها حد و مرز خودشون رو مشخص می‌کنن) و actor-network approaches (یک جور نگاه سیستمی که همه عوامل و ابزارها رو توی تعامل با هم می‌بینه) استفاده کردن تا بفهمن جریان از چه قراره. حتی دو تا مفهوم جدید معرفی کردن: “dual black-boxing” (این یعنی بعضی وقتا کاری که AI انجام می‌ده انقدر پیچیده و نامشخصه که کسی دقیق نمی‌دونه چیکار کرده) و “legitimacy-dependent hybrid actors” (یعنی نقش‌هایی که ترکیب انسان و AI هستن، اما وابسته به این‌ان که جامعه دانشگاهی قبولشون داره یا نه).

حالا بیاید ببینیم نتیجه چی شد:

اول از همه، خیلی از دانشگاه‌ها و ناشرها نگران اینن که AI رفتارش معلوم نیست و شفاف نیست. مثلاً وقتی یه متن یا مقاله رو AI می‌نویسه، بعضی جاها نمی‌تونن بفهمن یا توضیح بدن که AI واقعاً چی کار کرده—که همین باعث شده قانون بذارن که همه باید دقیق بگن کجا و چطور از AI استفاده کردن. اسم این کار رو گذاشتن transparency requirements (یعنی قوانین برای شفافیت و مشخص بودن همه چیز).

یه سری دانشگاه‌ها مرز مشخص کردن، مثلاً گفتن AI می‌تونه به شما کمک کنه توی فرایند نوشتن مقاله (مثل پیشنهاد دادن یا ویرایش)، اما اجازه نداره کل محصول نهایی رو خودش درست کنه یا مثلاً اسمش به عنوان نویسنده اصلی بیاد. به این می‌گن process-oriented boundaries، یعنی مهمه توی چه مرحله‌ای از کار از AI کمک گرفته شه.

این وسط دانشگاه‌ها انگار یه کم راحت‌تر برخورد می‌کنن؛ یعنی نقش‌هایی مثل “hybrid actors” (آدم‌هایی که از کمک AI استفاده می‌کنن ولی خودشون هم نقش دارن) رو بیشتر قبول دارن. اما ناشرها خیلی سفت و سخت‌تر بودن و اجازه نمی‌دن AI اسمش به عنوان نویسنده مقاله بیاد، چون هنوز آدم باید مسئولیت کل کار رو قبول کنه.

خلاصه کلام، این تحقیق نشون داد که همه این نهادها دارن سعی می‌کنن با به‌روزرسانی قوانین و مرزبندی جدید، هم با تکنولوژی کنار بیان و هم ارزش‌های قدیمی مثل مسئولیت‌پذیری انسان‌ها رو حفظ کنن. یعنی نمی‌ذارن همه کارها رو بسپارن دست ربات‌ها و هرکی هرچی دلش خواست با اسم AI انجام بده. می‌خوان مطمئن بشن کارهای علمی هنوز اعتبار خودش رو داره و آدم‌ها مسئولیت کارشون رو می‌پذیرن.

در نهایت، به نظر میاد دانشگاه‌ها و ناشرها هرکدوم شیوه خودشون رو دارن اما همشون دارن سعی می‌کنن بین استفاده درست از AI و حفظ اصالت علمی یه تعادل درست کنن. مخصوصاً با این قوانین جدید و روش‌های مرزبندی، قراره هر چی جلوتر بریم استفاده از AI تو دانشگاه و چاپ مقالات، هم شفاف‌تر شه و هم مسئولانه‌تر.

منبع: +