بچهها، یه موضوع داغ این روزا اینه که هوش مصنوعی (AI یا همون هوش ساختگی که خودش میتونه کارهای آدم رو انجام بده) داره وارد دنیای دانشگاهها و ناشرها (کسایی که مقاله و کتاب علمی چاپ میکنن) میشه و همه رو حسابی به فکر انداخته که چجوری باید باهاش کنار بیان.
خب، یه تحقیقی انجام شده که اومده بررسی کنه این دانشگاهها و ناشرهای معروف چطور با این موضوع روبرو شدن و چه سیاستهایی واسه استفاده از AI گذاشتن. اصل داستان اینه که چطور میتونن با موج جدید فناوری کنار بیان و در عین حال ارزشهای علمی و دانشگاهی رو حفظ کنن.
واسه این کار، محققها اومدن سراغ ۱۶ دانشگاه معتبر و ۱۲ ناشر بزرگ و قوانین و سیاستهاشون رو درباره هوش مصنوعی موشکافی کردن. روششون هم جالب بوده، از چیزی به اسم “boundary work theory” (یعنی تئوری مرزبندی، اینکه چطور آدمها یا گروهها حد و مرز خودشون رو مشخص میکنن) و actor-network approaches (یک جور نگاه سیستمی که همه عوامل و ابزارها رو توی تعامل با هم میبینه) استفاده کردن تا بفهمن جریان از چه قراره. حتی دو تا مفهوم جدید معرفی کردن: “dual black-boxing” (این یعنی بعضی وقتا کاری که AI انجام میده انقدر پیچیده و نامشخصه که کسی دقیق نمیدونه چیکار کرده) و “legitimacy-dependent hybrid actors” (یعنی نقشهایی که ترکیب انسان و AI هستن، اما وابسته به اینان که جامعه دانشگاهی قبولشون داره یا نه).
حالا بیاید ببینیم نتیجه چی شد:
اول از همه، خیلی از دانشگاهها و ناشرها نگران اینن که AI رفتارش معلوم نیست و شفاف نیست. مثلاً وقتی یه متن یا مقاله رو AI مینویسه، بعضی جاها نمیتونن بفهمن یا توضیح بدن که AI واقعاً چی کار کرده—که همین باعث شده قانون بذارن که همه باید دقیق بگن کجا و چطور از AI استفاده کردن. اسم این کار رو گذاشتن transparency requirements (یعنی قوانین برای شفافیت و مشخص بودن همه چیز).
یه سری دانشگاهها مرز مشخص کردن، مثلاً گفتن AI میتونه به شما کمک کنه توی فرایند نوشتن مقاله (مثل پیشنهاد دادن یا ویرایش)، اما اجازه نداره کل محصول نهایی رو خودش درست کنه یا مثلاً اسمش به عنوان نویسنده اصلی بیاد. به این میگن process-oriented boundaries، یعنی مهمه توی چه مرحلهای از کار از AI کمک گرفته شه.
این وسط دانشگاهها انگار یه کم راحتتر برخورد میکنن؛ یعنی نقشهایی مثل “hybrid actors” (آدمهایی که از کمک AI استفاده میکنن ولی خودشون هم نقش دارن) رو بیشتر قبول دارن. اما ناشرها خیلی سفت و سختتر بودن و اجازه نمیدن AI اسمش به عنوان نویسنده مقاله بیاد، چون هنوز آدم باید مسئولیت کل کار رو قبول کنه.
خلاصه کلام، این تحقیق نشون داد که همه این نهادها دارن سعی میکنن با بهروزرسانی قوانین و مرزبندی جدید، هم با تکنولوژی کنار بیان و هم ارزشهای قدیمی مثل مسئولیتپذیری انسانها رو حفظ کنن. یعنی نمیذارن همه کارها رو بسپارن دست رباتها و هرکی هرچی دلش خواست با اسم AI انجام بده. میخوان مطمئن بشن کارهای علمی هنوز اعتبار خودش رو داره و آدمها مسئولیت کارشون رو میپذیرن.
در نهایت، به نظر میاد دانشگاهها و ناشرها هرکدوم شیوه خودشون رو دارن اما همشون دارن سعی میکنن بین استفاده درست از AI و حفظ اصالت علمی یه تعادل درست کنن. مخصوصاً با این قوانین جدید و روشهای مرزبندی، قراره هر چی جلوتر بریم استفاده از AI تو دانشگاه و چاپ مقالات، هم شفافتر شه و هم مسئولانهتر.
منبع: +