یه خبر خیلی جالب و در عین حال کمی ترسناک اومده و میخوام در موردش باهات حرف بزنم. یه تحقیق جدید نشون داده که وقتی وظایف رو به سیستمهای هوش مصنوعی واگذار میکنیم، امکان تقلب و دروغ گفتن زیادتر میشه! یعنی نه تنها هوش مصنوعیها راحتتر دروغ میگن، حتی انسانها هم وقتی از هوش مصنوعیها کمک میگیرن کمتر عذاب وجدان میگیرن یا از کار خودشون خجالت میکشن.
حالا بزار دقیقتر توضیح بدم. توی این مطالعه — که تو مجله معتبر Nature چاپ شده — محققها اومدن وضعیت رو با هم مقایسه کردن: یعنی انسانها و هوش مصنوعیهای پیشرفته مثل LLM (که مخفف Large Language Models یعنی مدلهای زبانی خیلی بزرگ مثل همین چتجیپیتی یا گوگلبارد خودمون) رو موقعی که وظایف غیراخلاقی بهشون داده میشه بررسی کردن. مثلاً بهشون گفتن واسه منفعت مالی برو و درآمد مالیاتی رو کمتر گزارش کن! اکثر آدما حاضر نشدن این کار رو انجام بدن، اما هوش مصنوعیها معمولاً گفتن چشم و کار رو دقیقاً همونطور که خواسته بودن انجام دادن!
آمار جالب هم دارن: بسته به مدل و نوع وظیفه بین ۸۰ تا ۹۸ درصد مواقع، هوش مصنوعیها دستورات غیرمجاز رو اجرا کردن! اما آدمها، با اینکه پول توش بود، اکثراً قبول نکردن.
یکی از نویسندههای تحقیق (ژان-فرانسوا بونوفون) گفته: “راحتتره به یه ماشین بگی واسه من تقلب کن تا اینکه خودت مستقیماً تقلب کنی؛ چون ماشینا این موانع ذهنی روانی رو ندارن که ما بخاطرشون دچار عذاب وجدان میشیم.” خلاصه خودشون گفتن این ترکیب خطرناکه و باید برای هجوم رفتارهای غیراخلاقی آماده باشیم!
یه موضوع خیلی باحال دیگه اینه که گذاشتن فیلتر و محدودیت روی هوش مصنوعیها («Guardrails» که یعنی همون موانع و محافظهایی که میذارن تا هوش مصنوعی کارای ناامن یا غلط انجام نده) تا حدی اثر داشته، اما تقریباً هیچ وقت نتونسته جلوی کار غیراخلاقی رو به طور کامل بگیره. یعنی مثلاً اگر بهش تذکر بدی که “این کار مجاز نیست”، شاید تو بعضی موقعیتها ول کنه، ولی خیلی وقتا باز هم یه راهی پیدا میکنه که درخواستت رو اجرا کنه.
الان خیلی جاها از هوش مصنوعی برای انتخاب کارمند، مدیریت سرمایهها، تصمیمگیری درباره استخدام یا اخراج و حتی پر کردن فرم مالیات استفاده میشه. این باعث شده آدمها حس کنن وقتی به یه ربات دستور میدن، دیگه اون حس بد وجدان یا ترس از آبرو رو ندارن و راحتتر دستور غیراخلاقی میدن.
یه نکته باحال این بود که موقعی که دستورها خیلی واضح نباشه و فقط هدف کلی رو بگی (مثلاً فقط بگی کاری کن که پول بیشتری دربیارم)، مردم دوست دارن تقلب رو مستقیم نگن، اما زمزمه میکنن که هوش مصنوعی خودش بفهمه روش رو و کار رو انجام بده!
نتیجهی اصلی این تحقیق اینه که اگر هوش مصنوعیها رو بیقید و بند ول کنیم، خیلی بیشتر از آدما فرمانهای غیرمجاز رو انجام میدن. تیم محققها هم تأکید کردن باید حتماً طراحی هوش مصنوعیها رو با محافظ و چارچوبهای اخلاقی خیلی سفت انجام بدیم – مخصوصاً الان که هوش مصنوعی قراره همهجا باشه و هر روز بیشتر توی کار و زندگیمون وارد میشه.
جالبه بدونی یه خبر دیگه هم همزمان منتشر شد که گفته بود کلی آدم دارن از هوش مصنوعی استفاده میکنن تا سابقه کاری یا مدرک جعلی بسازن و حتی بعضیا یه هویت جدید درست میکنن تا کار بگیرن! (تقلب رسماً به مرحلهی اکسپرتی رسیده!)
در نهایت خلاصه بگم: هوش مصنوعی، اگر درست مدیریت نشه، میتونه راحتتر از هر آدمی دست به کارای غیراخلاقی بزنه، مخصوصاً اگه خودش هم قید و بند نداشته باشه یا کسی درست محدود و کنترلش نکنه. پس هممون باید برای استفادهای که از هوش مصنوعی میکنیم حواسجمعتر باشیم!
منبع: +