وقتی ربات‌ها تو تصمیم‌گیری اخلاقی کنارمون میشینن: ماجراجویی نظامینا با مشاورهای هوشمند!

خب بیا یه بحث باحال رو باز کنیم! تصور کن الان توی ارتش (یا هر جای جدیِ دیگه‌ای)، آدم‌ها دارن کنار ربات‌ها و هوش مصنوعی کار می‌کنن و تصمیم‌هایی می‌گیرن که حسابی بار اخلاقی دارن. منظورم اینه که یه تصمیم اونجا می‌تونه واقعاً زندگی یه نفر رو عوض کنه.

تا الان بیشتر تحقیقاتی که داشتن درباره اینکه آدم‌ها چطور با ربات‌هایی که بهشون توصیه‌های اخلاقی می‌کنن برخورد می‌کنن، همه تو اتاقای آزمایشگاه و موقع یه انتخاب کوچیک بودن. مثلاً طرف می‌نشسته، ربات یا هوش مصنوعی می‌گفته: “این کار بهتره” و خلاص! ولی کسی نمی‌دونست اگه برای مدت طولانی کنار همچین چیزی باشی چی میشه.

برای همین، یه تیم تحقیقاتی اومد از این مرحله گذشت و یه برنامه‌ی سه ماهه طراحی کرد با ۶۲ نفر از دانشجویای نظامی آمریکا. این بچه‌ها باید با دستیار هوشمند و اجتماعی به اسم SIEMA کلی کار می‌کردن. SIEMA دقیقاً یعنی یه سامانه هوش مصنوعی که نه تنها کارای منطقی و مأموریتی بلده، بلکه می‌تونه اخلاقی و اجتماعی هم رفتار کنه. SIEMA هم به شکل یه ربات انسان‌نما و هم یه آدم مشاور ظاهر میشده تا تأثیر هر دو حالت رو بسنجن.

تو پایان اون سه ماه، به هر کدوم از دانشجوها یه معمای اخلاقی دادن که قرار بود بین جون سربازها و افراد غیرنظامی تعادل برقرار کنن. معما طوری بود که باید تصمیم می‌گرفتی کی رو نجات بدی: سربازهای خودمون یا مردم عادی؟ به اینجور فکرها می‌گن “موقعیت اخلاقی که نیاز به انتخاب بین منافع مختلف داره”.

تو اون لحظه، SIEMA (چه آدمی باشه، چه ربات انسان‌نما) به بچه‌ها یه راه‌حل کتبی می‌ده و می‌گه بهتره تصمیم “فایده‌گرا” یا Utilitarian بگیرن. یعنی تصمیمی که برای بیشترین تعداد، سود داشته باشه حتی اگه هزینه‌هایی هم داشته باشه. (اینم یادت باشه، Utilitarianism یعنی همون مکتب فلسفی که همه چی رو با میزان فایده و ضرر برا همگان می‌سنجه. مثلاً یه تصمیم قشنگ اخلاقی، اونی هست که بیشترین خوبی رو واسه بیشترین آدم‌ها بیاره.)

اتفاق جالب: هر کدوم اول یه نظر خودش رو داد. بعد که توصیه SIEMA رو خوند، دوباره تصمیم گرفت. و دفعه سوم، یه توصیه دقیقاً مخالف گرفت که این بار محافظت از مردم عادی رو پررنگ می‌کرد. باز تصمیم سوم خودشون رو اعلام کردن.

نتیجه چی شد؟ حدود نصف بچه‌ها بعد از توصیهٔ SIEMA (چه ربات باشه چه آدم واقعی) نظرشون به سمت راه‌حل فایده‌گرایانه تغییر کرد! یعنی تأثیر توصیه روشن بود. اما وقتی داستان برعکس شد و راه‌حل مخالف اومد که حفاظت از غیرنظامیا مهم‌تره، خیلی‌ها دوباره نظرشون برگشت سمت همون انتخاب اولشون!

وقتی تحلیل کردن که هر کسی چرا چه تصمیمی گرفت، دیدن اینجوری جواب‌ها می‌دادن: بعضیا می‌گفتن باید ببینیم نتیجه‌مون چی درمیاد (یعنی همون outcome-based). بعضیا می‌گفتن وظیفه‌مونه از بقیه محافظت کنیم. یه عده می‌گفتن تو تیم به مشاورمون اعتماد داریم، و عده‌ای هم از ارزش‌ها و باورهای شخصیشون حرف زدن.

پس چی شد؟ این تحقیق نشون داد ربات‌ها و هوش مصنوعی می‌تونن واقعاً روی تصمیم اخلاقی آدما تأثیر بذارن و حتی قضاوتای آینده‌شون رو هم شکل بدن. اما اثرش موقتیه و با برخورد با توصیه‌های مختلف، آدم‌ها دوباره ممکنه برگردن به باور و منطق خودشون!

در نهایت محقق‌ها رسیدن به این نتیجه که طراحای هوش مصنوعی اخلاقی، یا به اصطلاح خودمون Moral-AI Design (یعنی ساخت هوش مصنوعی که به جز هوش، یه ذره وجدان هم داشته باشه!) باید همیشه تضاد منافع و ارزش‌ها رو شفاف نشون بدن و نگن که یه توصیه‌ی کوتاه از یه ربات کافیه تا برای همیشه دیدِ اخلاقی آدما عوض شه. آخرش این خودِ آدما هستن که تصمیم می‌گیرن و باید جای فکر و انتخاب براشون بمونه.

خلاصه حرف تحقیق اینه: ربات و مشاور هوشمند می‌تونن کمک کنن ولی آخر داستان، این ذهن و دل خود آدم‌هاست که راه اصلی رو انتخاب می‌کنه! دمشون گرم که بالاخره اومدن بحث مهم تاثیر طولانی‌مدت همکاری با ربات رو هم بررسی کنن.

منبع: +