خب بیا یه بحث باحال رو باز کنیم! تصور کن الان توی ارتش (یا هر جای جدیِ دیگهای)، آدمها دارن کنار رباتها و هوش مصنوعی کار میکنن و تصمیمهایی میگیرن که حسابی بار اخلاقی دارن. منظورم اینه که یه تصمیم اونجا میتونه واقعاً زندگی یه نفر رو عوض کنه.
تا الان بیشتر تحقیقاتی که داشتن درباره اینکه آدمها چطور با رباتهایی که بهشون توصیههای اخلاقی میکنن برخورد میکنن، همه تو اتاقای آزمایشگاه و موقع یه انتخاب کوچیک بودن. مثلاً طرف مینشسته، ربات یا هوش مصنوعی میگفته: “این کار بهتره” و خلاص! ولی کسی نمیدونست اگه برای مدت طولانی کنار همچین چیزی باشی چی میشه.
برای همین، یه تیم تحقیقاتی اومد از این مرحله گذشت و یه برنامهی سه ماهه طراحی کرد با ۶۲ نفر از دانشجویای نظامی آمریکا. این بچهها باید با دستیار هوشمند و اجتماعی به اسم SIEMA کلی کار میکردن. SIEMA دقیقاً یعنی یه سامانه هوش مصنوعی که نه تنها کارای منطقی و مأموریتی بلده، بلکه میتونه اخلاقی و اجتماعی هم رفتار کنه. SIEMA هم به شکل یه ربات انساننما و هم یه آدم مشاور ظاهر میشده تا تأثیر هر دو حالت رو بسنجن.
تو پایان اون سه ماه، به هر کدوم از دانشجوها یه معمای اخلاقی دادن که قرار بود بین جون سربازها و افراد غیرنظامی تعادل برقرار کنن. معما طوری بود که باید تصمیم میگرفتی کی رو نجات بدی: سربازهای خودمون یا مردم عادی؟ به اینجور فکرها میگن “موقعیت اخلاقی که نیاز به انتخاب بین منافع مختلف داره”.
تو اون لحظه، SIEMA (چه آدمی باشه، چه ربات انساننما) به بچهها یه راهحل کتبی میده و میگه بهتره تصمیم “فایدهگرا” یا Utilitarian بگیرن. یعنی تصمیمی که برای بیشترین تعداد، سود داشته باشه حتی اگه هزینههایی هم داشته باشه. (اینم یادت باشه، Utilitarianism یعنی همون مکتب فلسفی که همه چی رو با میزان فایده و ضرر برا همگان میسنجه. مثلاً یه تصمیم قشنگ اخلاقی، اونی هست که بیشترین خوبی رو واسه بیشترین آدمها بیاره.)
اتفاق جالب: هر کدوم اول یه نظر خودش رو داد. بعد که توصیه SIEMA رو خوند، دوباره تصمیم گرفت. و دفعه سوم، یه توصیه دقیقاً مخالف گرفت که این بار محافظت از مردم عادی رو پررنگ میکرد. باز تصمیم سوم خودشون رو اعلام کردن.
نتیجه چی شد؟ حدود نصف بچهها بعد از توصیهٔ SIEMA (چه ربات باشه چه آدم واقعی) نظرشون به سمت راهحل فایدهگرایانه تغییر کرد! یعنی تأثیر توصیه روشن بود. اما وقتی داستان برعکس شد و راهحل مخالف اومد که حفاظت از غیرنظامیا مهمتره، خیلیها دوباره نظرشون برگشت سمت همون انتخاب اولشون!
وقتی تحلیل کردن که هر کسی چرا چه تصمیمی گرفت، دیدن اینجوری جوابها میدادن: بعضیا میگفتن باید ببینیم نتیجهمون چی درمیاد (یعنی همون outcome-based). بعضیا میگفتن وظیفهمونه از بقیه محافظت کنیم. یه عده میگفتن تو تیم به مشاورمون اعتماد داریم، و عدهای هم از ارزشها و باورهای شخصیشون حرف زدن.
پس چی شد؟ این تحقیق نشون داد رباتها و هوش مصنوعی میتونن واقعاً روی تصمیم اخلاقی آدما تأثیر بذارن و حتی قضاوتای آیندهشون رو هم شکل بدن. اما اثرش موقتیه و با برخورد با توصیههای مختلف، آدمها دوباره ممکنه برگردن به باور و منطق خودشون!
در نهایت محققها رسیدن به این نتیجه که طراحای هوش مصنوعی اخلاقی، یا به اصطلاح خودمون Moral-AI Design (یعنی ساخت هوش مصنوعی که به جز هوش، یه ذره وجدان هم داشته باشه!) باید همیشه تضاد منافع و ارزشها رو شفاف نشون بدن و نگن که یه توصیهی کوتاه از یه ربات کافیه تا برای همیشه دیدِ اخلاقی آدما عوض شه. آخرش این خودِ آدما هستن که تصمیم میگیرن و باید جای فکر و انتخاب براشون بمونه.
خلاصه حرف تحقیق اینه: ربات و مشاور هوشمند میتونن کمک کنن ولی آخر داستان، این ذهن و دل خود آدمهاست که راه اصلی رو انتخاب میکنه! دمشون گرم که بالاخره اومدن بحث مهم تاثیر طولانیمدت همکاری با ربات رو هم بررسی کنن.
منبع: +