خب، شاید براتون پیش اومده باشه که فکر کنین ماشینهای خودران (همون ماشینهایی که خودشون حرکت میکنن، بدون راننده) چطور باید تصمیم بگیرن؟ مثلاً اگه یه اتفاق بد بیفته، باید کی رو نجات بدن؟ به جونِ کسی آسیب بزنه یا نه؟ خلاصه، داستان اخلاق و وجدان توی ماشینها حسابی پیچیده شده و خیلیها دارن سعی میکنن یه راه مطمئن پیدا کنن که این تصمیمها با ارزشهای جامعه هماهنگ باشه.
توی مقالهای که همین تازگیا کار شده، اومدن یه مدل جدید رو معرفی کردن که بهش Ethical Goal Function یا به اختصار EGF میگن. این یعنی یه فرمول کامپیوتری برای اخلاق! توی این مدل، سعی شده تصمیمات ماشینهای خودران بر اساس اون چیزی باشه که مردم یه جامعه از لحاظ اخلاقی ترجیح میدن. خلاصه دیگه فقط یه بحث تئوری و رویایی نیست.
حالا چجوری این مدل رو ساختن؟ کاری که کردن این بوده که از ۸۹ تا دانشجوی هلندی خواستن توی یه سری آزمایش انتخابی (Discrete Choice Experiments، که یعنی به افراد بیاری چندتا سناریو نشون بدی و ازشون بخوای انتخاب کنن کدوم رو ترجیح میدن) شرکت کنن. توی هر سناریو، شش ویژگی اخلاقی جذاب مد نظر بوده: آسیب فیزیکی، آسیب روانی، مسئولیت اخلاقی، فرصت برابر برای زندگی (Fair innings، یعنی اینکه هرکسی به طور مساوی فرصت زندگی کردن داشته باشه)، قانونی بودن، و آسیب به محیط زیست. این ویژگیها رو از حوزه اخلاق پزشکی و روانشناسی اخلاقی گرفتن و قبلاً هم توی تحقیقات مربوط به اخلاق ماشینهای خودران امتحانشون کردن.
برای اینکه بفهمن چی تو دل مردم میگذره، دست به دامن یه مدل آماری شدن به اسم Multinomial Logit Model (یا همون مدل MNL که یعنی یه مدل آماری که انتخاب بین چند گزینه رو پیشبینی میکنه). با این کار، متوجه شدن که مردم هرکدوم از اون ویژگیهای بالا رو چقدر مهم میدونن. جالبه بدونین که میانگین دقت پیشبینی مدلشون هم حدود ۶۳.۸ درصد بوده (SD = 3.3%) که در نوع خودش خیلی خوبه و نشون میده این ویژگیها واقعاً به کار تصمیمگیری اخلاقی ماشینها میخورن.
حالا یه مفهوم خفن دیگه هم معرفی کردن: Socio-Technological Feedback Loop یا خلاصهش SOTEF. این یعنی یه چرخه بازخورد بین جامعه و تکنولوژی که بر اساس اون، مدل اخلاقی هر بار با نظر و دیدگاه مردم بهروز میشه؛ یعنی اخلاق ماشین متوقف نیست و دائم آپدیت میشه بر اساس اینکه مردم چی رو درست میدونن. واقعاً جالبه، نه؟
البته خود نویسندهها هم گفتن که کارشون بدون ایراد نیست. مثلاً چون فقط دانشجوهای هلندی تو تستها بودن، نمیشه گفت نتیجه دقیقاً برای همه فرهنگها صدق میکنه. تازه، توی آزمایشها فقط سناریوها رو به صورت متنی نشون دادن که شاید به اندازه سناریوهای واقعی زندگی تاثیرگذار نبوده باشه. پیشنهاد دادن که بعداً با افراد از کشورها و فرهنگهای متنوعتر کار بشه و حتی بتونن سناریوها رو به صورت تصویری یا حتی واقعیت مجازی نشون بدن تا نتایج نزدیکتر به واقعیت باشه.
در کل، این تحقیق اولین بار یه مدل واقعاً اجرایی و وابسته به داده برای اخلاق ماشینهای خودران ساخته و نشون داده که میشه نظر و ارزشهای مردم رو به زبون تعداد و فرمول به تصمیمگیری هوش مصنوعی اضافه کرد؛ اون هم نه فقط بر پایه نظریه، بلکه با شواهد و تست واقعی!
خلاصه اگه فکر میکنین آینده ماشینهای خودران خیلی دور از ماست، باید بدونین همین الان هم آدمها دارن تلاش میکنن اخلاق و وجدان رو برنامهنویسی کنن تا خیالمون از تصمیمهای ماشینها راحتتر باشه! 🚗🤖
منبع: +