چجوری ماشین‌های خودران می‌تونن اخلاقی‌تر بشن؟ مدل جدید رفتار درست رو می‌سنجن!

خب، شاید براتون پیش اومده باشه که فکر کنین ماشین‌های خودران (همون ماشین‌هایی که خودشون حرکت می‌کنن، بدون راننده) چطور باید تصمیم بگیرن؟ مثلاً اگه یه اتفاق بد بیفته، باید کی رو نجات بدن؟ به جونِ کسی آسیب بزنه یا نه؟ خلاصه، داستان اخلاق و وجدان توی ماشین‌ها حسابی پیچیده شده و خیلی‌ها دارن سعی می‌کنن یه راه مطمئن پیدا کنن که این تصمیم‌ها با ارزش‌های جامعه هماهنگ باشه.

توی مقاله‌ای که همین تازگیا کار شده، اومدن یه مدل جدید رو معرفی کردن که بهش Ethical Goal Function یا به اختصار EGF می‌گن. این یعنی یه فرمول کامپیوتری برای اخلاق! توی این مدل، سعی شده تصمیمات ماشین‌های خودران بر اساس اون چیزی باشه که مردم یه جامعه از لحاظ اخلاقی ترجیح می‌دن. خلاصه دیگه فقط یه بحث تئوری و رویایی نیست.

حالا چجوری این مدل رو ساختن؟ کاری که کردن این بوده که از ۸۹ تا دانشجوی هلندی خواستن توی یه سری آزمایش انتخابی (Discrete Choice Experiments، که یعنی به افراد بیاری چندتا سناریو نشون بدی و ازشون بخوای انتخاب کنن کدوم رو ترجیح می‌دن) شرکت کنن. توی هر سناریو، شش ویژگی اخلاقی جذاب مد نظر بوده: آسیب فیزیکی، آسیب روانی، مسئولیت اخلاقی، فرصت برابر برای زندگی (Fair innings، یعنی اینکه هرکسی به طور مساوی فرصت زندگی کردن داشته باشه)، قانونی بودن، و آسیب به محیط زیست. این ویژگی‌ها رو از حوزه اخلاق پزشکی و روانشناسی اخلاقی گرفتن و قبلاً هم توی تحقیقات مربوط به اخلاق ماشین‌های خودران امتحانشون کردن.

برای اینکه بفهمن چی تو دل مردم می‌گذره، دست به دامن یه مدل آماری شدن به اسم Multinomial Logit Model (یا همون مدل MNL که یعنی یه مدل آماری که انتخاب بین چند گزینه رو پیش‌بینی می‌کنه). با این کار، متوجه شدن که مردم هرکدوم از اون ویژگی‌های بالا رو چقدر مهم می‌دونن. جالبه بدونین که میانگین دقت پیش‌بینی مدلشون هم حدود ۶۳.۸ درصد بوده (SD = 3.3%) که در نوع خودش خیلی خوبه و نشون می‌ده این ویژگی‌ها واقعاً به کار تصمیم‌گیری اخلاقی ماشین‌ها می‌خورن.

حالا یه مفهوم خفن دیگه هم معرفی کردن: Socio-Technological Feedback Loop یا خلاصه‌ش SOTEF. این یعنی یه چرخه بازخورد بین جامعه و تکنولوژی که بر اساس اون، مدل اخلاقی هر بار با نظر و دیدگاه مردم به‌روز می‌شه؛ یعنی اخلاق ماشین متوقف نیست و دائم آپدیت می‌شه بر اساس اینکه مردم چی رو درست می‌دونن. واقعاً جالبه، نه؟

البته خود نویسنده‌ها هم گفتن که کارشون بدون ایراد نیست. مثلاً چون فقط دانشجوهای هلندی تو تست‌ها بودن، نمی‌شه گفت نتیجه دقیقاً برای همه فرهنگ‌ها صدق می‌کنه. تازه، توی آزمایش‌ها فقط سناریوها رو به صورت متنی نشون دادن که شاید به اندازه سناریوهای واقعی زندگی تاثیرگذار نبوده باشه. پیشنهاد دادن که بعداً با افراد از کشورها و فرهنگ‌های متنوع‌تر کار بشه و حتی بتونن سناریوها رو به صورت تصویری یا حتی واقعیت مجازی نشون بدن تا نتایج نزدیک‌تر به واقعیت باشه.

در کل، این تحقیق اولین بار یه مدل واقعاً اجرایی و وابسته به داده برای اخلاق ماشین‌های خودران ساخته و نشون داده که می‌شه نظر و ارزش‌های مردم رو به زبون تعداد و فرمول به تصمیم‌گیری هوش مصنوعی اضافه کرد؛ اون هم نه فقط بر پایه نظریه، بلکه با شواهد و تست واقعی!

خلاصه اگه فکر می‌کنین آینده ماشین‌های خودران خیلی دور از ماست، باید بدونین همین الان هم آدم‌ها دارن تلاش می‌کنن اخلاق و وجدان رو برنامه‌نویسی کنن تا خیالمون از تصمیم‌های ماشین‌ها راحت‌تر باشه! 🚗🤖

منبع: +