چرا ساختن هوش مصنوعی منصفانه برای خدمات اجتماعی اینقدر سخته؟ قصه آمستردام و ماجراهای باحال الگوریتم‌ها!

داستان امروز یه کم عجیب و در عین حال خیلی مهمه. بیا تصور کن تو شهر آمستردام تصمیم می‌گیرن که برای رسیدگی منصفانه‌تر به متقاضی‌های خدمات اجتماعی (همون کمک‌هزینه یا وِل‌فِر)، از هوش مصنوعی و الگوریتم کمک بگیرن. یعنی یه جور سیستمی که خودش بررسی کنه، تشخیص بده چه کسی واقعاً لازم داره، چه کسی نه – اینجوری دیگه کلی وقت صرف نمی‌شه و قراره تبعیض و بی‌عدالتی هم کمتر بشه.

اما خب… نتیجه اونی نشد که فکر می‌کردن! با اینکه هدفشون انصاف بود، اما باز کلی مشکل و تبعیض تو کار پیدا شد. حالا چرا اینجوری شد؟ اصلاً میشه واقعاً یه سیستم منصف برای این کار ساخت یا نه؟ اینا سوال‌هایی بودن که توی یه میزگرد جالب از MIT Technology Review با حضور آماندا سیلورمن (ویراستار)، آیلیین گوو (خبرنگار تحقیقی) و گابریل گایگر (از Lighthouse Reports) کلی درباره‌ش بحث کردن.

اولین چیزی که باید بدونی اینه که وقتی میگیم “الگوریتم”، منظورمون یه فرمول یا سیستمه که مشخص می‌کنه با چه روشی داده‌ها بررسی بشن. مثلاً یه الگوریتم می‌تونه تصمیم بگیره فلانی حَق داره کمک‌هزینه بگیره یا نه. حالا وقتی پای هوش مصنوعی وسط میاد، یعنی این الگوریتم‌ها خودشون یاد می‌گیرن و تصمیم می‌گیرن بدون دخالت مستقیم آدم‌ها.

بحث اصلی این بود که حتی وقتی کلی آدم تلاش می‌کنن انصاف رو تو کار وارد کنن، باز این الگوریتم‌ها، به خاطر داده‌هایی که بهشون داده شده یا حتی روش طراحی‌شون، می‌تونن ناخودآگاه مغرض و جانبدار بشن. “بایاس” یعنی همین جانبداری یا حالت تبعیض‌آمیز تو تصمیم‌گیری. فرض کن اگه سیستم تو داده‌هاش بیشتر از یه منطقه خاص یا یه گروه خاص آدم داره، احتمال داره سمت اون‌ها جهت‌دار بشه.

تجربه آمستردام یه پروژه آزمایشی بزرگ بود. اونا می‌خواستن ببینن میشه یه مدل تشخیص تقلب درست کرد که هیچکسی رو ناعادلانه متهم نکنه؟ اما متاسفانه باز هم دیدن این مدل‌ها ممکنه آدمایی رو که واقعا نیازمند کمک‌ان به اشتباه وارد لیست مظنونین کنه یا حتی حقشون رو ضایع کنه. یعنی همون مشکلی که هیچ‌کس دوست نداره دوباره اتفاق بیافته!

یه نکته جالبی که توی بحث‌هاشون مطرح شد این بود که این بایاس‌ها گاهی توی سیستم‌ها پنهان می‌مونن و کسی متوجه حضورشون نمی‌شه. یعنی اگر سیستم رو به حال خودش بذاریم، ممکنه آدم‌هایی که وضعیت مالی ضعیفی دارن، بیخود گرفتار بشن و اصلا راهی برای اعتراض هم نداشته باشن.

توی مقاله‌های مرتبط که توصیه شده، کلی راجع به خطرات واقعی هوش مصنوعی و الگوریتمای قضاوت و داوری صحبت شده بود. مثلاً یه اصطلاح “Machine Bias” بود که یعنی جانبداری الگوریتم‌ها موقع تصمیم‌گیری ماشین‌ها – مثلاً وقتی هوش مصنوعی تو دادگاه برای قضاوت زندانی‌ها استفاده بشه و تصمیم‌هایی بگیره که خودمونم نمی‌تونیم دلیلش رو بفهمیم!

حالا راه‌حل چیه؟ چجوری میشه از این بایاس‌ها جلوگیری کرد؟ یکی از راه‌هایی که تو تحقیقات Lighthouse Reports گفته شد، اینه که سیستم‌های هوش مصنوعی و الگوریتمی باید شفاف باشن و آدم‌ها بتونن بفهمن دقیقا چطوری نتیجه‌گیری می‌کنن. “شفافیت” یعنی بشه فرآیند تصمیم‌گیری و داده‌هایی که منجر به اون تصمیم شده رو بررسی کرد. علاوه بر این لازمه یه جور کنترل و نظارت بیرونی هم روی این سیستم‌ها باشه (Regulatory bodies یعنی همین نهادای نظارتی که مستقل هستن و هوای مردم رو دارن!).

در مجموع، استفاده از الگوریتم تو خدمات اجتماعی شاید هیجان‌انگیز باشه اما بدون کلی مراقبت و روش درست، هنوز نمی‌تونه تضمین کنه که همه چیز منصفانه پیش میره. خلاصه هنوز کلی کار داریم تا هوش مصنوعی واقعاً بی‌طرف و عادل بشه، مخصوصاً تو حوزه‌هایی مثل کمک‌هزینه اجتماعی که با زندگی روزمره مردم سروکار داره.

اگه دوست داشتی بیشتر بدونی یا ته و توی ماجراها رو دربیاری، یه نگاه به منبع‌هایی که معرفی کردن بنداز: مقاله‌های تحقیقاتی MIT و Lighthouse Reports و کلی گزارش دیگه درباره چالش‌های الگوریتم‌ها و هوش مصنوعی تو خدمات اجتماعی.

منبع: +