هوش مصنوعی و تبعیض: وقتی الگوریتم‌ها بی‌عدالتی رو یواشکی انجام میدن!

Fall Back

این روزها همه جا حرف از هوش مصنوعی (AI) و تصمیم‌گیری‌ الگوریتمی هست. همین سیستمایی که می‌تونن به همه‌ی بخش‌های زندگی‌مون کمک کنن و کارها رو سریع‌تر کنن. اما یه طرف قضیه هست که کمتر بهش توجه میشه: بی‌عدالتی و تبعیض‌هایی که این الگوریتم‌ها ممکنه خیلی بی‌سروصدا ایجاد کنن.

موضوع اینه که قوانین فعلی مقابله با تبعیض (Non-Discrimination Law یعنی قوانینی که سعی دارن جلوی تبعیض بر اساس ویژگی‌هایی مثل جنسیت یا نژاد رو بگیرن)، با پیشرفت این فناوری‌ها داره به چالش کشیده میشه. چرا؟ چون الگوریتم‌ها خیلی سریع می‌تونن بر اساس یه سری ویژگی‌های خیلی عجیب و غریب، آدم‌ها رو توی دسته‌های جدیدی بذارن.

مثلاً یه الگوریتم ممکنه فقط بر اساس اینکه تو با چه مرورگری (Browser یعنی همون نرم‌افزاری که اینترنت رو باهاش می‌چرخیم، مثل کروم یا فایرفاکس) وارد یه سایت شدی، یا حتی شماره واحد آپارتمانت، بین آدم‌ها فرق بذاره! شاید به نظرت این ویژگی‌ها بی‌ضرر بیان، ولی واقعاً می‌تونن تاثیر منفی بذارن. چون اینجوری شاید یه گروه خاصی از جامعه مدام در موقعیت پایین‌تری قرار بگیرن یا فرصت‌های کمتری بهشون برسه، بدون اینکه حتی بر اساس ویژگی‌هایی مثل رنگ پوست یا جنسیت باشه!

حالا مشکل اصلی اینجاست: قوانین فعلی فقط یه سری ویژگی خاص رو به عنوان «زمینه‌های حمایت شده» (Protected Grounds مثل جنسیت، قومیت، مذهب و…) در نظر می‌گیرن. اگه تبعیض روی این زمینه‌ها اتفاق بیفته میشه پیگیریش کرد. ولی وقتی الگوریتم‌ها میان و رو موارد عجیبی مثل نوع مرورگر یا حتی اسم خونت تبعیض اعمال می‌کنن، دیگه خیلی راحت می‌تونن از زیر قانون در برن. این یعنی یک عالمه راه فرار قانونی واسه بی‌عدالتی‌های جدید باز میشه!

تو مقاله‌ای که در موردش صحبت می‌کنیم، نویسنده‌ها حسابی روی این موضوع زوم کردن که بهترین سیستم و راهکار قانونی چیه تا بشه جلوی این تبعیض‌های نو ظهور الگوریتمی رو گرفت؟ اونا بررسی کردن که چطور قوانین الان ممکنه حفره یا نقطه‌ضعف (بهش میگن «loophole» یعنی راه دور زدن قانون) داشته باشن و چه حمایتی می‌تونن در برابر تصمیم‌گیری‌های الگوریتمی به ما بدن.

خبر خوب اینه که حتی با اینکه این مقاله تمرکزش رو اروپا بوده، اما نتیجه‌هاش به درد بقیه کشورها و سیاست‌گذارها هم می‌خوره. چون این چالش، یعنی اینکه الگوریتم‌ها خیلی راحت می‌تونن یه جور تبعیض پنهونی بسازن، مسئله‌ای که همه‌جا درگیره.

در واقع باید دنبال سیستمی باشیم که جلوی این فرق گذاشتن‌های عجیب و جدید الگوریتم‌ها رو بگیره، حتی وقتی بر پایه زمینه‌های عجیب‌غریب و غیرمرتبط با تبعیض سنتی باشه؛ چون تهش ممکنه همین دسته‌بندی‌های عجیب هم باعث بشه عادلانه بودن جامعه بهم بخوره.

در کل اگه بخوام خلاصه کنم: داستان اینه که هوش مصنوعی و الگوریتم‌ها دارن دنیا رو دگرگون می‌کنن، اما اگه قانون‌ها آپدیت نشن و جلو این مدل تبعیض‌های جدید رو نگیرن، ممکنه بی‌عدالتی یه شکل پنهونی پیدا کنه و به راحتی به زندگیمون نفوذ کنه.

منبع: +