حتماً تا حالا چیزهایی در مورد تکنولوژیهایی شنیدین که اولش برای کمک به آدمها ساخته شدن؛ مثلاً سیستمهایی که به افراد دارای معلولیت کمک میکنن بهتر زندگی کنن. ولی میدونین نکته جالبش چیه؟ این تکنولوژیها یه ریسک دوگانه یا همون “dual-use” دارن. یعنی چی؟ یعنی هم میشه ازشون برای کارهای مثبت استفاده کرد (مثلاً حمایت از آدمها)، هم ممکنه یه سریها بیان و از همون سیستم در موقعیتهایی مثل جنگ یا شرایط اضطراری، سواستفاده کنن.
بذار یه مثال ساده بزنم: فکر کن یه فناوری برای زیر نظر داشتن و مراقبت از یه بیماری خاص ساخته شده، که واقعاً کارش عالیه برای افراد نیازمند. اما اگه همون تکنیک بیفته دست ارتش یا گروههای نظامی، میشه باهاش کارهایی مثل ردیابی افراد یا حتی جاسوسی انجام داد. حالا اینجاست که دیگه فقط بحث پزشکی یا حمایت نیست، بلکه بحث ریسک و اخلاق وسط میاد.
حالا مسئله چیه؟ اغلب اطلاعاتی که این سیستمها جمع میکنن، برای بهبود کیفیت مراقبت و کمک به آدمها جمع شده. ولی اگه کسی بدون در نظر گرفتن مسائل اخلاقی بیاد از این دادهها استفاده نظامی کنه چی؟ خب اینجا دقیقاً خطر پیش میاد. چون ملت معمولاً فکر نمیکنن دادهای که مثلاً برای کمک به یه فرد معلول جمع شده، یه روزی میشه ابزار دست یه ارتش.
این وسط یه مشکل خیلی مهم دیگه هم هست: اگر ما خوب و درست سیستمها رو برنامهریزی و مدیریت نکنیم، ممکنه به اقشار آسیبپذیر (مثل خود افراد دارای معلولیت یا گروههای حساس) ضرر بزنه. واسه همین لازمه این چیزی به اسم “prompting strategy” یعنی استراتژی طراحی درخواست و داده هم درست و حسابی و اخلاقی باشه. تعریفی ساده بخوام بدم: منظور از استراتژی درخواست، اینه که دقیقا تعیین کنی چه دادههایی، چجوری و کی وارد سیستم بشن و چه خروجیای داده بشه، تا جلوی سوگیری و اشتباهات گرفته بشه.
در نهایت حرف اصلی این مقاله اینه که اگه میخوایم فناوریهامون واقعاً به درد مردم بخوره و دست افراد نامناسب نیفته، باید هم طراحی سیستم و هم روش استفاده از دادهها طبق یه چهارچوب اخلاقی و عادلانه باشه. اینجوری میشه مطمئن شد که هیچ گروه خاصی (مخصوصاً آسیبپذیرها) تو این میون آسیب نبینن و فناوری دست آدمهای درست قرار بگیره.
در کل، دوگانه بودن تکنولوژیها یه مسئله واقعیه و اگه حواسمون نباشه، ممکنه چیزی که برای کمک ساخته شده، تبدیل به یه ابزار خطرناک بشه. پس همیشه باید به بعد اخلاقی و عادلانه در استفاده از سیستمهای هوش مصنوعی و دادههای مردم دقت کنیم.
منبع: +