ماجرای دو لبه بودن فناوری‌های کمکی: چی میشه اگه هوش مصنوعی خوب هم دست نظامی‌ها بیفته؟

حتماً تا حالا چیزهایی در مورد تکنولوژی‌هایی شنیدین که اولش برای کمک به آدم‌ها ساخته شدن؛ مثلاً سیستم‌هایی که به افراد دارای معلولیت کمک می‌کنن بهتر زندگی کنن. ولی می‌دونین نکته جالبش چیه؟ این تکنولوژی‌ها یه ریسک دوگانه یا همون “dual-use” دارن. یعنی چی؟ یعنی هم میشه ازشون برای کارهای مثبت استفاده کرد (مثلاً حمایت از آدم‌ها)، هم ممکنه یه سری‌ها بیان و از همون سیستم در موقعیت‌هایی مثل جنگ یا شرایط اضطراری، سواستفاده کنن.

بذار یه مثال ساده بزنم: فکر کن یه فناوری برای زیر نظر داشتن و مراقبت از یه بیماری خاص ساخته شده، که واقعاً کارش عالیه برای افراد نیازمند. اما اگه همون تکنیک بیفته دست ارتش یا گروه‌های نظامی، میشه باهاش کارهایی مثل ردیابی افراد یا حتی جاسوسی انجام داد. حالا اینجاست که دیگه فقط بحث پزشکی یا حمایت نیست، بلکه بحث ریسک و اخلاق وسط میاد.

حالا مسئله چیه؟ اغلب اطلاعاتی که این سیستم‌ها جمع می‌کنن، برای بهبود کیفیت مراقبت و کمک به آدم‌ها جمع شده. ولی اگه کسی بدون در نظر گرفتن مسائل اخلاقی بیاد از این داده‌ها استفاده نظامی کنه چی؟ خب اینجا دقیقاً خطر پیش میاد. چون ملت معمولاً فکر نمی‌کنن داده‌ای که مثلاً برای کمک به یه فرد معلول جمع شده، یه روزی میشه ابزار دست یه ارتش.

این وسط یه مشکل خیلی مهم دیگه هم هست: اگر ما خوب و درست سیستم‌ها رو برنامه‌ریزی و مدیریت نکنیم، ممکنه به اقشار آسیب‌پذیر (مثل خود افراد دارای معلولیت یا گروه‌های حساس) ضرر بزنه. واسه همین لازمه این چیزی به اسم “prompting strategy” یعنی استراتژی طراحی درخواست و داده هم درست و حسابی و اخلاقی باشه. تعریفی ساده بخوام بدم: منظور از استراتژی درخواست، اینه که دقیقا تعیین کنی چه داده‌هایی، چجوری و کی وارد سیستم بشن و چه خروجی‌ای داده بشه، تا جلوی سوگیری و اشتباهات گرفته بشه.

در نهایت حرف اصلی این مقاله اینه که اگه می‌خوایم فناوری‌هامون واقعاً به درد مردم بخوره و دست افراد نامناسب نیفته، باید هم طراحی سیستم و هم روش استفاده از داده‌ها طبق یه چهارچوب اخلاقی و عادلانه باشه. اینجوری میشه مطمئن شد که هیچ گروه خاصی (مخصوصاً آسیب‌پذیرها) تو این میون آسیب نبینن و فناوری دست آدم‌های درست قرار بگیره.

در کل، دوگانه بودن تکنولوژی‌ها یه مسئله واقعیه و اگه حواسمون نباشه، ممکنه چیزی که برای کمک ساخته شده، تبدیل به یه ابزار خطرناک بشه. پس همیشه باید به بعد اخلاقی و عادلانه در استفاده از سیستم‌های هوش مصنوعی و داده‌های مردم دقت کنیم.

منبع: +