بیا یه موضوع باحال و بحثبرانگیز رو با هم بررسی کنیم: اصلاً چطوری میشه مطمئن شد تو سیستمهای نظامی که به هوش مصنوعی (همون AI) مجهزن، کنترل هنوز دست آدم ها باقی میمونه؟ این قضیه رو بهش میگن «کنترل واقعی انسانی» یا به انگلیسی «Meaningful Human Control» که خلاصهش میشه MHC. یعنی حتی وقتی ربات و ماشین حسابی جنگ راه میندازن، آخرش انگشت آدمی رو ماشه باشه!
حالا یه گروه خفن اومده با یه تکنیک خیلی جالب به اسم «repertory grid technique» یا همون RGT (یه جور روش مصاحبه و جدولبندی ذهنی که کمک میکنه بفهمیم مردم چی تو ذهنشون راجع به یه موضوع پیچیده دارن) با دوازده تا متخصص مصاحبه کرده – از ارتشی و مهندس گرفته تا فیلسوف و خبرههای روانشناسی شغلی (این آخریا همونایی هستن که میدونن آدمها چطور با ماشین تعامل میکنن!).
قصه دقیقا سر این بود که این متخصصها درباره کنترل انسانی روی سیستمهای نظامی AI چی فکر میکنن و اصلاً چه مؤلفههایی به نظرشون مهمه. جوابشون رو هم گذاشتن تو چندتا دسته باحال: خودمختاری یا autonomy (یعنی اینکه ماشین تا چه حد خودش تصمیم میگیره)، حساسیت اخلاقی یعنی moral sensitivity (اینکه بتونه موقعیتهای غیرانسانی رو تشخیص بده و وجدان داشته باشه!)، میزان تخریب یا destructiveness (یعنی چقدر میتونه خطرناک باشه) و کلی موارد مربوط به تعامل بین آدم و ماشین.
یه نکته جالب که تو این تحقیق دراومد این بود که حتی بین خبرهها هم اختلاف نظر داشتیم که دقیقاً MHC باید چه جوری باشه و از چی باید تشکیل بشه – یعنی موضوع سادهای نیست و همزبانی بین رشتهها کار آسونی نیست! مثلاً یه مهندس شاید بیشتر حواسش باشه که سیستم چقدر خودکار عمل میکنه، ولی یه فیلسوف دغدغه وجدان و اخلاق سیستم رو داره. جالب بود که مثلاً فیلسوفها رو جنبه اخلاقی بیشتر حساس بودن؛ مهندسها و نظامیها رو بحث کنترل پذیری و امن بودن.
حاصل این بحثها و تجمیع نظرات شده یه جور نقشه طراحی (Design Map) برای کسایی که قراره سیستمهای AI نظامی طراحی کنن؛ به عبارتی راهنما ساختن که چطور مفهوم کنترل انسانی رو بیارن تو محصولشون. این نقشه کمک میکنه آدمها و تیمهای طراحی وقتی میخوان سیستم جدید خلق کنن، با یه زبان مشترک و مفاهمه بهتر جلو برن (راستی، زبان مشترک هم یعنی واژههایی که همه بفهمن و هیچ سوءتفاهمی پیش نیاد).
در نهایت هدف این تحقیق این بوده که هم یه سری واژه و تعریف مشترک بین علما و طراحها خلق بشه، هم روشهای بهتر برای گرفتن نظر متخصصها درست کنن تا تو پروژهها آینده راحتتر بتونن مبحث کنترل انسانی رو پیگیری کنن.
خلاصهش اینکه این جریان نشون میده جریان هوش مصنوعی تو ارتش فقط بحث فنی و مهندسی نیست؛ پر از سؤالهای اخلاقی و اجتماعی و حتی فلسفیه! باید حواسمون باشه موقع طراحی و تصمیمگیری، آدمها واقعاً کنترلکننده باقی بمونن و مسئولیت گریزی نشه. در کل امیدوارن این تحقیق بشه دریچهای به بحثهای بهتر، تصمیمگیریهای هوشمندانهتر و سیستمهایی که واقعاً توشون آدمها حرف آخر رو میزنن!
منبع: +