چطور میشه کنترل واقعی رو دست آدم‌ها تو سیستم‌های نظامی هوش مصنوعی نگه داشت؟ تجربه جالب کار با متخصص‌ها!

بیا یه موضوع باحال و بحث‌برانگیز رو با هم بررسی کنیم: اصلاً چطوری میشه مطمئن شد تو سیستم‌های نظامی که به هوش مصنوعی (همون AI) مجهزن، کنترل هنوز دست آدم ها باقی میمونه؟ این قضیه رو بهش میگن «کنترل واقعی انسانی» یا به انگلیسی «Meaningful Human Control» که خلاصه‌ش میشه MHC. یعنی حتی وقتی ربات و ماشین حسابی جنگ راه می‌ندازن، آخرش انگشت آدمی رو ماشه باشه!

حالا یه گروه خفن اومده با یه تکنیک خیلی جالب به اسم «repertory grid technique» یا همون RGT (یه جور روش مصاحبه و جدول‌بندی ذهنی که کمک میکنه بفهمیم مردم چی تو ذهنشون راجع به یه موضوع پیچیده دارن) با دوازده تا متخصص مصاحبه کرده – از ارتشی و مهندس گرفته تا فیلسوف و خبره‌های روان‌شناسی شغلی (این آخریا همونایی هستن که می‌دونن آدم‌ها چطور با ماشین تعامل می‌کنن!).

قصه دقیقا سر این بود که این متخصص‌ها درباره کنترل انسانی روی سیستم‌های نظامی AI چی فکر می‌کنن و اصلاً چه مؤلفه‌هایی به نظرشون مهمه. جوابشون رو هم گذاشتن تو چندتا دسته باحال: خودمختاری یا autonomy (یعنی اینکه ماشین تا چه حد خودش تصمیم می‌گیره)، حساسیت اخلاقی یعنی moral sensitivity (اینکه بتونه موقعیت‌های غیرانسانی رو تشخیص بده و وجدان داشته باشه!)، میزان تخریب یا destructiveness (یعنی چقدر می‌تونه خطرناک باشه) و کلی موارد مربوط به تعامل بین آدم و ماشین.

یه نکته جالب که تو این تحقیق دراومد این بود که حتی بین خبره‌ها هم اختلاف نظر داشتیم که دقیقاً MHC باید چه جوری باشه و از چی باید تشکیل بشه – یعنی موضوع ساده‌ای نیست و هم‌زبانی بین رشته‌ها کار آسونی نیست! مثلاً یه مهندس شاید بیشتر حواسش باشه که سیستم چقدر خودکار عمل می‌کنه، ولی یه فیلسوف دغدغه وجدان و اخلاق سیستم رو داره. جالب بود که مثلاً فیلسوف‌ها رو جنبه اخلاقی بیشتر حساس بودن؛ مهندس‌ها و نظامی‌ها رو بحث کنترل پذیری و امن بودن.

حاصل این بحث‌ها و تجمیع نظرات شده یه جور نقشه طراحی (Design Map) برای کسایی که قراره سیستم‌های AI نظامی طراحی کنن؛ به عبارتی راهنما ساختن که چطور مفهوم کنترل انسانی رو بیارن تو محصولشون. این نقشه کمک می‌کنه آدم‌ها و تیم‌های طراحی وقتی می‌خوان سیستم جدید خلق کنن، با یه زبان مشترک و مفاهمه بهتر جلو برن (راستی، زبان مشترک هم یعنی واژه‌هایی که همه بفهمن و هیچ سوءتفاهمی پیش نیاد).

در نهایت هدف این تحقیق این بوده که هم یه سری واژه و تعریف مشترک بین علما و طراح‌ها خلق بشه، هم روش‌های بهتر برای گرفتن نظر متخصص‌ها درست کنن تا تو پروژه‌ها آینده راحت‌تر بتونن مبحث کنترل انسانی رو پیگیری کنن.

خلاصه‌ش اینکه این جریان نشون میده جریان هوش مصنوعی تو ارتش فقط بحث فنی و مهندسی نیست؛ پر از سؤال‌های اخلاقی و اجتماعی و حتی فلسفیه! باید حواسمون باشه موقع طراحی و تصمیم‌گیری، آدم‌ها واقعاً کنترل‌کننده باقی بمونن و مسئولیت گریزی نشه. در کل امیدوارن این تحقیق بشه دریچه‌ای به بحث‌های بهتر، تصمیم‌گیری‌های هوشمندانه‌تر و سیستم‌هایی که واقعاً توشون آدم‌ها حرف آخر رو می‌زنن!

منبع: +