هوش مصنوعی مطمئن: چطور سیستم‌هامون رو هم خصوصی، هم قابل بررسی و هم قابل حسابرسی کنیم؟

Fall Back

این روزها همه جا اسم هوش مصنوعی (یا همون AI که دیگه حتی مامان‌بزرگ‌هامونم میگن!) می‌دونیم هر روز تو زندگی‌مون پررنگ‌تر میشه. ولی هر چقدر که بیشتر بهش تکیه می‌کنیم، این سوال مهم‌تر میشه که: واقعاً چطور میشه جلوی خرابکاری، سوءاستفاده یا اشتباهات عجیب AI رو گرفت؟ اصلاً چطور مطمئن بشیم این سیستم‌ها قابل اعتماد و قابل حسابرسی هستن؟

تو این مقاله می‌خوایم درباره یه پایان‌نامه خیلی باحال صحبت کنیم که دقیقاً دنبال جواب این سوالاس. کاری کرده که کلی از تکنیک‌ها و راهکارهای خلاقانه رو برای حفظ حریم خصوصی، قابل بررسی بودن و حسابرسی سیستم‌های هوش مصنوعی (به ویژه Foundation Models، یعنی اون مدل‌های بزرگی که پایه‌ی کلی تکنولوژی‌های AI هستن) جمع‌بندی و ارائه کرده.

راستش رو بخواید وقتی میگیم “حریم خصوصی” یعنی اطلاعات شما یا سازمان‌ها همین‌جوری برای هر کسی قابل دسترسی نباشه. “Verifiability” به معنی قابل بررسی بودن نتیجه‌هاست؛ یعنی هر کسی بتونه صحت خروجی AI رو چک کنه. “Auditability” هم یعنی بشه همه اعمال و تصمیم‌های این سیستم‌ها رو به راحتی ردیابی و بررسی کرد.

حالا این دانشمند خفه‌تر از این حرفاست! اومده از دنیاهای مختلف علم کامپیوتر و حتی قوانین بین‌المللی یه پل زده تا مسائل و ریسک‌های اساسی تو حوزه هوش مصنوعی رو پیدا کنه.

از مهم‌ترین چیزهایی که ارائه کرده، استفاده از “رمزنگاری دانایی صفر” یا همون Zero-Knowledge Cryptography هست. حالا این یعنی چی؟ خیلی ساده بگم: یه روشی تو رمزنگاریه که به طرف مقابل فقط ثابت می‌کنی حرفت درسته، بدون اینکه جزییات یا اطلاعات اضافی رو لو بدی! مثلاً اگه سیستم AI ادعا کنه یه کاری رو به درستی انجام داده، می‌تونه بدون نشون دادن داده‌هایی که روی اون کار کرده بهتون ثابتش کنه؛ خیلی جالبه نه؟

یه قسمت دیگه از تکنیک‌هاش مربوط میشه به “محاسبه چندطرفه امن” یا Secure Multi-party Computation. این یعنی چند نفر یا شرکت می‌تونن روی یه داده کار کنن بدون اینکه اطلاعات بقیه به هم لو بره! مثل وقتی که چندتا شرکت می‌خوان بدون اینکه دیتاهاشون رو به هم نشون بدن، یه تحلیل مشترک انجام بدن.

حتی به سراغ “محیط‌های اجرایی مورد اعتماد” یا Trusted Execution Environments هم رفته؛ اینا فضاهای ویژه‌ای تو سروِرها هستن که کسی نمی‌تونه اطلاعات داخلش رو ببینه یا دستکاری کنه، یعنی کلی امنیت بالا میرن.

برای این که استفاده از مدل‌های زبانی بزرگ (Large Language Models، مثل ChatGPT و اونایی که متنو پردازش می‌کنن) و سیستم‌های بازیابی اطلاعات (Information Retrieval) هم امن باشه، باز همین راهکارها رو پیشنهاد داده تا عملیات این سیستم‌ها هم محرمانه و هم قابل بررسی باقی بمونه.

موضوع خیلی باحال دیگه این پایان‌نامه اضافه کردن “مکانیزم‌های واگذاری پیشرفته” (Enhanced Delegation Mechanisms) و سیستم‌های اعتبارسنجی یا Credentialing هست. یعنی بشه دسترسی و اختیارات افراد یا ماشین‌ها به هم رو خیلی دقیق و قابل کنترل تعیین کرد. خلاصه اینکه دیگه هرکسی نخواد سر سیستم‌ها رو کلاه بذاره!

در آخر هم همه این پیشرفت‌های فنی رو کنار هم گذاشته تا یه دید کامل بده که چطور باید بین حفظ حریم خصوصی، امکان بررسی و حسابرسی سیستم‌های AI یه تعادل خوب ایحاد کنیم. حتی یه نقشه راه عملی برای طراح‌های سیستم‌ها ارائه داده و گفته چطور این مفاهیم رو به قوانین و ساختارهای مدیریتی هوش مصنوعی واقعی گره بزنیم.

اگه بخوام همه حرف‌ها رو یه جا جمع کنم، این پژوهش نشون داده اگه بخوایم هوش مصنوعی رو توی زندگی و کسب‌و‌کار جدی بگیریم، امنیت و نظارت و شفافیتش باید جدی‌تر گرفته بشه. این پایان‌نامه هم راه‌هایی رو معرفی کرده که هم فنی و هم کاربردی‌ان و هم می‌تونن سیاست‌گذاری‌های آینده رو شکل بدن.

در کل، اگه دوست داری وارد دنیای هوش مصنوعی بشی و برات مهمه که سیستم‌ها کار درست انجام بدن، این مقاله کلی ایده جالب برات داره!

منبع: +