این روزها همه جا اسم هوش مصنوعی (یا همون AI که دیگه حتی مامانبزرگهامونم میگن!) میدونیم هر روز تو زندگیمون پررنگتر میشه. ولی هر چقدر که بیشتر بهش تکیه میکنیم، این سوال مهمتر میشه که: واقعاً چطور میشه جلوی خرابکاری، سوءاستفاده یا اشتباهات عجیب AI رو گرفت؟ اصلاً چطور مطمئن بشیم این سیستمها قابل اعتماد و قابل حسابرسی هستن؟
تو این مقاله میخوایم درباره یه پایاننامه خیلی باحال صحبت کنیم که دقیقاً دنبال جواب این سوالاس. کاری کرده که کلی از تکنیکها و راهکارهای خلاقانه رو برای حفظ حریم خصوصی، قابل بررسی بودن و حسابرسی سیستمهای هوش مصنوعی (به ویژه Foundation Models، یعنی اون مدلهای بزرگی که پایهی کلی تکنولوژیهای AI هستن) جمعبندی و ارائه کرده.
راستش رو بخواید وقتی میگیم “حریم خصوصی” یعنی اطلاعات شما یا سازمانها همینجوری برای هر کسی قابل دسترسی نباشه. “Verifiability” به معنی قابل بررسی بودن نتیجههاست؛ یعنی هر کسی بتونه صحت خروجی AI رو چک کنه. “Auditability” هم یعنی بشه همه اعمال و تصمیمهای این سیستمها رو به راحتی ردیابی و بررسی کرد.
حالا این دانشمند خفهتر از این حرفاست! اومده از دنیاهای مختلف علم کامپیوتر و حتی قوانین بینالمللی یه پل زده تا مسائل و ریسکهای اساسی تو حوزه هوش مصنوعی رو پیدا کنه.
از مهمترین چیزهایی که ارائه کرده، استفاده از “رمزنگاری دانایی صفر” یا همون Zero-Knowledge Cryptography هست. حالا این یعنی چی؟ خیلی ساده بگم: یه روشی تو رمزنگاریه که به طرف مقابل فقط ثابت میکنی حرفت درسته، بدون اینکه جزییات یا اطلاعات اضافی رو لو بدی! مثلاً اگه سیستم AI ادعا کنه یه کاری رو به درستی انجام داده، میتونه بدون نشون دادن دادههایی که روی اون کار کرده بهتون ثابتش کنه؛ خیلی جالبه نه؟
یه قسمت دیگه از تکنیکهاش مربوط میشه به “محاسبه چندطرفه امن” یا Secure Multi-party Computation. این یعنی چند نفر یا شرکت میتونن روی یه داده کار کنن بدون اینکه اطلاعات بقیه به هم لو بره! مثل وقتی که چندتا شرکت میخوان بدون اینکه دیتاهاشون رو به هم نشون بدن، یه تحلیل مشترک انجام بدن.
حتی به سراغ “محیطهای اجرایی مورد اعتماد” یا Trusted Execution Environments هم رفته؛ اینا فضاهای ویژهای تو سروِرها هستن که کسی نمیتونه اطلاعات داخلش رو ببینه یا دستکاری کنه، یعنی کلی امنیت بالا میرن.
برای این که استفاده از مدلهای زبانی بزرگ (Large Language Models، مثل ChatGPT و اونایی که متنو پردازش میکنن) و سیستمهای بازیابی اطلاعات (Information Retrieval) هم امن باشه، باز همین راهکارها رو پیشنهاد داده تا عملیات این سیستمها هم محرمانه و هم قابل بررسی باقی بمونه.
موضوع خیلی باحال دیگه این پایاننامه اضافه کردن “مکانیزمهای واگذاری پیشرفته” (Enhanced Delegation Mechanisms) و سیستمهای اعتبارسنجی یا Credentialing هست. یعنی بشه دسترسی و اختیارات افراد یا ماشینها به هم رو خیلی دقیق و قابل کنترل تعیین کرد. خلاصه اینکه دیگه هرکسی نخواد سر سیستمها رو کلاه بذاره!
در آخر هم همه این پیشرفتهای فنی رو کنار هم گذاشته تا یه دید کامل بده که چطور باید بین حفظ حریم خصوصی، امکان بررسی و حسابرسی سیستمهای AI یه تعادل خوب ایحاد کنیم. حتی یه نقشه راه عملی برای طراحهای سیستمها ارائه داده و گفته چطور این مفاهیم رو به قوانین و ساختارهای مدیریتی هوش مصنوعی واقعی گره بزنیم.
اگه بخوام همه حرفها رو یه جا جمع کنم، این پژوهش نشون داده اگه بخوایم هوش مصنوعی رو توی زندگی و کسبوکار جدی بگیریم، امنیت و نظارت و شفافیتش باید جدیتر گرفته بشه. این پایاننامه هم راههایی رو معرفی کرده که هم فنی و هم کاربردیان و هم میتونن سیاستگذاریهای آینده رو شکل بدن.
در کل، اگه دوست داری وارد دنیای هوش مصنوعی بشی و برات مهمه که سیستمها کار درست انجام بدن، این مقاله کلی ایده جالب برات داره!
منبع: +