وقتی شفافیتِ هوش مصنوعی تو کما می‌ره: تهدیدهای جدی برای حریم خصوصی و XAI

Fall Back

یه چیزی که این روزها خیلی درباره‌ش صحبت میشه، بحثِ کلان‌داده (Big Data) و هوش مصنوعیه و اینکه چطوری این دوتا عملاً میزنن حریم خصوصیمون رو به هم می‌ریزن!

یادتون باشه، وقتی میگیم کلان‌داده همون مجموعه‌های خیلی عظیم و متنوع اطلاعاتیه که شرکت‌ها و سازمان‌ها جمع‌آوری می‌کنن تا از دلش الگو پیدا کنن یا حتی آدم‌ها رو بهتر بشناسن. حالا هوش مصنوعی (AI) هم که خودش یعنی سیستم‌هایی که می‌تونن یه سری کار رو مثل قضاوت یا حتی تصمیم‌گیری به صورت خودکار انجام بدن. اما یه دردسر اصلی این وسط وجود داره: مشکلی معروف به “مسئله جعبه سیاه” یا Black Box.

یعنی چی؟ یعنی بعضی‌وقتا ما اصلاً نمی‌دونیم این مدل‌های هوش مصنوعی دقیقاً دارن چی کار می‌کنن یا خروجی‌هایی که میدن رو چطوری بدست آوردن! این قضیه مخصوصاً وقتی می‌خوای برای یه تصمیم، دلیل بیاری، بدجوری اذیت می‌کنه. چون بالاخره باید بتونی توضیح بدی بر اساس چی فلان کارو کردی یا فلان گزینه رو انتخاب کردی.

حالا نویسنده تو این مقاله یه تقسیم‌بندی جالب کرده و سه مدل شفافیت (یا به قول خودش «opacity» یعنی “ناشفاف بودن”) رو معرفی می‌کنه:

1) شفافیت سطحی (Shallow Opacity): یعنی آدم‌هایی که از سیستم استفاده می‌کنن، نمی‌دونن این سیستم چی کار داره می‌کنه. مثلاً شما می‌رید یه عکس رو تو برنامه‌ای آپلود می‌کنید که قراره قیافتون رو پیر کنه، اما نمی‌دونید با داده‌ها چی کار می‌کنه!

2) شفافیت کلاسیک جعبه سیاه (Standard Black Box Opacity): اینجا حتی تحلیل‌گرهای حرفه‌ای هم دقیقاً نمی‌دونن سیستم چجوری کاراش رو انجام میده. یعنی خودشونمم معطل موندن!

3) شفافیت عمیق (Deep Opacity): اینجا دیگه فاجعه‌س؛ یعنی حتی هیچ‌جوره امکان نداره بدونی سیستم چی کار خواهد کرد. نه فقط نمی‌دونی چطور کار می‌کنه، بلکه حتی نمی‌تونی تصور کنی خروجی هاش چیه یا چه تصمیم‌هایی ممکنه بگیره!

نکته مهم اینجاست که وقتی افراد (چه کاربرا و چه متخصص‌ها) با این نوع ناشفافیت مواجه می‌شن، دیگه عملاً نمی‌تونن دلایل درست و حسابی برای تصمیم‌هاشون بیارن. این یعنی نمی‌تونن “رضایت آگاهانه” (یعنی اینکه دقیقاً بدونی قراره چی بشه و بعد رضایت بدی) بدن یا حتی “ناشناس بودن” (anonymity) خودشون رو تضمین کنن. چون خود سیستم معلوم نیست چجوری و بر چه اساسی کار می‌کنه!

خلاصه حرف مقاله اینه: با پیشرفته شدن هوش مصنوعی و کلان داده‌ها، نه تنها مشکلات حریم خصوصی بیشتر می‌شن، بلکه راه‌حل‌هایی که فکر می‌کردیم جواب میدن، بی‌‌اثرتر می‌شن.

البته خبر خوب اینه که تو انتهای مقاله یه سری ایده تکنیکی هم برای مقابله با این وضعیت گفته و راه‌هایی برای شفاف‌سازی مدل‌ها پیشنهاد داده، ولی هنوز راه زیادی مونده تا بتونیم واقعاً حریم خصوصیمون رو در برابر هوش مصنوعی محافظت کنیم.

پس خلاصه‌ش اینه: هر چقدر از هوش مصنوعی و big data بیشتر استفاده می‌شه، باید بیشتر دنبال جواب‌هایی باشیم که بتونن واقعاً بفهمن این سیستم‌ها دارن چی کار می‌کنن تا بتونیم بهتر از خودمون محافظت کنیم! مثلا سراغ سیستم‌های XAI بریم، یعنی «هوش مصنوعی توضیح‌پذیر» که هدفش اینه مدل‌ها شفاف‌تر و قابل درک‌تر باشن.

منبع: +