یه چیزی که این روزها خیلی دربارهش صحبت میشه، بحثِ کلانداده (Big Data) و هوش مصنوعیه و اینکه چطوری این دوتا عملاً میزنن حریم خصوصیمون رو به هم میریزن!
یادتون باشه، وقتی میگیم کلانداده همون مجموعههای خیلی عظیم و متنوع اطلاعاتیه که شرکتها و سازمانها جمعآوری میکنن تا از دلش الگو پیدا کنن یا حتی آدمها رو بهتر بشناسن. حالا هوش مصنوعی (AI) هم که خودش یعنی سیستمهایی که میتونن یه سری کار رو مثل قضاوت یا حتی تصمیمگیری به صورت خودکار انجام بدن. اما یه دردسر اصلی این وسط وجود داره: مشکلی معروف به “مسئله جعبه سیاه” یا Black Box.
یعنی چی؟ یعنی بعضیوقتا ما اصلاً نمیدونیم این مدلهای هوش مصنوعی دقیقاً دارن چی کار میکنن یا خروجیهایی که میدن رو چطوری بدست آوردن! این قضیه مخصوصاً وقتی میخوای برای یه تصمیم، دلیل بیاری، بدجوری اذیت میکنه. چون بالاخره باید بتونی توضیح بدی بر اساس چی فلان کارو کردی یا فلان گزینه رو انتخاب کردی.
حالا نویسنده تو این مقاله یه تقسیمبندی جالب کرده و سه مدل شفافیت (یا به قول خودش «opacity» یعنی “ناشفاف بودن”) رو معرفی میکنه:
1) شفافیت سطحی (Shallow Opacity): یعنی آدمهایی که از سیستم استفاده میکنن، نمیدونن این سیستم چی کار داره میکنه. مثلاً شما میرید یه عکس رو تو برنامهای آپلود میکنید که قراره قیافتون رو پیر کنه، اما نمیدونید با دادهها چی کار میکنه!
2) شفافیت کلاسیک جعبه سیاه (Standard Black Box Opacity): اینجا حتی تحلیلگرهای حرفهای هم دقیقاً نمیدونن سیستم چجوری کاراش رو انجام میده. یعنی خودشونمم معطل موندن!
3) شفافیت عمیق (Deep Opacity): اینجا دیگه فاجعهس؛ یعنی حتی هیچجوره امکان نداره بدونی سیستم چی کار خواهد کرد. نه فقط نمیدونی چطور کار میکنه، بلکه حتی نمیتونی تصور کنی خروجی هاش چیه یا چه تصمیمهایی ممکنه بگیره!
نکته مهم اینجاست که وقتی افراد (چه کاربرا و چه متخصصها) با این نوع ناشفافیت مواجه میشن، دیگه عملاً نمیتونن دلایل درست و حسابی برای تصمیمهاشون بیارن. این یعنی نمیتونن “رضایت آگاهانه” (یعنی اینکه دقیقاً بدونی قراره چی بشه و بعد رضایت بدی) بدن یا حتی “ناشناس بودن” (anonymity) خودشون رو تضمین کنن. چون خود سیستم معلوم نیست چجوری و بر چه اساسی کار میکنه!
خلاصه حرف مقاله اینه: با پیشرفته شدن هوش مصنوعی و کلان دادهها، نه تنها مشکلات حریم خصوصی بیشتر میشن، بلکه راهحلهایی که فکر میکردیم جواب میدن، بیاثرتر میشن.
البته خبر خوب اینه که تو انتهای مقاله یه سری ایده تکنیکی هم برای مقابله با این وضعیت گفته و راههایی برای شفافسازی مدلها پیشنهاد داده، ولی هنوز راه زیادی مونده تا بتونیم واقعاً حریم خصوصیمون رو در برابر هوش مصنوعی محافظت کنیم.
پس خلاصهش اینه: هر چقدر از هوش مصنوعی و big data بیشتر استفاده میشه، باید بیشتر دنبال جوابهایی باشیم که بتونن واقعاً بفهمن این سیستمها دارن چی کار میکنن تا بتونیم بهتر از خودمون محافظت کنیم! مثلا سراغ سیستمهای XAI بریم، یعنی «هوش مصنوعی توضیحپذیر» که هدفش اینه مدلها شفافتر و قابل درکتر باشن.
منبع: +