بذار برات از یه موضوع خیلی مهم و داغ این روزها حرف بزنم: هوش مصنوعی ژنراتیو یا همون Generative AI. اگه بخوام ساده بگم، این نوع هوش مصنوعی، اونقدر پیشرفتهست که میتونه خودش محتوا بسازه؛ مثل متن، تصویر، ویدیو و حتی صدا! مثلاً همون چتباتهایی که داریم امروز باهاشون حرف میزنیم یا نرمافزارهایی که نقاشیهای خفن میکشن. اما قضیه اینجا تموم نمیشه، چون با این پیشرفت سریعش، کلی نگرانی و چالش اخلاقی هم برامون درست کرده.
حالا یه تیم از محققها اومدن دقیقاً روی همین موضوع کار کردن. گفتن بیایم ببینیم که واقعاً ریسکها و دغدغههای اخلاقی این هوش مصنوعیهای جدید چیا هست و چطور میشه با یه رویکرد چندنفره (همه با هم!) این ریسکها رو بررسی کرد. توی این تحقیق، هم نظر برنامهنویسها و سازندههای هوش مصنوعی رو گرفتن، هم نظر کاربرای عادی (کسایی مث خودمون که استفاده میکنن)، و هم سیاستگذارها (همونا که قوانین رو میذارن یا دربارهش تصمیم میگیرن).
برای اینکه همه چی رو علمیتر و دقیقتر جلو ببرن، از یه متد خیلی باکلاس به اسم grey DEMATEL استفاده کردن. Gray DEMATEL یعنی یک روش تصمیمگیری که میتونیم باهاش بفهمیم چقدر این ریسکها روی هم تأثیر میذارن و کدومشون توی کل ماجرا مهمتر هستن. خلاصه، اومدن همه دادهها رو قشنگ تحلیل کردن که بفهمن کدوم ریسک، کجا و چه جوری خودشو نشون میده.
تو این مسیر، اولش یه مرور کلی و دقیق از مطالعات قبلی انجام دادن و از چندین کارشناس/متخصص تأیید گرفتن که فهرست کاملتر بشه. نتیجهش: ۱۴ تا چالش اخلاقی اساسی پیدا کردن، که از مرحله ورودی داده و آموزش هوش مصنوعی بگیر تا خروجیای که آخر کار به دست کاربر میرسه. تو این لیست، هم ریسکهایی بود که همیشه نگرانشون بودیم، هم یه سری ریسک تازه. مثلاً:
– Deepfake (همون ویدیوها یا صداهای تقلبی که خیلی شبیه واقعی هستن و میتونن آدمارو گول بزنن)
– حق مالکیت معنوی (Intellectual Property Rights یعنی مثلاً اثر یه هنرمند بدون اجازه توسط هوش مصنوعی کپی یا بازتولید بشه)
– شفافیت دادهها (یعنی معلوم باشه دادهها از کجا اومدن و روی چی آموزش داده شدن)
– سوگیری الگوریتمی (Algorithmic Bias یعنی وقتی هوش مصنوعی ناعادلانه عمل میکنه، مثلاً نسبت به یه گروه خاص تبعیض داره)
یه نکته جالب اینه که محققها اومدن دیدگاههای این سه گروه اصلی رو کنار هم گذاشتن تا بفهمن هرکدوم چه مدلی به این ریسکها نگاه میکنن و اصلاً چی براشون مهمه. با تحلیل فاصله اقلیدسی (Euclidean Distance Analysis یعنی یه جوری مقایسه که نشون بده چقدر نگاه دو نفر یا چندگروه مختلف با هم فرق داره)، فهمیدن بعضی جاها مثل promptهای مخرب (Adversarial Prompts، مثلاً یکی بیاد جوری سوال بده که هوش مصنوعی جواب نامناسب بسازه)، یا همون سوگیری داده و خروجی، هر گروه خیلی نظر خودش رو داره و بعضاً اختلافها عمیقه!
در آخر، اومدن این ریسکها رو توی ۴ دسته اصلی طبقهبندی کردن:
1. Critical Enablers: ریسکهایی که اگه بهشون توجه نشه، کل حرکت جلو رفتن با هوش مصنوعی رو خراب میکنن؛ خیلی حیاتی هستن.
2. Mild Enablers: ریسکهایی که مهمند ولی کمتر از گروه قبل.
3. Independent Enablers: ریسکهایی که خیلی با بقیه ریسکها ارتباط ندارن و مستقل هستن.
4. Critical Dependents: ریسکهایی که وابسته به بقیه هستن و خودشون به تنهایی تاثیر زیادی ندارن، مگر اینکه بقیه دست به دست هم بدن.
این طبقهبندی کمک میکنه بفهمیم دقیقاً کجا باید بیشتر مراقب باشیم و انرژی بذاریم تا هم تکنولوژی جلو بره و هم اخلاق فدا نشه.
یکی دیگه از چیزایی که تو این تحقیق حسابی روش تاکید شده، اینه که اگه واقعاً دنبال یه راهحل درست و حسابی هستیم، باید همهی این ذینفعها (Stakeholders یعنی همون سه گروه اصلی که گفتم) با هم همکاری کنن. دیگه دورهای که یکی تصمیم میگرفت و بقیه عمل میکردن گذشته؛ الان همه باید دست به دست بدن، از برنامهنویس تا قانونگذار و کاربر عادی. اینطوری هم ریسکها کم میشن، هم سیاستگذاریها و قانونگذاریها واقعیتر میشن و تکنولوژی مسئولانهتر رشد میکنه.
در کل، این تحقیق کلی پیشنهاد عملی (Actionable Recommendations) داده تا آدما بتونن واقعاً هوش مصنوعی رو امنتر و بهتر پیاده کنن و ریسکها رو هم با دقت مدیریت کنن. خلاصه بگم: اگه میخوایم دنیای هوش مصنوعی رو هم پیشرفتهتر کنیم و هم اخلاقیتر، باید چشامون رو خوب باز کنیم، با هم هماهنگ باشیم و همهی طرفها رو جدی بگیریم!
منبع: +