داستان رضایت آگاهانه توی عصر هوش مصنوعی و اتفاقات تازه اخلاق پزشکی!

بیا یه کم رک و بی‌تکلف راجع‌به حضور هوش مصنوعی (همون AI که یعنی ربات‌های باهوشی که می‌تونن تصمیم بگیرن و یاد بگیرن!) تو دنیای پزشکی گپ بزنیم. هوش مصنوعی این روزا داره کم‌کم تو درمان و تشخیص بیماری‌ها وارد میشه، اما راستش هنوز خیلی چیزاش برامون نامعلومه و صد درصد جا نیفتاده. با اینکه حضور تکنولوژی کلی نوآوری با خودش آورده و پزشکا و بیمارا ازش سود می‌برن، ولی خب دردسر و سوالات اخلاقی زیاده.

می‌دونی چرا خیلیا تو این مسیر دغدغه دارن؟ چون داستان‌هایی هست مثل امنیت اطلاعات افراد، حفظ حریم خصوصی (یعنی اطلاعات شخصی شما دست هرکی نیفته)، عادلانه بودن دسترسی همه به خدمات درمانی، و اینکه اگه یه اشتباهی شد، تقصیر کیه واقعاً؟ مدل‌های هوش مصنوعی طوری کار می‌کنن که گاهی کاربرها خودشون نمی‌فهمن چی تو اون جعبه‌ی جادویی می‌گذره! به این حالت می‌گن “ابهام هوش مصنوعی”.

تا قبل از پیداشدن AI، یه چیزی تو پزشکی مهم بود به اسم رضایت آگاهانه. یعنی پزشک باید همه اطلاعات رو ساده و شفاف به بیمار بده، تا بیمار به طور داوطلبانه و با آگاهی کامل تصمیم بگیره چه درمانی رو انتخاب کنه. حالا که پای هوش مصنوعی به ماجرا باز شده و گاهی حتی خودش مستقل نظر میده، همین رضایت آگاهانه هم به چالش کشیده شده. چون کی دقیقاً باید توضیح بده که مثلا پشت این تصمیم یک ربات هم بوده؟ اصلاً مریض باید بدونه همچین چیزی هست یا نه؟

نکته اینجاست که ارتباط درست بین دکتر و بیمار خیلی مهمه – باعث میشه بیمار اعتمادش جلب بشه، استرس‌ش کم بشه و خودش فعالانه تو روند درمان مشارکت کنه. وقتی AI (یعنی هوش مصنوعی) هم وارد میشه، دیگه فقط یک رابطه دو نفره بین دکتر و بیمارب وجود نداره، بلکه یه ضلع سوم هم هست!

از نظر اخلاق زیستی یا بیواتیک (Bioethics یعنی همون علم بررسی مسائل اخلاقی تو پزشکی و زیست‌شناسی)، باید یه ساز و کار عاقلانه و محتاط درست بشه تا استفاده از تکنولوژی‌های جدید کاملاً اخلاقی باشه و برای بشریت مفید واقعی بشه. این هم یه چالش فنیه و هم چالش اخلاقی.

تو کتاب “اخلاق هوش مصنوعی” (Ethics of Artificial Intelligence)، آقای فلوریدی اومده این موضوعات رو با اصول اخلاقی مشهور پزشکی که بیوچمپ و چیلدرس تو سال ۱۹۷۹ گفتن، جفت و جور کرده: استقلال (Autonomy یعنی اختیار بیمار تو تصمیم‌گیری)، ضرر نرساندن (Non-maleficence یعنی هیچکس نباید به بیمار آسیب بزنه)، فایده رسوندن (Beneficence یعنی منفعت بیمار باید همیشه مهم باشه)، و عدالت (Justice یعنی همه عادلانه به خدمات دسترسی داشته باشن). اما فلوریدی میگه یه اصل جدید باید اضافه شه به اسم “قابلیت توضیح” یا Explicability – یعنی روند تصمیم‌گیری AI باید شفاف باشه و بتونیم بفهمیم چرا یه نتیجه خاص داده. چون اگه نفهمیم ربات‌ها چرا یه تصمیم خاص گرفتن، اونوقت رضایت آگاهانه واقعا معنی نمیده!

پس الان که با حضور هوش مصنوعی، اون مدل ساده پزشک-بیمار جای خودش رو به یه مدل سه‌نفره (پزشک، بیمار و هوش مصنوعی) داده، باید دوباره بشینیم سر اصل رضایت آگاهانه فکر کنیم. هم باید اطلاعات شفاف‌تر و کامل‌تر به بیمار داده شه و هم کلاً به ارزش‌های اساسی مثل شفافیت و اختیار احترام بیشتری گذاشته بشه.

در نهایت، حضور هوش مصنوعی یه عالمه فرصت فوق‌العاده آورده اما دردسر اخلاقی و عملی هم کم نداشته. واسه اینکه همه چی درست پیش بره، باید ارتباط درست، شفافیت کامل و رعایت اصول اخلاقی پررنگ‌تر از قبل رعایت بشه. خلاصه، جهان پزشکی با «هوش مصنوعی» یهو خیلی جدی‌تر و پیچیده‌تر شده، اما باهوش‌ترین آدم‌ها می‌تونن با رعایت اخلاق و ارتباط درست از پسش بر بیان!

منبع: +