بیا یه کم رک و بیتکلف راجعبه حضور هوش مصنوعی (همون AI که یعنی رباتهای باهوشی که میتونن تصمیم بگیرن و یاد بگیرن!) تو دنیای پزشکی گپ بزنیم. هوش مصنوعی این روزا داره کمکم تو درمان و تشخیص بیماریها وارد میشه، اما راستش هنوز خیلی چیزاش برامون نامعلومه و صد درصد جا نیفتاده. با اینکه حضور تکنولوژی کلی نوآوری با خودش آورده و پزشکا و بیمارا ازش سود میبرن، ولی خب دردسر و سوالات اخلاقی زیاده.
میدونی چرا خیلیا تو این مسیر دغدغه دارن؟ چون داستانهایی هست مثل امنیت اطلاعات افراد، حفظ حریم خصوصی (یعنی اطلاعات شخصی شما دست هرکی نیفته)، عادلانه بودن دسترسی همه به خدمات درمانی، و اینکه اگه یه اشتباهی شد، تقصیر کیه واقعاً؟ مدلهای هوش مصنوعی طوری کار میکنن که گاهی کاربرها خودشون نمیفهمن چی تو اون جعبهی جادویی میگذره! به این حالت میگن “ابهام هوش مصنوعی”.
تا قبل از پیداشدن AI، یه چیزی تو پزشکی مهم بود به اسم رضایت آگاهانه. یعنی پزشک باید همه اطلاعات رو ساده و شفاف به بیمار بده، تا بیمار به طور داوطلبانه و با آگاهی کامل تصمیم بگیره چه درمانی رو انتخاب کنه. حالا که پای هوش مصنوعی به ماجرا باز شده و گاهی حتی خودش مستقل نظر میده، همین رضایت آگاهانه هم به چالش کشیده شده. چون کی دقیقاً باید توضیح بده که مثلا پشت این تصمیم یک ربات هم بوده؟ اصلاً مریض باید بدونه همچین چیزی هست یا نه؟
نکته اینجاست که ارتباط درست بین دکتر و بیمار خیلی مهمه – باعث میشه بیمار اعتمادش جلب بشه، استرسش کم بشه و خودش فعالانه تو روند درمان مشارکت کنه. وقتی AI (یعنی هوش مصنوعی) هم وارد میشه، دیگه فقط یک رابطه دو نفره بین دکتر و بیمارب وجود نداره، بلکه یه ضلع سوم هم هست!
از نظر اخلاق زیستی یا بیواتیک (Bioethics یعنی همون علم بررسی مسائل اخلاقی تو پزشکی و زیستشناسی)، باید یه ساز و کار عاقلانه و محتاط درست بشه تا استفاده از تکنولوژیهای جدید کاملاً اخلاقی باشه و برای بشریت مفید واقعی بشه. این هم یه چالش فنیه و هم چالش اخلاقی.
تو کتاب “اخلاق هوش مصنوعی” (Ethics of Artificial Intelligence)، آقای فلوریدی اومده این موضوعات رو با اصول اخلاقی مشهور پزشکی که بیوچمپ و چیلدرس تو سال ۱۹۷۹ گفتن، جفت و جور کرده: استقلال (Autonomy یعنی اختیار بیمار تو تصمیمگیری)، ضرر نرساندن (Non-maleficence یعنی هیچکس نباید به بیمار آسیب بزنه)، فایده رسوندن (Beneficence یعنی منفعت بیمار باید همیشه مهم باشه)، و عدالت (Justice یعنی همه عادلانه به خدمات دسترسی داشته باشن). اما فلوریدی میگه یه اصل جدید باید اضافه شه به اسم “قابلیت توضیح” یا Explicability – یعنی روند تصمیمگیری AI باید شفاف باشه و بتونیم بفهمیم چرا یه نتیجه خاص داده. چون اگه نفهمیم رباتها چرا یه تصمیم خاص گرفتن، اونوقت رضایت آگاهانه واقعا معنی نمیده!
پس الان که با حضور هوش مصنوعی، اون مدل ساده پزشک-بیمار جای خودش رو به یه مدل سهنفره (پزشک، بیمار و هوش مصنوعی) داده، باید دوباره بشینیم سر اصل رضایت آگاهانه فکر کنیم. هم باید اطلاعات شفافتر و کاملتر به بیمار داده شه و هم کلاً به ارزشهای اساسی مثل شفافیت و اختیار احترام بیشتری گذاشته بشه.
در نهایت، حضور هوش مصنوعی یه عالمه فرصت فوقالعاده آورده اما دردسر اخلاقی و عملی هم کم نداشته. واسه اینکه همه چی درست پیش بره، باید ارتباط درست، شفافیت کامل و رعایت اصول اخلاقی پررنگتر از قبل رعایت بشه. خلاصه، جهان پزشکی با «هوش مصنوعی» یهو خیلی جدیتر و پیچیدهتر شده، اما باهوشترین آدمها میتونن با رعایت اخلاق و ارتباط درست از پسش بر بیان!
منبع: +