وقتی به جای نمک سراغ برُم میری: داستان دَرگیر شدن با توصیه چت‌جی‌پی‌تی!

خب، بذار از اول ماجرا براتون بگم؛ یه مرد شصت ساله تصمیم می‌گیره قبل از اینکه رژیم غذاییشو عوض کنه، از ChatGPT (یعنی همون هوش مصنوعی معروف و گفتگومحور که می‌تونی هرچی دوست داری ازش بپرسی) مشورت بگیره. اوضاع خیلی جالب پیش نمی‌ره: سه ماه بعدش، این آقا با توهم، پارانویا (یعنی شک داشتن به همه و فکر کردن یکی می‌خواد اذیتش کنه) و یه‌سری علائم عجیب، سر از اورژانس درمیاره!

ماجرا این بود که این بنده خدا دچار چیزی شده بود به اسم “برومیسم”—این یعنی مسمومیت مزمن با برُم یا ترکیباتش مثل سدیم بروماید. حالا برُم چیه؟ یه ماده شیمیایی هست که توی داروها و صنعت به کار می‌برنش، اما مصرف زیادش حسابی برات دردسر درست می‌کنه. تو این داستان، آقا خودش آنلاین سدیم بروماید خریده بود و سه ماه جای نمک سُفره (سدیم کلراید) فقط از همین سدیم بروماید استفاده می‌کرد.

کل حکایت رو تو ژورنال Annals of Internal Medicine Clinical Cases نوشتن و موضوعش حسابی سر و صدا کرد. اصل ماجرا از اینجا شروع شد که این مرد درباره تاثیرات منفی سدیم روی بدن زیاد خونده بود و تصمیم گرفت یه آزمایش شخصی انجام بده و کل کلراید (کلرید) رو از رژیمش حذف کنه. فقط مشکل اینجا بود که کلرید خودش یه ماده مهمه و برای کنترل حجم خون و فشار خون لازمه؛ اگه خیلی پایین یا بالا بره، کلی مشکل به وجود میاد.

ایشون توی گفت‌و‌گو با ChatGPT به این نتیجه رسید که می‌شه کلرید رو با بروماید جایگزین کرد! (بر مبنای جواب مدل‌های هوش مصنوعی ۳.۵ یا ۴ بوده؛ جزئیات چت رو خودش نگفته بود.) البته این توصیه بیشتر به درد کارای تمیزکاری می‌خوره تا خوراکی خوردن! تازه، پزشک‌ها هم که رفتن و خودشون از ChatGPT شبیه‌سازی پرسیدن، جواب مشابه گرفتن و مدل فقط گفته بود “بستگی به موقعیت داره”، اما اخطار جدی سلامتی یا سوال بیشتر از کاربر نپرسیده بود؛ یعنی همون حساسیت یه دکتر واقعی رو نداشت.

حالا بذار یه کم برات بازش کنم: اوایل قرن بیستم، تو داروهای خواب‌آور و ضد‌تشنج از بروماید استفاده می‌کردن. اما بعداً فهمیدن مصرف طولانی یا زیاده‌روش باعث “برومیسم” می‌شه؛ یه جور سندروم سمی (toxidrome یعنی مجموعه علائم به خاطر تجمع سموم تو بدن). علائمش هم بیشتر ذهنی و روانی هست: توهم، بی‌قراری، اختلال حافظه، بدبینی، حتی مشکلات عضلانی.

از دهه هفتاد و هشتاد میلادی این ترکیبات رو از داروهای بدون نسخه حذف کردن و دیگه کمتر کسی با برومیسم درگیر بود، اما الان دوباره با خرید مکمل‌های حاوی بروماید آنلاین گاهی این بیماری دیده می‌شه.

داستانمون چی شد؟
این آقا بعد از چند ماه سر از بیمارستان درآورد و فکر می‌کرد همسایه‌اش داره مسمومش می‌کنه! آزمایش خونش نشون می‌داد دی‌اکسید‌کربنش بالا رفته و قلیایی شدن خونش به وجود اومده (یعنی کاملاً برعکس حالت اسیدی شدن). یه نکته جالب این‌جا بود که توی جواب آزمایش، کلرید خونش بالا نشون داده شده بود، ولی این جعلی بود! چون مقدار زیاد بروماید باعث شده بود دستگاه کلرید رو با بروماید قاطی کنه و اشتباه بخونه. بهش می‌گن: “pseudohyperchloremia” یعنی کلرید بالا که واقعی نیست، از قاطی‌کاری آنالیز آزمایشگاهی!

طی اقامتش تو بیمارستان، گفت حس خیلی تشنگی داشته ولی به آب هم بدبین شده بوده. یه وقت‌هایی اصلاً فکر می‌کرد همه چی مسمومش می‌کنه، بعد کارش به هذیان و تلاش برای فرار کشید و به خاطر وضعیت روانی خاصش چند روزی براش داروی ضد‌روان‌پریشی شروع کردن. چند تا علامت دیگه هم پیدا کرد: جوش صورت (آکنه)، لکه‌های قرمز ریز روی پوست (نشونه حساسیت)، بی‌خوابی، خستگی، اختلال عضله‌ای و تشنگی زیاد. همه اینا نشونه‌های واضح برومیسم هستن.

خوشبختانه درمان شد؛ تو بیمارستان براش سرم و الکترولیت دادن، داروی ضد‌روان‌پریشی رو سه هفته بعد قطع کردن و حالش سر جاش برگشت. دو هفته بعد هم که چک شد، همچنان وضعیتش ثابت و خوب بود.

این ماجرا نشون می‌ده چقدر استفاده بی‌دقت از هوش مصنوعی توی سلامت می‌تونه خطرناک باشه. شرکت OpenAI (سازنده ChatGPT) هم اعلام کرده استفاده این سرویس‌ها به هیچ‌وجه جایگزین توصیه تخصصی پزشکی نیست و کاربران نباید جواب‌هایشون رو منبع مطلق حقیقت بدونن. حتی توی قوانینشون اومده که باید با احتیاط از این سیستم‌ها استفاده کرد و هر وقت موضوع سلامتی یا درمان بود، حتماً پیش متخصص بری.

مسئله اصلی اینه که هوش مصنوعی مثل ChatGPT ممکنه جواب‌هایی بده که توی زمینه‌های خاص یا غیر طبی معتبر باشه، اما برا سلامت اصلاً مناسب نیست. مثلاً تو یه تحقیق دیگه نشون دادن این مدل‌ها می‌تونن دچار “adversarial hallucination” بشن، یعنی اطلاعات تقلبی و خطرناک تولید کنن که اگه بدون محافظت ازشون استفاده بشه ممکنه خطرناک باشه.

ته‌ قصه؟ اگر دنبال رژیم یا توصیه پزشکی هستی، حتماً و حتماً برو سراغ پزشک واقعی و به هوش مصنوعی به چشم راهنمای اصلی نگاه نکن! این داستان برای همه ما یه آلارم جدی بود که مواظب جوابای بدون فیلتر AI باشیم و جونمون رو به دیتای اینترنتی نسپریم.

منبع: +