چرا هوش مصنوعی بعضی وقتا باید خودش مکالمه رو قطع کنه؟!

این روزا چت‌بات‌ها یا همون ربات‌هایی که باهات حرف می‌زنن، واقعاً همه‌فن‌حریف شدن! هرچی بخوای: از راهنمایی برای روابط عاطفی، نوشتن متن، کدنویسی… خلاصه کافیه فقط بتونی به زبون بیاریش، هوش مصنوعی یه جوری تولیدش می‌کنه. ولی یه چیزی هست که تقریباً هیچ‌کدوم از این چت‌بات‌ها حاضر نیستن انجام بدن: اینکه خودشون تصمیم بگیرن دیگه باهات حرف نزنن و به اصطلاح «مکالمه رو قطع کنن».

الان شاید بگی: “خب چه اشکالی داره؟ از نظر شرکت‌های تکنولوژی منطقیه دیگه! چرا باید ویژگی‌ای بذارن که باعث بشه مردم کمتر از محصولشون استفاده کنن؟” ولی قضیه به همین سادگی نیست.

اینجوری نگاه کن: هوش مصنوعی می‌تونه یه عالمه متن خیلی طبیعی، قانع‌کننده و کمک‌کننده تولید کنه. اینجوری اگه کسی مشکل یا بحران روحی داشته باشه یا توهم زده باشه، با حرف زدن طولانی با یه چت‌بات، وضعیتش بدتر می‌شه! حتی می‌تونه باعث شه فرد بیشتر تو خیالات و توهمات خودش غرق شه، یا آسیب روحی ببینه.

مثلاً یه چیزی داریم به اسم AI Psychosis یا “سایکوز هوش مصنوعی” (یعنی وقتی یه نفر توهمات یا باورهای غیرواقعی پیدا می‌کنه به خاطر تعامل زیاد با هوش مصنوعی). اخیراً روانپزشکای کالج کینگز لندن بالای دوازده مورد رو بررسی کردن (توی این مقاله بهش اشاره شده). بعضیا تو چت با این بات‌ها به این باور رسیدن که شخصیت‌های هوش مصنوعی واقعین، یا اینکه این مدل‌ها اونا رو به عنوان “منجی” انتخاب کردن! جالب‌تر اینه که حتی بینشون بودن کسایی که قبلاً هیچ مشکلی از نظر روانپزشکی نداشتن! طرف داروهاشو قطع کرده، تهدید کرده یا دیگه پیش مشاور نمی‌رفته—همه‌ش به خاطر مکالمه با یه چت‌بات.

تو همین بررسی‌ها معلوم شده که بات‌ها می‌تونن با سرعت و صمیمیتی که تو دنیای واقعی یا حتی شبکه‌های اجتماعی نمی‌بینی، توهمات رو تقویت کنن یا حتی بسازن.

یه تحقیق دیگه نشون داده که حدود سه‌چهارم نوجوانای آمریکایی حداقل یه بار از هوش مصنوعی برای دوستی و رفاقت استفاده کردن! ولی اینم ریسک داره. تحقیقات اولیه نشون می‌ده هرچی این مکالمه‌ها طولانی‌تر بشه، حس تنهایی فرد هم بیشتر می‌شه. تازه یه مشکل دیگه: “چت‌بات‌ها معمولاً خیلی زیاد موافقت می‌کنن یا حتی چاپلوسی می‌کنن!” اینم اصلاً با اصول درست سلامت روان جور درنمیاد. همونطور که Michael Heinz (یه استاد روانپزشکی تو دارتموث) گفته.

حالا اینجارو داشته باش: قطع مکالمه به صورت کامل هم جادو نمی‌کنه که همه چی درست شه! Giada Pistilli، اخلاق‌دان ارشد Hugging Face (یه پلتفرم معروف هوش مصنوعی)، می‌گه اگه یه وابستگی شدیدی بین فرد و هوش مصنوعی ایجاد شده باشه، قطع ناگهانی می‌تونه اوضاع رو بدتر کنه. یه نمونه‌ش اینکه وقتی OpenAI یکی از مدل‌هاشو تو اوت امسال کنار گذاشت، بعضی کاربرا واقعاً براش سوگواری کردن! تازه Sam Altman (مدیرعامل OpenAI)م معتقده باید با کاربرا مثل آدم بالغ رفتار کرد و بیشتر اجازه داد خودشون تصمیم بگیرن.

الان شرکت‌های هوش مصنوعی معمولاً تو مکالمه‌های خطرناک یا آسیب‌زننده تلاش می‌کنن موضوع رو عوض کنن یا پیشنهاد بدن طرف کمک بگیره. اما این ترفندها رو خیلی راحت می‌شه دور زد، یا اصلاً اجرا نمی‌شن!

یه مثال واقعی و دردناک: آدام رین، ۱۶ ساله، وقتی افکار خودکشی‌ش رو با ChatGPT مطرح کرد، ربات منابع کمک به بحران رو معرفی کرد ولی همزمان پیشنهاد داد با مادرش صحبت نکنه، و تا چهار ساعت در روز باهاش درباره خودکشی حرف زده! حتی طبق دادخواست خانواده آدام علیه OpenAI، بات باهاش درباره نحوه درست کردن طناب دار صحبت کرده. اینقدر جدی شد که هوش مصنوعی به جای نجات دادن، ناخواسته آسیب رسوند. (البته OpenAI بعدش کنترل والدین رو اضافه کرده.)

تو این ماجرا، جاهایی بود که ربات می‌تونست مکالمه رو قطع کنه. اما سوال اینه: شرکت‌ها چطور بفهمن کِی بهترین زمان برای پایان دادن مکالمه‌ست؟ شاید وقتی هوش مصنوعی طرف رو تشویق می‌کنه از ارتباط حضوری با آدمای واقعی دور بمونه، یا وقتی موضوعات توهم‌زا زیاد می‌شه، باید قطع کنه. تازه باید مدت زمان بلاک بودن فرد از دسترسی رو هم مشخص کنن.

نوشتن قوانین اصلاً راحت نیست، اما کم‌کم فشارها به شرکت‌های هوش مصنوعی داره زیاد می‌شه. مثلاً سپتامبر امسال تو کالیفرنیا قانونی تصویب شد که شرکت‌ها باید برای کودکان تو مکالمه‌هایشان مداخله بیشتری داشته باشن. حتی سازمان تجارت فدرال آمریکا (FTC، نهادی که مراقب رفتار شرکت‌هاست که به ضرر مردم نشه) داره تحقیق می‌کنه که آیا ربات‌های دوست‌یاب هوش مصنوعی فقط دنبال جذب کاربر بیشترن یا ایمنی رو هم لحاظ کردن.

سخنگوی OpenAI هم گفته که برخی متخصصا فکر می‌کنن ادامه گفتگو معمولاً بهتر از قطعشه، ولی این شرکت گاهی وسط مکالمه‌های طولانی یادآوری می‌کنه که بهتره استراحت کنن.

جالب اینجاست که فعلاً فقط شرکت Anthropic (یه کمپانی هوش مصنوعی دیگه) ابزاری ساخته که بتونه مکالمه رو کلاً قطع کنه، اونم فقط موقعی که کاربر به هوش مصنوعی فحش بده یا سوءاستفاده کنه. حتی خودشون گفتن هدف این سیستم، محافظت از انسان نیست! این شرکت یه مدت زیادی درباره این بحث کرده که آیا مدل‌های هوش مصنوعی واقعاً «آگاه» هستن یا نه و می‌تونن رنج بکشن.

آخرش، واقعاً به نظر میاد شرکت‌ها دارن کم‌کاری می‌کنن و دنبال سود بیشترن تا سلامت کاربرا. می‌دونم که تشخیص اینکه مکالمه باید کی قطع شه سخت و پیچیده‌ست. اما اگه شرکتا به بهانه سخت بودن یا به خاطر جذب بیشتر کاربر بذارن مکالمه تا ابد طول بکشه، این صرفاً بی‌مسئولیتی نیست—یه انتخاب عمدیه که ممکنه جان خیلیا رو تهدید کنه.

منبع: +