همدلی قلابی: چرا حرفای هوش مصنوعی تو موقعیتای حساس به دل نمی‌شینه!

تاحالا پیش اومده که تو یه لحظه حساس یه پیام دلگرم‌کننده دریافت کنی و بعد بفهمی پشتش یه آدم نبوده و مثلاً یه چت‌بات یا هوش مصنوعی برات اینو نوشته؟ حس خوبی بهت می‌ده یا برعکس، یه جورایی تو ذوقت می‌خوره؟ این دقیقاً همون موضوعیه که یه سری محقق شدن دنبالش و کلی آزمایش انجام دادن که بفهمن واقعاً وقتی می‌فهمیم یه پیام رو کی (یا چی!) فرستاده، چقدر برداشت و حس ما نسبت به پیام عوض می‌شه.

تو این تحقیق، یه نکته خیلی باحال بررسی شده: اینکه «تجسم انسانی شدن هوش مصنوعی» یا همون Anthropomorphism چی کار می‌کنه. یعنی وقتی یه مدل هوش مصنوعی شکل و شمایل انسانی و رفتار دوست‌داشتنی از خودش نشون می‌ده، ما ناخودآگاه فکر می‌کنیم با یه آدم طرفیم! (مثلاً ChatGPT که اون‌قدر حرفه‌ای جواب می‌ده ممکنه ما رو گول بزنه.)

حالا این سوال مطرحه: تو شرایط واقعاً احساسی و مهم، واقعاً این ترفند جواب می‌ده یا گیر می‌کنه؟ مثلاً فرض کن داری به کسی که بچه‌دار شده یا کسی که داره با یه بیماری سخت دست و پنجه نرم می‌کنه پیام می‌دی. اینجا واقعاً آدم‌ها دوست دارن یک پیام از دوست صمیمیشون بگیرن یا گل‌فروش یا حتی از گوگل یا ChatGPT؟

محقق‌ها اومدن دو تا آزمایش طراحی کردن. تو یکی از اونا اول پیام رو به آدم‌ها نشون می‌دادن و بعد تازه می‌گفتن نویسنده‌ی پیام کیه (اینطوری طرف مثلاً فکر می‌کرد یه دوست نوشته و بعد می‌فهمید یه هوش مصنوعی بوده). تو آزمایش دوم هم همون اول گفته می‌شد که پیام رو کی نوشته. جالب اینکه تو هر دو آزمایش هم شرایط احساسی متفاوت بود: بچه‌دار شدن (یه خبر خوب و احساسی) مقابل بیماری لاعلاج (یه موقعیت خیلی حساس و ناراحت‌کننده).

نتیجه چی بود؟ وقتی طرف فکر می‌کرد یه آدم نزدیک (مثل یه دوست صمیمی) پشت پیام بوده، حسابی با پیام ارتباط برقرار می‌کرد و حس ارزش و احترامش نسبت به پیام بیشتر می‌شد. برعکس، وقتی می‌فهمید پیام از یه منبع دور یا یه هوش مصنوعی مثل ChatGPT اومده، حسش نسبت به پیام خیلی افت می‌کرد و دیگه اون حس اصالت و احترام اخلاقی رو نمی‌گرفت! (اصالت یعنی احساس اینکه پیام واقعاً از ته دل و واقعی بوده، و احترام اخلاقی یعنی اینکه حس کنیم حتی نویسنده پیام به احساسات و ارزش‌های ما احترام گذاشته.)

یه چیز جالب دیگه هم این بود که وقتی هوش مصنوعی ظاهر خیلی انسان‌گونه پیدا می‌کنه، ممکنه برای مدت کوتاهی مردم رو خام کنه. ولی به محض اینکه لو می‌ره که پشت پیام یه هوش مصنوعی بوده، اون حس خوب کاملاً محو می‌شه. مخصوصاً تو موقعیت‌های خیلی حساس و هیجانی، مردم خیلی راحت تشخیص می‌دن که چی واقعی بوده و چی نه.

موضوع «نسبت دادن» یا Attribution هم اینجا مهمه، یعنی اینکه وقتی ما یه پیام رو به دوست نزدیک یا یه آدم واقعی نسبت می‌دیم، ارزش پیام برا مون بیشتر می‌شه. ولی وقتی می‌فهمیم نویسنده واقعیش یه چیزی مثل ChatGPT بوده، حس می‌کنیم ارزش مجازی و نمادین پیام افت می‌کنه (اینجا نمادین یعنی اون معنای احساسی و هویتی که روابط انسانی دارن).

در کل، این تحقیق نشون داده ظاهر انسانی دادن به هوش مصنوعی مثل یه شمشیر دو لبه‌ست: یه طرفش باعث می‌شه مردم اعتماد کنن و حتی کمی گول بخورن، ولی طرف دیگه وقتی واقعیت رو می‌فهمن، انگار همه‌چی خراب می‌شه. مخصوصاً تو ارتباط‌هایی که پای احساس و اعتماد به میونه. پس اگر یه روزی قرار باشه از هوش مصنوعی برای پیامای احساسی و مهم استفاده کنیم، باید خیلی حواسمون باشه که مرز بین واقعی و مصنوعی رو مردم زود تشخیص می‌دن و نمی‌تونیم با ظواهر جا بزنیم!

در نهایت، اگه دنبال این هستید که بدونید هوش مصنوعی مثل ChatGPT چقدر می‌تونه جای دوست واقعی یا آدم‌های نزدیک رو تو لحظه‌های مهم و احساسی بگیره، باید بگم فعلاً جوابش منفیه! هنوزم پیام گرفتن از آدمای واقعی برامون پرارزش‌تره.
منبع: +