تاحالا پیش اومده که تو یه لحظه حساس یه پیام دلگرمکننده دریافت کنی و بعد بفهمی پشتش یه آدم نبوده و مثلاً یه چتبات یا هوش مصنوعی برات اینو نوشته؟ حس خوبی بهت میده یا برعکس، یه جورایی تو ذوقت میخوره؟ این دقیقاً همون موضوعیه که یه سری محقق شدن دنبالش و کلی آزمایش انجام دادن که بفهمن واقعاً وقتی میفهمیم یه پیام رو کی (یا چی!) فرستاده، چقدر برداشت و حس ما نسبت به پیام عوض میشه.
تو این تحقیق، یه نکته خیلی باحال بررسی شده: اینکه «تجسم انسانی شدن هوش مصنوعی» یا همون Anthropomorphism چی کار میکنه. یعنی وقتی یه مدل هوش مصنوعی شکل و شمایل انسانی و رفتار دوستداشتنی از خودش نشون میده، ما ناخودآگاه فکر میکنیم با یه آدم طرفیم! (مثلاً ChatGPT که اونقدر حرفهای جواب میده ممکنه ما رو گول بزنه.)
حالا این سوال مطرحه: تو شرایط واقعاً احساسی و مهم، واقعاً این ترفند جواب میده یا گیر میکنه؟ مثلاً فرض کن داری به کسی که بچهدار شده یا کسی که داره با یه بیماری سخت دست و پنجه نرم میکنه پیام میدی. اینجا واقعاً آدمها دوست دارن یک پیام از دوست صمیمیشون بگیرن یا گلفروش یا حتی از گوگل یا ChatGPT؟
محققها اومدن دو تا آزمایش طراحی کردن. تو یکی از اونا اول پیام رو به آدمها نشون میدادن و بعد تازه میگفتن نویسندهی پیام کیه (اینطوری طرف مثلاً فکر میکرد یه دوست نوشته و بعد میفهمید یه هوش مصنوعی بوده). تو آزمایش دوم هم همون اول گفته میشد که پیام رو کی نوشته. جالب اینکه تو هر دو آزمایش هم شرایط احساسی متفاوت بود: بچهدار شدن (یه خبر خوب و احساسی) مقابل بیماری لاعلاج (یه موقعیت خیلی حساس و ناراحتکننده).
نتیجه چی بود؟ وقتی طرف فکر میکرد یه آدم نزدیک (مثل یه دوست صمیمی) پشت پیام بوده، حسابی با پیام ارتباط برقرار میکرد و حس ارزش و احترامش نسبت به پیام بیشتر میشد. برعکس، وقتی میفهمید پیام از یه منبع دور یا یه هوش مصنوعی مثل ChatGPT اومده، حسش نسبت به پیام خیلی افت میکرد و دیگه اون حس اصالت و احترام اخلاقی رو نمیگرفت! (اصالت یعنی احساس اینکه پیام واقعاً از ته دل و واقعی بوده، و احترام اخلاقی یعنی اینکه حس کنیم حتی نویسنده پیام به احساسات و ارزشهای ما احترام گذاشته.)
یه چیز جالب دیگه هم این بود که وقتی هوش مصنوعی ظاهر خیلی انسانگونه پیدا میکنه، ممکنه برای مدت کوتاهی مردم رو خام کنه. ولی به محض اینکه لو میره که پشت پیام یه هوش مصنوعی بوده، اون حس خوب کاملاً محو میشه. مخصوصاً تو موقعیتهای خیلی حساس و هیجانی، مردم خیلی راحت تشخیص میدن که چی واقعی بوده و چی نه.
موضوع «نسبت دادن» یا Attribution هم اینجا مهمه، یعنی اینکه وقتی ما یه پیام رو به دوست نزدیک یا یه آدم واقعی نسبت میدیم، ارزش پیام برا مون بیشتر میشه. ولی وقتی میفهمیم نویسنده واقعیش یه چیزی مثل ChatGPT بوده، حس میکنیم ارزش مجازی و نمادین پیام افت میکنه (اینجا نمادین یعنی اون معنای احساسی و هویتی که روابط انسانی دارن).
در کل، این تحقیق نشون داده ظاهر انسانی دادن به هوش مصنوعی مثل یه شمشیر دو لبهست: یه طرفش باعث میشه مردم اعتماد کنن و حتی کمی گول بخورن، ولی طرف دیگه وقتی واقعیت رو میفهمن، انگار همهچی خراب میشه. مخصوصاً تو ارتباطهایی که پای احساس و اعتماد به میونه. پس اگر یه روزی قرار باشه از هوش مصنوعی برای پیامای احساسی و مهم استفاده کنیم، باید خیلی حواسمون باشه که مرز بین واقعی و مصنوعی رو مردم زود تشخیص میدن و نمیتونیم با ظواهر جا بزنیم!
در نهایت، اگه دنبال این هستید که بدونید هوش مصنوعی مثل ChatGPT چقدر میتونه جای دوست واقعی یا آدمهای نزدیک رو تو لحظههای مهم و احساسی بگیره، باید بگم فعلاً جوابش منفیه! هنوزم پیام گرفتن از آدمای واقعی برامون پرارزشتره.
منبع: +