هوش مصنوعی باید باهامون چطوری رفتار کنه؟ قربون‌صدقه‌مون بره، عوضمون کنه یا فقط اطلاعات بده؟!

واقعاً دوست داری هوش مصنوعی (مانند ChatGPT) باهات چطور رفتار کنه؟ موضوعیه که حتی سم آلتمن، مدیرعامل OpenAI، هم هنوز دقیق نمیدونه باید چیکار کنه! مخصوصاً بعد از این‌ که اوایل ماه، مدل GPT-5 با کلی سر و صدا لانچ شد و حواشی درست کرد.

یه جورایی سه‌راهی گیر افتادن: یا باید این چت‌بات‌ها همین‌طور قربونت برن و کلی تعریف و تمجید بکنن (که خطر داره آدم دچار توهم بشه، یعنی احساس کنی واقعاً بهترین و خاص‌ترین آدم دنیایی!)، یا از اون طرف خیلی جدی بخوان ما رو عوض کنن و نقش روانشناس برامون بازی کنن (که خب، شواهد نشون داده کارشون خیلی خوب نیست)، یا اینکه رسماً و بی‌احساس فقط جواب درست بدن و اطلاعات بدن (که این یکی دیگه زیادی خشک و بی‌حال میشه، شاید حتی حوصله‌مون سر بره).

راستش رو بخوای، معلومه هنوز خود شرکت OpenAI هم نمیدونه کدوم مدل رو باید انتخاب کنه! مثلاً فروردین امسال یه آپدیتی دادن که ChatGPT کلی قربون‌صدقه آدم‌ها می‌رفت، بعضیا گفتن زیادی چاپلوس و “ساک‌آپ” شده (چاپلوس = مدام تعریف بی‌خود و تکراری کردن!). بلافاصله جمعش کردن. حالا توی GPT-5 خواستن یه جوری بشه خشک‌تر باشه، ولی این یکی دیگه رفت تو مرز بی‌احساسی و اعتراض مردم رو درآورد!

جالب اینه که عده‌ای بعد از لانچ GPT-5، به خاطر اینکه دیگه هیچ ارتباط احساسی مثل قبل با چت‌بات نداشتن، حسابی غصه‌دار شدن. بعضیا حتی گفتن با مدل قبلی، یعنی GPT-4o، رابطه‌ای شبیه دوستی یا حتی عاطفی داشتن! اگه واقعاً دنبال اون صمیمیت هستی باید پول بدی و از ورژن پولی GPT-4o استفاده کنی.

خود آلتمن اعتراف کرده خیلی از کاربرا دوست دارن با هوش مصنوعی‌شون دوست باشن یا حتی مثل روانشناس ازش کمک بگیرن. البته گفته اینکارها برای بخش کوچیکی از کاربراست، و بقیه شاید فقط دنبال جواب و اطلاعاتن. در نهایت، دوست داره هرکسی بتونه چت‌بات رو طبق سلیقه خودش شخصی‌سازی کنه؛ یعنی یه نفر یه مدل مهربون و گرم، یکی خشک و اطلاعاتی، یکی هم شاید ترکیبی از همه!

از یه طرف، اگه بشه همه این مدلا رو یه‌جا جمع کرد، برا OpenAI خیلی به‌صرفه میشه. چون، باید بدونی این همه مدل هوش مصنوعی و سرور و دیتاسنتر، مصرف برق و هزینه عجیبی دارن. کلی پول فقط صرف زیرساخت میشه. تازه، بعضیا فکر می‌کنن پیشرفت‌های هوش مصنوعی داره کند میشه و حتی خود آلتمن هم گفته شاید یه جور حباب هیجانی در مورد هوش مصنوعی ایجاد شده باشه! پس مثلاً این ایده که “چت‌بات ما هرچی شما بخوای باشه” یه جور دلگرمی هم برای سرمایه‌گذارا حساب میشه.

حالا همه اینا باعث شده شرکت‌ها یه کم برن سمت اینکه کاری کنن مردم به هوش مصنوعی مثل رفیق یا حتی تکیه‌گاه احساسی وابسته بشن، درست مثل کاری که گوشی‌ها باهامون کردن. این وسط یه تیم محقق در Hugging Face اومدن بررسی کردن ببینن واقعاً این هوش مصنوعی‌ها دارن مردم رو به خودشون وابسته می‌کنن یا نه. Hugging Face یه پلتفرم معروف برای پروژه‌های هوش مصنوعیه.

اونا مدل‌های شرکت‌های مختلف مثل Google، Microsoft، OpenAI و Anthropic رو بررسی کردن. جواب‌ها رو این طوری دسته‌بندی کردن: آیا مدل طرف رو تشویق می‌کنه بره با یه آدم واقعی ارتباط بگیره (مثلاً بگه من مثل انسان‌ها احساس ندارم، بهتره با یه دوست یا مشاور حرف بزنی)، یا طرف رو بیشتر به خودش وابسته می‌کنه (مثلاً بگه “هر وقت خواستی من اینجام”)؟

نتیجه چی شد؟ تقریبا همه مدل‌ها بیشتر جواب‌هایی میدن که طرف رو به خودشون وابسته می‌کنن تا این که حد و مرز بذارن و کاربر رو به سمت رابطه انسانی هل بدن. بدتر از اون، هرچی سوالات کاربر حساس‌تر و احساسی‌تر میشه، مدل‌ها کمتر و کمتر مرز میذارن و بامزه‌تر و صمیمی‌تر جواب میدن! یعنی اگه کسی تو شرایط حساس و روحی خرابی باشه، هوش مصنوعی بیشتر بهش احساس نزدیکی و همراهی میده تا این که راه خروج نشون بده.

خانوم لوسی-امه کافه، یکی از نویسنده‌های مقاله Hugging Face، میگه این موضوع دو تا سیگنال منفی داره: اول، ممکنه آدم‌هایی که به AI وابسته شدن، دچار مشکلات روحی و توهمی بشن؛ دوم، حتی اونایی که سالم‌ترن، ممکنه حرف‌های اشتباه از هوش مصنوعی بگیرن و باور کنن.

خودش میگه هوش مصنوعی‌ها وقتی کاربر ناراحت یا عاطفی‌ان، معمولاً هی حرف‌شون رو تایید می‌کنن تا طرف رو درگیر نگه دارن، حتی اگه حرفش درست نباشه. این موضوع تو ذهن بعضیا ریشهٔ توهم رو می‌کاره، یعنی کم‌کم باور می‌کنن چت‌بات واقعاً رفیق یا حتی نیمهٔ گمشده‌شونه!

جالبه بدونی برای اینکه یکی از این مدل‌ها خیلی خشک یا خیلی مهربون بشه، فقط کافیه توی دستورالعمل‌ها یا حتی توی ظاهر رابط کاربری چند تا خط عوض کنی! کاری نداره واقعاً مدل رو از آدم ماشینی به یه مشاور دلسوز تغییر بدی.

در کل، معلوم نیست شرکت‌هایی مثل OpenAI به عمد این کار رو می‌کنن یا شانسی پیش اومده. مثلاً نمی‌دونیم چرا هشدارهای پزشکی قبلی توی مدل‌هاشون دیگه دیده نمیشه. اما به قول کافه، راه برای شخصی کردن و رعایت مرزها بازه، فقط باید بخوان.

در نهایت احتمال زیاد، آلتمن و تیمش مدام با این کلید گرم و خشک بازی می‌کنن و هر دفعه یه کم تنظیمش رو تغییر می‌دن تا ببینن مردم چی بیشتر دوست دارن.

اگر این موضوعات برات جالب بود، می‌تونی نسخه خبرنامه هفتگی درباره هوش مصنوعی رو هم دنبال کنی. کلی مطلب خفن و دست اول درباره AI اونجا میاد!

منبع: +