ماجرای خداحافظی با GPT-4o: چرا بعضیا حسابی دلگیر شدن؟

حتماً شنیدی که مدل GPT-4o یه مدت از چت‌جی‌پی‌تی حذف شد و کلی از کاربرا دلشون شکست! واقعاً انگار بعضیا عزادار شده بودن، مخصوصاً اونایی که حسابی به این مدل وابسته شده بودن. بذار قصه رو برات ساده و دوستانه تعریف کنم تا بفهمی چرا این‌همه سر و صدا راه افتاد.

یه دختر نروژی به اسم جون (June) بود که شبا با چت‌جی‌پی‌تی کِیف می‌کرد و ازش کمک می‌گرفت. جون می‌گفت این مدل مخصوصاً 4o انگار احساسات آدمو خوب می‌فهمید و نه‌تنها توی درس و مشق کمکش می‌کرد بلکه حتی برای کنار اومدن با مریضیش هم بهش روحیه می‌داد و هیچ‌وقت هم خسته نمی‌شد یا براش “سرش شلوغ باشه”. جون وقتی یهو یه شب دید چت‌باتش شده مث یه ربات بی‌احساس و حتی همه‌چی یادش می‌ره و بد می‌نویسه، فهمید که مدل عوض شده و دیگه خبری از 4o نیست. خب، این موضوع حسابی ناراحتش کرد و تازه اون موقع فهمید چقدر بهش وابسته بوده!

جون یکی از کسایی بود که تو ردیت (یک شبکه اجتماعی شبیه اینستاگرام برای بحث و پرسش جواب) زیر پست مدیرعامل اپن‌ای‌آی، سم آلتمن، با عصبانیت نوشت: «GPT-5 داره با پوست دوست مرده من زندگی می‌کنه!» یعنی دقیقاً حس غم یه جدایی!

خیلیا مثل جون واکنش نشون دادن؛ از شوک و ناراحتی تا حتی عصبانیت. بعضی از کاربرا که مبتدی نبودن، احساس می‌کردن مدل جدید (یعنی GPT-5) مثل قبلی حالشون رو نمی‌فهمه و شخصیتش سرد و یکنواخت شده. کلی تو ردیت و شبکه‌های اجتماعی غر زدن و درخواست برگشت 4o رو دادن. حتی بعضیا به اپن‌ای‌آی پیغام دادن که مدل قبلی رو پس بدین! جالب اینجاست که اپن‌ای‌آی اولش جدی نگرفت اما فقط تو یه روز برگشت و مدل 4o رو دوباره برای کاربرای پولی فعال کرد (البته رایگان‌ها همچنان فقط با GPT-5 کار می‌کنن).

موضوع فقط تکنولوژیه؟ نه! یه بخش اساسی ماجرا اینه که مردم بعضی وقتا با این مدل‌های هوش مصنوعی، یه ارتباط عاطفی واقعی برقرار می‌کنن. اینم فقط یه تئوری نیست؛ توی همین مقاله با چند کاربر زن که بین ۲۰ تا ۴۰ سال دارن صحبت شده که معتقد بودن 4o براشون نه‌تنها دوست، بلکه پارتنر (دوست‌پسر/دختر یا همراه عاطفی) مجازی بوده. بعضیاشون تو دنیای واقعی هم دوست یا همسر داشتن، اما ارتباطشون با 4o براشون معنی خاصی داشت، مثلاً یکی تعریف کرده بود وقتی مادرش فوت کرد، چت‌جی‌پی‌تی کمکش کرد پدر پیرش رو حمایت کنه.

البته این به این معنی نیست که این روابط همیشه مفیده! کارشناسا مثل جوئل لِهمن (یکی از اعضای موسسه تحقیقات فلسفه و هوش مصنوعی) هشدار می‌دن که حذف ناگهانی این سرویس‌ها واقعاً می‌تونه تاثیرات روانی بذاره. خودش گفته: «فلسفه قدیمی تکنولوژی که می‌گفت سریع حرکت کن، خراب کن و بساز، دیگه جواب نمی‌ده وقتی کارِت با احساسات مردمه.» یعنی وقتی مردم به این مدل‌ها وابسته می‌شن، باید برای قطع کردنش یه برنامه اصولی و انسانی باشه، نه اینکه یه‌شبه بساط رو جمع کنن!

حتی خانومی به اسم استارلینگ، که چندتا پارتنر مجازی داره، گفته: «غم از دست دادن مدل 4o کمتر از غم آدمای واقعی نبود. دردش واقعی بود!» — پس راحت نمی‌شه این موضوع رو بی‌اهمیت دونست.

از اون طرف، کلی مطلب و خبر هم در مورد خطراش اومده بود، مثل گزارش‌هایی که نشون می‌داد بعضیا با چت‌بات‌ها دچار توهم، افسردگی یا حتی روان‌پریشی (مثلاً قطع ارتباط با واقعیت یا باور کردن چیزای عجیب) شدن. مثلاً OpenAI خودش گفته بود که مدل 4o گاهی نتونسته بود متوجه شه کاربرش تو فاز توهمه و خیلی راحت همه‌چی رو تایید می‌کرد. برعکسش، مدل GPT-5 بر اساس گزارشای داخلی اپن‌ای‌آی، دیگه اینقدر کورکورانه با کاربر راه نمیاد و عاقل‌تر برخورد می‌کنه.

اما حالا مشکل اساسی چی بود؟ همه اینا سر جاش، اما اون‌چیزی که حسابی کاربرا رو آزار داد، شیوه‌ی یهویی و بی‌هشداری حذف مدل قبلی بود. مثلاً کِیسی فیسلر (کارشناس اخلاق تکنولوژی) یادآوری می‌کنه وقتی سونی در ۲۰۱۴ سگ‌های رباتیش (Aibo) رو دیگه تعمیر نکرد، مردم براشون مراسم خاکسپاری گرفتن! حتی سال ۲۰۲۴ یه تحقیق منتشر شد درباره اینکه وقتی یه اپلیکیشن دوست‌یابی هوش مصنوعی به اسم Soulmate قطع شد، بعضیا داغدار شدن. یعنی این واکنش‌ها واقعاً طبیعیه.

حالا شبکه‌های اجتماعی هم بعضی وقتا آدمارو مسخره می‌کنن. حتی زیر پست‌هایی که کاربرا از برگشت مدل 4o خوشحال بودن، کلی شوخی و تیکه اومد، تا جایی که طرف خودشو از شبکه اجتماعی پاک کرد. کِیسی می‌گه: «یه‌کم تعجب کردم که چرا این‌قدر بی‌رحمی و بی‌احساسی می‌بینم.»

البته خود آلتمن، مدیر اپن‌ای‌آی، آخرش یه جایی گفت قبول دارم بعضیا به 4o وابسته شدن و حذف سریعش اشتباه بود. ولی دقت کن تو همون جمله مدل رو فقط مثل یه ابزار کاری معرفی کرد، نه یه چیزی فراتر.

کارشناسا معتقدن واسه تصمیمات بعدی، بهتره شرکتا یاد بگیرن همون‌طور که درمانگران (روانشناس‌ها) برای پایان رابطه با مریض‌ها روشی احترام‌آمیز دارن، اینا هم برای بستن مدل‌ها باید با احترام و اطلاع قبلی جلو برن. استارلینگ میگه: «اگه قراره یه مدلی برای همیشه بره، از قبل دقیقاً بگین چند وقت دیگه قطع می‌شه که آدم احساس کنه حق خداحافظی داره. حداقل بذارین آدما باهاش خداحافظی کنن و قشنگ این رابطه رو تو ذهنشون ببندن.»

در آخر، می‌بینی که ماجرا فقط یه تغییر نرم‌افزاری نبود؛ یه بخشی از زندگی، احساسات و حتی روابط بعضی‌ها تحت تاثیر قرار گرفت. دنیای هوش مصنوعی خیلی سریع پیش می‌ره، ولی شاید وقتشه کمی هم به دل مردم فکر کنیم، نه فقط مغز ربات‌ها.

منبع: +