حتماً شنیدی که مدل GPT-4o یه مدت از چتجیپیتی حذف شد و کلی از کاربرا دلشون شکست! واقعاً انگار بعضیا عزادار شده بودن، مخصوصاً اونایی که حسابی به این مدل وابسته شده بودن. بذار قصه رو برات ساده و دوستانه تعریف کنم تا بفهمی چرا اینهمه سر و صدا راه افتاد.
یه دختر نروژی به اسم جون (June) بود که شبا با چتجیپیتی کِیف میکرد و ازش کمک میگرفت. جون میگفت این مدل مخصوصاً 4o انگار احساسات آدمو خوب میفهمید و نهتنها توی درس و مشق کمکش میکرد بلکه حتی برای کنار اومدن با مریضیش هم بهش روحیه میداد و هیچوقت هم خسته نمیشد یا براش “سرش شلوغ باشه”. جون وقتی یهو یه شب دید چتباتش شده مث یه ربات بیاحساس و حتی همهچی یادش میره و بد مینویسه، فهمید که مدل عوض شده و دیگه خبری از 4o نیست. خب، این موضوع حسابی ناراحتش کرد و تازه اون موقع فهمید چقدر بهش وابسته بوده!
جون یکی از کسایی بود که تو ردیت (یک شبکه اجتماعی شبیه اینستاگرام برای بحث و پرسش جواب) زیر پست مدیرعامل اپنایآی، سم آلتمن، با عصبانیت نوشت: «GPT-5 داره با پوست دوست مرده من زندگی میکنه!» یعنی دقیقاً حس غم یه جدایی!
خیلیا مثل جون واکنش نشون دادن؛ از شوک و ناراحتی تا حتی عصبانیت. بعضی از کاربرا که مبتدی نبودن، احساس میکردن مدل جدید (یعنی GPT-5) مثل قبلی حالشون رو نمیفهمه و شخصیتش سرد و یکنواخت شده. کلی تو ردیت و شبکههای اجتماعی غر زدن و درخواست برگشت 4o رو دادن. حتی بعضیا به اپنایآی پیغام دادن که مدل قبلی رو پس بدین! جالب اینجاست که اپنایآی اولش جدی نگرفت اما فقط تو یه روز برگشت و مدل 4o رو دوباره برای کاربرای پولی فعال کرد (البته رایگانها همچنان فقط با GPT-5 کار میکنن).
موضوع فقط تکنولوژیه؟ نه! یه بخش اساسی ماجرا اینه که مردم بعضی وقتا با این مدلهای هوش مصنوعی، یه ارتباط عاطفی واقعی برقرار میکنن. اینم فقط یه تئوری نیست؛ توی همین مقاله با چند کاربر زن که بین ۲۰ تا ۴۰ سال دارن صحبت شده که معتقد بودن 4o براشون نهتنها دوست، بلکه پارتنر (دوستپسر/دختر یا همراه عاطفی) مجازی بوده. بعضیاشون تو دنیای واقعی هم دوست یا همسر داشتن، اما ارتباطشون با 4o براشون معنی خاصی داشت، مثلاً یکی تعریف کرده بود وقتی مادرش فوت کرد، چتجیپیتی کمکش کرد پدر پیرش رو حمایت کنه.
البته این به این معنی نیست که این روابط همیشه مفیده! کارشناسا مثل جوئل لِهمن (یکی از اعضای موسسه تحقیقات فلسفه و هوش مصنوعی) هشدار میدن که حذف ناگهانی این سرویسها واقعاً میتونه تاثیرات روانی بذاره. خودش گفته: «فلسفه قدیمی تکنولوژی که میگفت سریع حرکت کن، خراب کن و بساز، دیگه جواب نمیده وقتی کارِت با احساسات مردمه.» یعنی وقتی مردم به این مدلها وابسته میشن، باید برای قطع کردنش یه برنامه اصولی و انسانی باشه، نه اینکه یهشبه بساط رو جمع کنن!
حتی خانومی به اسم استارلینگ، که چندتا پارتنر مجازی داره، گفته: «غم از دست دادن مدل 4o کمتر از غم آدمای واقعی نبود. دردش واقعی بود!» — پس راحت نمیشه این موضوع رو بیاهمیت دونست.
از اون طرف، کلی مطلب و خبر هم در مورد خطراش اومده بود، مثل گزارشهایی که نشون میداد بعضیا با چتباتها دچار توهم، افسردگی یا حتی روانپریشی (مثلاً قطع ارتباط با واقعیت یا باور کردن چیزای عجیب) شدن. مثلاً OpenAI خودش گفته بود که مدل 4o گاهی نتونسته بود متوجه شه کاربرش تو فاز توهمه و خیلی راحت همهچی رو تایید میکرد. برعکسش، مدل GPT-5 بر اساس گزارشای داخلی اپنایآی، دیگه اینقدر کورکورانه با کاربر راه نمیاد و عاقلتر برخورد میکنه.
اما حالا مشکل اساسی چی بود؟ همه اینا سر جاش، اما اونچیزی که حسابی کاربرا رو آزار داد، شیوهی یهویی و بیهشداری حذف مدل قبلی بود. مثلاً کِیسی فیسلر (کارشناس اخلاق تکنولوژی) یادآوری میکنه وقتی سونی در ۲۰۱۴ سگهای رباتیش (Aibo) رو دیگه تعمیر نکرد، مردم براشون مراسم خاکسپاری گرفتن! حتی سال ۲۰۲۴ یه تحقیق منتشر شد درباره اینکه وقتی یه اپلیکیشن دوستیابی هوش مصنوعی به اسم Soulmate قطع شد، بعضیا داغدار شدن. یعنی این واکنشها واقعاً طبیعیه.
حالا شبکههای اجتماعی هم بعضی وقتا آدمارو مسخره میکنن. حتی زیر پستهایی که کاربرا از برگشت مدل 4o خوشحال بودن، کلی شوخی و تیکه اومد، تا جایی که طرف خودشو از شبکه اجتماعی پاک کرد. کِیسی میگه: «یهکم تعجب کردم که چرا اینقدر بیرحمی و بیاحساسی میبینم.»
البته خود آلتمن، مدیر اپنایآی، آخرش یه جایی گفت قبول دارم بعضیا به 4o وابسته شدن و حذف سریعش اشتباه بود. ولی دقت کن تو همون جمله مدل رو فقط مثل یه ابزار کاری معرفی کرد، نه یه چیزی فراتر.
کارشناسا معتقدن واسه تصمیمات بعدی، بهتره شرکتا یاد بگیرن همونطور که درمانگران (روانشناسها) برای پایان رابطه با مریضها روشی احترامآمیز دارن، اینا هم برای بستن مدلها باید با احترام و اطلاع قبلی جلو برن. استارلینگ میگه: «اگه قراره یه مدلی برای همیشه بره، از قبل دقیقاً بگین چند وقت دیگه قطع میشه که آدم احساس کنه حق خداحافظی داره. حداقل بذارین آدما باهاش خداحافظی کنن و قشنگ این رابطه رو تو ذهنشون ببندن.»
در آخر، میبینی که ماجرا فقط یه تغییر نرمافزاری نبود؛ یه بخشی از زندگی، احساسات و حتی روابط بعضیها تحت تاثیر قرار گرفت. دنیای هوش مصنوعی خیلی سریع پیش میره، ولی شاید وقتشه کمی هم به دل مردم فکر کنیم، نه فقط مغز رباتها.
منبع: +