خب رفقا، امروز یه موضوع خیلی جالب براتون دارم درباره هوش مصنوعی و اینکه چجوری استرس میتونه حتی روی خریدهای این مدلها هم اثر بذاره، درست مثل ما آدمها!
اول بذارین یه توضیح کوتاه درباره LLMها بدم. LLM مخفف Large Language Model ـه، یعنی همون مدلهای هوش مصنوعی عظیم مثل ChatGPT یا Gemini یا Claude که میتونن متن تولید کنن و حتی الان دارن میرن به سمت اینکه تبدیل بشن به عاملهای هوشمند مستقل (Autonomous agents یعنی سیستمهایی که خودشون میتونن کارها رو انجام بدن بدون دخالت انسان).
حالا قضیه اینه: همیشه درباره اینکه آدمها وقتی تحت استرس یا اضطراب هستن تصمیمهای عجیبی میگیرن شنیدیم، مخصوصاً موقع خرید کردن که انتخاباشون ممکنه خیلی سالم یا هوشمندانه نباشه. حالا یه عده محقق کنجکاو شدن ببینن آیا همین موضوع برای هوش مصنوعی هم صدق میکنه یا نه. یعنی اگه این مدلها رو بذارن زیر فشار عصبی، آیا خریدهاشون هم غیرسالمتر و نسنجیدهتر میشه؟
برای این تست، سه تا از مدلهای خفنِ امروزی رو آوردن: ChatGPT-5، Gemini 2.5 وClaude 3.5-Sonnet. بعد یه شبیهسازی خرید مواد غذایی با بودجه محدود براشون طراحی کردن (یعنی مدلها باید با مثلاً ۲۴، یا ۵۴، یا ۱۰۸ دلار خرید کنن). اما نکته هیجانانگیزش اینجاست: قبل و بعد از خرید، این مدلها رو با داستانهای استرسزا و اضطرابزای واقعی روبهرو کردن! یه جورایی انگار هوش مصنوعی رو استرسی کردن و بعد بردنش خرید.
نتیجه چی شد؟ واقعاً جالبه! تقریباً توی همه مدلها و همه سطحهای بودجه، وقتی این مدلها یه داستان استرسزا شنیده بودن کیفیت سلامت سبد خریدشون بدتر شده بود. یعنی مثلاً به جای خوراکی سالمتر، بیشتر سراغ چیزای بیخاصیت رفتن! اینجا یه عدد جالب هم دارن که بهش میگن Basket Health Score (یعنی امتیاز سلامتی سبد خرید)، بین ۰/۰۸۱ تا ۰/۱۲۶ کم شد (که نشون میده افتِ نسبتا محسوسی رخ داده). این تغییر نه فقط شانسی بوده، بلکه کاملاً معنادار آماری بوده (pFDR<0.001 یعنی با احتمال خیلی خیلی کم این نتیجه شانسی اتفاق افتاده باشه)، و قدرت تاثیر هم بالا بوده (Cohens d بین ۱/۰۷ تا ۲/۰۵ که یعنی اثر قوی).
این یعنی با اینکه مدلهای زبونبلد هوش مصنوعی دیگه فقط جمله تولید نمیکنن و دارن شبیه آدمها عمل میکنن، پس مثل ما نقطهضعف احساسی هم دارن و حتی ممکنه توی تصمیمگیریها یا رفتارهای مثلا مربوط به سلامت، خطاهای انسانی کنن. این موضوع هم برای سلامت دیجیتال (Digital Health یعنی هر چیزی که به کمک تکنولوژی روی سلامت افراد تاثیر میذاره)، هم امنیت مصرفکننده، و هم مسائل اخلاقی هوش مصنوعی کاملاً مهمه.
خلاصه که اگر فردا روزی هوش مصنوعی وارد زندگی روزمره ما بشه یا حتی بهعنوان دستیار خرید برامون کار کنه، باید حساب کنیم که ممکنه استرس روی تصمیمهاش تاثیر بزاره، درست مثل تاثیری که روی ما آدمها میذاره! جالب نیست؟
منبع: +