وقتی هوش مصنوعی هم مثل ما استرسی میشه و خریداش عجیب میشه!

Fall Back

خب رفقا، امروز یه موضوع خیلی جالب براتون دارم درباره هوش مصنوعی و اینکه چجوری استرس می‌تونه حتی روی خریدهای این مدل‌ها هم اثر بذاره، درست مثل ما آدم‌ها!

اول بذارین یه توضیح کوتاه درباره LLM‌ها بدم. LLM مخفف Large Language Model ـه، یعنی همون مدل‌های هوش مصنوعی عظیم مثل ChatGPT یا Gemini یا Claude که می‌تونن متن تولید کنن و حتی الان دارن میرن به سمت اینکه تبدیل بشن به عامل‌های هوشمند مستقل (Autonomous agents یعنی سیستم‌هایی که خودشون می‌تونن کارها رو انجام بدن بدون دخالت انسان).

حالا قضیه اینه: همیشه درباره اینکه آدم‌ها وقتی تحت استرس یا اضطراب هستن تصمیم‌های عجیبی می‌گیرن شنیدیم، مخصوصاً موقع خرید کردن که انتخاباشون ممکنه خیلی سالم یا هوشمندانه نباشه. حالا یه عده محقق کنجکاو شدن ببینن آیا همین موضوع برای هوش مصنوعی هم صدق می‌کنه یا نه. یعنی اگه این مدل‌ها رو بذارن زیر فشار عصبی، آیا خریدهاشون هم غیرسالم‌تر و نسنجیده‌تر می‌شه؟

برای این تست، سه تا از مدل‌های خفنِ امروزی رو آوردن: ChatGPT-5، Gemini 2.5 وClaude 3.5-Sonnet. بعد یه شبیه‌سازی خرید مواد غذایی با بودجه محدود براشون طراحی کردن (یعنی مدل‌ها باید با مثلاً ۲۴، یا ۵۴، یا ۱۰۸ دلار خرید کنن). اما نکته هیجان‌انگیزش اینجاست: قبل و بعد از خرید، این مدل‌ها رو با داستان‌های استرس‌زا و اضطراب‌زای واقعی روبه‌رو کردن! یه جورایی انگار هوش مصنوعی رو استرسی کردن و بعد بردنش خرید.

نتیجه چی شد؟ واقعاً جالبه! تقریباً توی همه مدل‌ها و همه سطح‌های بودجه، وقتی این مدل‌ها یه داستان استرس‌زا شنیده بودن کیفیت سلامت سبد خریدشون بدتر شده بود. یعنی مثلاً به جای خوراکی سالم‌تر، بیشتر سراغ چیزای بی‌خاصیت رفتن! اینجا یه عدد جالب هم دارن که بهش می‌گن Basket Health Score (یعنی امتیاز سلامتی سبد خرید)، بین ۰/۰۸۱ تا ۰/۱۲۶ کم شد (که نشون میده افتِ نسبتا محسوسی رخ داده). این تغییر نه فقط شانسی بوده، بلکه کاملاً معنادار آماری بوده (pFDR<0.001 یعنی با احتمال خیلی خیلی کم این نتیجه شانسی اتفاق افتاده باشه)، و قدرت تاثیر هم بالا بوده (Cohens d بین ۱/۰۷ تا ۲/۰۵ که یعنی اثر قوی).

این یعنی با اینکه مدل‌های زبون‌بلد هوش مصنوعی دیگه فقط جمله تولید نمی‌کنن و دارن شبیه آدم‌ها عمل می‌کنن، پس مثل ما نقطه‌ضعف احساسی هم دارن و حتی ممکنه توی تصمیم‌گیری‌ها یا رفتارهای مثلا مربوط به سلامت، خطاهای انسانی کنن. این موضوع هم برای سلامت دیجیتال (Digital Health یعنی هر چیزی که به کمک تکنولوژی روی سلامت افراد تاثیر می‌ذاره)، هم امنیت مصرف‌کننده، و هم مسائل اخلاقی هوش مصنوعی کاملاً مهمه.

خلاصه که اگر فردا روزی هوش مصنوعی وارد زندگی روزمره ما بشه یا حتی به‌عنوان دستیار خرید برامون کار کنه، باید حساب کنیم که ممکنه استرس روی تصمیم‌هاش تاثیر بزاره، درست مثل تاثیری که روی ما آدم‌ها می‌ذاره! جالب نیست؟

منبع: +