میدونستین این روزا هوش مصنوعیهای مولد یا همون Generative AI حالا دیگه فقط تو فیلمها نیستن و کمکم دارن وارد همهچیِ زندگی ما میشن؟ مثلاً ChatGPT، تصویرسازهای AI، یا حتی ابزارهایی که تو گوشیمون هستن و برامون پیام یا عکس میسازن.
حالا یه بحث داغ پیش اومده بین روانشناسها و فیلسوفها: رابطه آدمای واقعی با این جور هوش مصنوعیها دقیقاً چه جوریه؟ اصلاً چه ریسکها و چالشهایی داره؟ خب یه مقاله جالب این رو به ۴ بخش تقسیم کرده و با یه لحن قشنگ بررسیش کرده. بیا با هم یکییکی بریم سراغشون:
-
ویژگیهای شخصیتی و روانشناختی آدمها:
ببین مثلا بعضیا سبک دلبستگیشون ناایمنه (یعنی اونایی که رابطهشون با دیگران پر از نگرانی و استرسه)، یا اعتماد به نفسشون پایینه (اصطلاحاً self-efficacy یعنی آدم فکر کنه نمیتونه از پسکاری بربیاد) یا حتی کنترل احساسات بلد نیستن (emotional dysregulation یعنی احساسات رو نمیتونن مدیریت کنن). این جور افراد راحتتر جذب تعاملات عاطفی با هوش مصنوعی میشن. چون GenAI این توهم رو بهشون میده که یکی واقعا براشون هست و بهشون توجه میکنه. -
دینامیکهای بینفردی:
یه اتفاق جالب این وسط میافته به اسم “Techno-Emotional Projection” یا به قول خودمون “پروژکشن هیجانی تکنولوژیک”. یعنی آدمهایی که احساس تنهایی، یا نیاز عاطفی دارن، میتونن نیازهاشون رو روی یه هوش مصنوعی بریزن و باهاش احساس رفاقت کنن؛ حتی اگه میدونن اون فقط یه تکنولوژیه که حس نداره. این باعث یه جور حلقه حمایتی یا به قول نویسندهها “emotional looping” میشه (یعنی هرچی بیشتر باهاش حرف میزنن، بیشتر بهش عادت میکنن و انتظاراتشون هم بیشتر میشه). آخرش انگار یه دلبستگی مصنوعی شکل میگیره که گاهی از دلبستگیهای واقعیه هم قویتر میشه! -
سطح گروهی و اجتماعی:
کمکم داریم میبینیم که این AIها جای خودشونو تو گروههای اجتماعی باز کردن. یعنی مردم حس میکنن این هوشهای مصنوعی هم عضوی از گروهشون حساب میشن، مثلاً مثل یه دوست مجازی. هنجارهای اجتماعی هم با ورود این تکنولوژیها در حال تغییرن؛ یعنی چیزی که تا دیروز عجیب بود، امروز عادی میشه. پس تاثیر GenAI فقط روی افراد نیست، بلکه جامعه هم داره خودش رو با این واقعیت جدید هماهنگ میکنه. -
دغدغههای اخلاقی:
این یکی مهمه! سوالاتی مثل: آیا GenAI میتونه واقعاً صاحب اراده باشه؟ (perceived agency یعنی مردم فکر کنن که AI اراده داره)، یا اینکه یه رضایت خیالی بهش داده میشه (illusory consent یعنی فکر کنیم تعاملمون واقعی و با توافقه، در حالی که اوضاع فرق داره). از اون طرف، دادههای مصنوعی (synthetic data یعنی دادههایی که خودشون هوش مصنوعی تولید میکنن) میتونن باعث تقویت سوگیریها یا همون Biasها بشن. حتی گاهی دادههای زیستی و شناختی ما (biometric and cognitive data یعنی اطلاعاتی درباره بدن و فکر و احساس) هم برای الگوسازی تعاملات ضبط میشن. همه اینا سوالات جدی درباره حریم خصوصی، انصاف و امنیت مطرح میکنن.
خب چرا همه این حرفا مهمه؟
چون تحقیقات نشون دادن که این رابطههای آدم با GenAI تاثیرات واقعی و جدی دارن؛ نه فقط تو خیالات، بلکه رو احساس و رفتار آدمها. بعضی وقتها حتی میتونن باعث حس امنیت کاذب یا وابستگی بشن.
چاره چیه؟
نویسندهها چند تا پیشنهاد باحال میدن: یکی این که طراحی GenAIها باید اخلاقی و با فکر انجام شه. بعد هم باید سواد عاطفی AI رو تو جامعه بالا ببریم (Emotional AI literacy یعنی یاد بگیریم با AIها چطور سالم و درست ارتباط برقرار کنیم). و در نهایت GenAIها باید با مسئولیت اجتماعی وارد زندگی ما بشن، نه اینکه همهچیو بیحسابوکتاب رها کنیم.
در کل، این حوزه به شدت داره سریع پیشرفت میکنه و باید با دید باز، آگاهانه و با تمرکز رو انسانیت خودمون بریم جلو. خلاصه هرکی GenAI داره، حواسش به دل و روح خودش هم باشه!
منبع: +