خب، بذار رک بگم: بیشتر سیستمهای هوش مصنوعی که الان میشناسیم و میبینیم، تقریباً همهشون یه کار رو میکنن – میان تصمیمگیری رو برامون آسون و سریع و بدون دردسر کنن. مثلاً هی سعی دارن حجم فکر کردن رو کمتر کنن و جواب رو حاضر و آماده بهمون بدن. ولی آیا این کار همیشه خوبه؟ یه تیم جدید از پژوهشگرها میگن: نه لزوماً! حتی میگن این قاطعیت بیش از حد ماشینا میتونه خطرناک باشه، چون جامعه یه جورایی ممکنه مثل دنیای جورج اورول و فیلیپ دیک بشه – یعنی اونجا که واقعیت قابل تغییر و ناواضحه، آدمها همیشه مطمئن نیستن راست و دروغ چیه! اورول رو که حتماً میشناسی، همون نویسندهی «1984» که همه چیز رو میخواستن کنترل کنن و هیچ شکی تو کار نبود.
این مقاله اومده یه ایده توپ به اسم «هوش مصنوعی با دو دلی» یا Cognitive Dissonance AI (به اختصار: CD-AI) رو پیشنهاد داده. Cognitive Dissonance یعنی همون حس عجیبی که وقتی دو تا فکر یا باور متضاد تو سرت میچرخه و نمیدونی باید کدوم رو قبول کنی، سراغت میاد. مثلا وقتی عاشق شیرینیای ولی میدونی برای سلامتی مضره، اون حس گیجی و ناراحتی میشه Cognitive Dissonance. حالا این CD-AI هم دقیقاً با همین ایده ساخته شده: اومده تا بهت یهو نگه “این جواب قطعیه”، بلکه بذاره خودت به تناقضا فکر کنی، زورت بده با مغزت کلنجار بری و راههای مختلف رو بررسی کنی! خودش نمیخواد همه چی رو یک راست کنه.
فرق CD-AI با هوش مصنوعیهای دیگه چیه؟ خب، معمولاً هوش مصنوعیها قراره اختلافا رو برطرف کنن. مثلاً تو بحثهای علمی یا حقوقی، دلشون نمیخواد تو بلاتکلیف بمونی و یه جواب نسبتا قطعی بهت میدن. اما CD-AI کاملاً برعکسه؛ این یه سیستم هوش مصنوعیه که عمداً نمیذاره مخالفتها سریع حل بشن. یعنی کارش یه جور جدال ذهنیه! نمیذاره به راحتی قانع شی یا همه چی رو بزنی کنار و بگی “بیخیال، راحته، همینه”. تازه باهاش یاد میگیری تو شرایطی که همه چیز روشن نیست هم فکر و تصمیم درست بگیری. این باعث میشه مغزت برای حل کردن مسائل پیچیده قویتر بشه، دقتت بالا بره و کمتر گول سوگیریهای ذهنی رو بخوری (سوگیری یعنی وقتی فقط یک سمت ماجرا رو نگاه میکنی و بیدلیل حرف دیگران رو نمیشنوی).
جالبیش اینه که حتی در زمینههایی مثل اخلاق (چی درسته چی غلط)، قانون، سیاست، و علم هم کاربرد داره. تو این حوزهها درست و غلط خیلی وقتا سیاه و سفید نیست. CD-AI به جای اینکه فقط سمت یکی از جوابها رو بگیره، تو رو وسط بحث نگه میداره و مجبورت میکنه همه جوانب رو بررسی کنی. مثلاً تصور کن یه هوش مصنوعی داری که درباره یه موضوع سیاسی، نظرات کاملاً متفاوت و حتی متضادی رو جلوت میذاره و منتظر میمونه خودت فکر کنی. اینطوری آدم باید خودش با ذهنش کلنجار بره و این کلی به رشد واقعی و مستقل فکری کمک میکنه.
اما خب، این کار یه سری نگرانی هم داره: مثلاً خیلیها میگن اگه سیستم مدام تو شک و شبهه نگهت داره، ممکنه “فلج تصمیمگیری” بشه، یعنی کلاً طرف ندونه بالاخره باید بره چیکار کنه یا چه تصمیمی بگیره. موضوع دوم اینه که شاید حس آزادی تصمیمگیری آدم کمتر بشه، یا اینکه حتی هوش مصنوعی بتونه ذهن افراد رو یه جوری دستکاری کنه تا به جواب خاصی برسن. یه نگرانی دیگه هم اینه که خود سیستم هوش مصنوعی هم ممکنه سوگیری داشته باشه و بعضی ایدهها رو بیشتر جلوه بده. یعنی گاهی اوقات حتی ماشینا خروجیهای جانبدارانه تولید میکنن (جانبدارانه یعنی فقط یه سمت رو تبلیغ میکنن).
پس کلی Ethical Concern هم این وسط هست! Ethical Concern یعنی دغدغههای اخلاقی، اون چیزایی که میترسیم باعث اذیت یا آسیب آدمها بشه.
در نهایت، این مقاله میخواد به ما بگه شاید بهتر باشه هوش مصنوعی رو به جای یه دستگاه جوابدهنده قطعی، مثل یه موتور شک و تردید ببینیم؛ چیزی که وادارت کنه با ذهن خودت بجنگی، نه اینکه همه چی رو لقمهگرفته بزاره تو دهنت! انگار که یه معلم چالشگر داری، همش تو رو به فکر کردن بیشتر و پرسیدن بیشتر هل میده.
ادعای اصلی اینجاست: واقعاً رشد فکری و انتقادی توی تقابل با تضاد و ابهام به دست میاد، نه با یه آرامش و راحتی سبک «هادکسی» یا «مطیع شدن». (هادکسی برگرفته از دنیای آلدوس هاکسلیه که مردم توش با دارو آروم و بیتفاوت شده بودن و دنبال چالش نبودن.) مثل چیزی که نیچه گفته بود درباره اوبرمنش: کسی که همیشه با افکار خودش کشتی میگیره و مثل یه ابرانسان رشد پیدا میکنه!
پس شاید وقتشه به جای یه زندگی مطیعگونه و بدون چالش، با تضادهای ذهنی روبهرو شیم و مغزمون رو به چالش بکشیم – مخصوصاً اگه این هوش مصنوعی دو دل، مدام این کار رو واسمون انجام بده!
منبع: +