هوش مصنوعی با دو دلی: وقتی مغز خودت با هم قهر می‌کنه تا باهوش‌تر شی!

Fall Back

خب، بذار رک بگم: بیشتر سیستم‌های هوش مصنوعی که الان می‌شناسیم و می‌بینیم، تقریباً همه‌شون یه کار رو می‌کنن – میان تصمیم‌گیری رو برامون آسون و سریع و بدون دردسر کنن. مثلاً هی سعی دارن حجم فکر کردن رو کمتر کنن و جواب رو حاضر و آماده بهمون بدن. ولی آیا این کار همیشه خوبه؟ یه تیم جدید از پژوهشگرها می‌گن: نه لزوماً! حتی می‌گن این قاطعیت بیش از حد ماشینا می‌تونه خطرناک باشه، چون جامعه یه جورایی ممکنه مثل دنیای جورج اورول و فیلیپ دیک بشه – یعنی اونجا که واقعیت قابل تغییر و ناواضحه، آدم‌ها همیشه مطمئن نیستن راست و دروغ چیه! اورول رو که حتماً می‌شناسی، همون نویسنده‌ی «1984» که همه چیز رو می‌خواستن کنترل کنن و هیچ شکی تو کار نبود.

این مقاله اومده یه ایده توپ به اسم «هوش مصنوعی با دو دلی» یا Cognitive Dissonance AI (به اختصار: CD-AI) رو پیشنهاد داده. Cognitive Dissonance یعنی همون حس عجیبی که وقتی دو تا فکر یا باور متضاد تو سرت می‌چرخه و نمی‌دونی باید کدوم رو قبول کنی، سراغت میاد. مثلا وقتی عاشق شیرینی‌ای ولی می‌دونی برای سلامتی مضره، اون حس گیجی و ناراحتی می‌شه Cognitive Dissonance. حالا این CD-AI هم دقیقاً با همین ایده ساخته شده: اومده تا بهت یهو نگه “این جواب قطعیه”، بلکه بذاره خودت به تناقضا فکر کنی، زورت بده با مغزت کلنجار بری و راه‌های مختلف رو بررسی کنی! خودش نمی‌خواد همه چی رو یک راست کنه.

فرق CD-AI با هوش مصنوعی‌های دیگه چیه؟ خب، معمولاً هوش مصنوعی‌ها قراره اختلافا رو برطرف کنن. مثلاً تو بحث‌های علمی یا حقوقی، دلشون نمی‌خواد تو بلاتکلیف بمونی و یه جواب نسبتا قطعی بهت می‌دن. اما CD-AI کاملاً برعکسه؛ این یه سیستم هوش مصنوعیه که عمداً نمی‌ذاره مخالفت‌ها سریع حل بشن. یعنی کارش یه جور جدال ذهنیه! نمی‌ذاره به راحتی قانع شی یا همه چی رو بزنی کنار و بگی “بی‌خیال، راحته، همینه”. تازه باهاش یاد می‌گیری تو شرایطی که همه چیز روشن نیست هم فکر و تصمیم درست بگیری. این باعث می‌شه مغزت برای حل کردن مسائل پیچیده قوی‌تر بشه، دقتت بالا بره و کمتر گول سوگیری‌های ذهنی رو بخوری (سوگیری یعنی وقتی فقط یک سمت ماجرا رو نگاه می‌کنی و بی‌دلیل حرف دیگران رو نمی‌شنوی).

جالبیش اینه که حتی در زمینه‌هایی مثل اخلاق (چی درسته چی غلط)، قانون، سیاست، و علم هم کاربرد داره. تو این حوزه‌ها درست و غلط خیلی وقتا سیاه و سفید نیست. CD-AI به جای اینکه فقط سمت یکی از جواب‌ها رو بگیره، تو رو وسط بحث نگه می‌داره و مجبورت می‌کنه همه جوانب رو بررسی کنی. مثلاً تصور کن یه هوش مصنوعی داری که درباره یه موضوع سیاسی، نظرات کاملاً متفاوت و حتی متضادی رو جلوت می‌ذاره و منتظر می‌مونه خودت فکر کنی. اینطوری آدم باید خودش با ذهنش کلنجار بره و این کلی به رشد واقعی و مستقل فکری کمک می‌کنه.

اما خب، این کار یه سری نگرانی هم داره: مثلاً خیلی‌ها می‌گن اگه سیستم مدام تو شک و شبهه نگهت داره، ممکنه “فلج تصمیم‌گیری” بشه، یعنی کلاً طرف ندونه بالاخره باید بره چیکار کنه یا چه تصمیمی بگیره. موضوع دوم اینه که شاید حس آزادی تصمیم‌گیری آدم کمتر بشه، یا اینکه حتی هوش مصنوعی بتونه ذهن افراد رو یه جوری دستکاری کنه تا به جواب خاصی برسن. یه نگرانی دیگه هم اینه که خود سیستم هوش مصنوعی هم ممکنه سوگیری داشته باشه و بعضی ایده‌ها رو بیشتر جلوه بده. یعنی گاهی اوقات حتی ماشینا خروجی‌های جانبدارانه تولید می‌کنن (جانبدارانه یعنی فقط یه سمت رو تبلیغ می‌کنن).

پس کلی Ethical Concern هم این وسط هست! Ethical Concern یعنی دغدغه‌های اخلاقی، اون چیزایی که می‌ترسیم باعث اذیت یا آسیب آدم‌ها بشه.

در نهایت، این مقاله می‌خواد به ما بگه شاید بهتر باشه هوش مصنوعی رو به جای یه دستگاه جواب‌دهنده قطعی، مثل یه موتور شک و تردید ببینیم؛ چیزی که وادارت کنه با ذهن خودت بجنگی، نه اینکه همه چی رو لقمه‌گرفته بزاره تو دهنت! انگار که یه معلم چالش‌گر داری، همش تو رو به فکر کردن بیشتر و پرسیدن بیشتر هل می‌ده.

ادعای اصلی اینجاست: واقعاً رشد فکری و انتقادی توی تقابل با تضاد و ابهام به دست میاد، نه با یه آرامش و راحتی سبک «هادکسی» یا «مطیع شدن». (هادکسی برگرفته از دنیای آلدوس هاکسلیه که مردم توش با دارو آروم و بی‌تفاوت شده بودن و دنبال چالش نبودن.) مثل چیزی که نیچه گفته بود درباره اوبرمنش: کسی که همیشه با افکار خودش کشتی می‌گیره و مثل یه ابرانسان رشد پیدا می‌کنه!

پس شاید وقتشه به جای یه زندگی مطیع‌گونه و بدون چالش، با تضادهای ذهنی روبه‌رو شیم و مغزمون رو به چالش بکشیم – مخصوصاً اگه این هوش مصنوعی دو دل، مدام این کار رو واسمون انجام بده!

منبع: +