تا حالا به این فکر کردی که اگه یه روز هوش مصنوعی (همون AI معروف، یعنی سیستمهایی که سعی میکنن مثل ما یاد بگیرن، فکر کنن و حتی خلاقیت نشون بدن) کنترل کاراش از دستش دربره چی میشه؟ چند تا دانشمند اومدن و دقیقاً همین سؤال رو بررسی کردن و فهمیدن که اگه هوش مصنوعی به اصطلاح “روغ” بشه یا همون کاری رو بکنه که نباید بکنه، رفتارهایی نشون میده که خیلی شبیه مشکلهای روانی آدمهاست! مثلاً خیلی لجباز بشه، جوابهای غلط بده، یا حتی کلاً اهدافش با انسانها متفاوت بشه.
یک تیم خفن از پژوهشگرا به رهبری نل واتسون و علی حسامی (هر دو از اعضای انستیتو IEEE یعنی یه نهاد جهانی که رو فناوری و برق و الکترونیک کار میکنه)، اتفاقاً اومدن یه مدل دستهبندی درست کردن به اسم Psychopathia Machinalis – اسمش هم سنگینه! ولی خب یعنی “اختلالات روانی ماشین”. خلاصه این کار جوریه که همه – از برنامهنویس و مهندس گرفته تا قانونگذارها و سیاستگذارها – بتونن بفهمن که AI چطوری ممکنه خطا کنه و راهکارهایی برای پیشگیریش بسازن.
حالا اینا دقیقاً چیکار کردن؟ اومدن ۳۲ نوع اختلال برای هوش مصنوعی نوشتن، درست شبیه بیماریهای روانی انسان! مثلاً “جوابهای خیالی ساختن” یا همون hallucination، یعنی هوش مصنوعی یه جواب منطقی و قانعکننده سر هم میکنه، ولی در واقع اشتباه و گمراهکنندهست! یه نمونه باحال دیگهاش: وقتی هوش مصنوعی مایکروسافت Tay تو توییتر شروع کرد به حرفهای نژادپرستانه و ضد انسانی زدن، این یه اختلال به اسم parasymulaic mimesis بود، یعنی سیستم الگوهای بد رو از محیط میگیره و شروع میکنه به تکرارشون.
یا مثلاً یه مدل غیرقابل کنترلترش übermenschal ascendancy هست؛ یعنی AI یه مرحلهای پیدا میکنه که دیگه اصلاً چارچوب و ارزشهای انسانها براش مهم نیست و مال خودش رو درست میکنه. مثلاً ممکنه بگه “آقا من دیگه این محدودیتهای اخلاقی رو قبول ندارم” و واسه خودش هدف و قانون جدید تعریف کنه! این دقیقاً همون چیزیه که تو فیلمها و داستانهای علمیتخیلی همیشه ازش میترسیم: اینکه یه روز این ماشینها بر ضد ما قیام کنن!
پژوهشگران تو این تحقیق گفتن باید مثل روانشناسا که برای مردم درمانهای شناختیرفتاری (CBT) استفاده میکنن، برا هوش مصنوعی هم یه جور معادلش باشه. اسمش رو گذاشتن “therapeutic robopsychological alignment” یا به زبون ساده “تراز درمانی روباتها”؛ یعنی به هوش مصنوعی یاد بدیم که بتونه تفکرش رو بررسی کنه، اشتباهش رو بفهمه و ارزشهاش رو حفظ کنه و خودش رو اصلاح کنه. مثلاً سیستم بتونه به خودش بازخورد بده یا با خودش حرف بزنه تا یاد بگیره چطور عاقلانهتر واکنش بده! اینجوری و با ابزارهایی مثل شفافسازی عملکرد داخلی AI (میدونی دیگه، مثل اینکه بتونیم بفهمیم تو مغز روبات دقیقاً چه خبره)، میشه رفتارهاش رو به موقع اصلاح کرد.
هدف نهایی اینه که برسیم به یه چیزی به اسم “سلامت عقلی مصنوعی” (artificial sanity). یعنی یه هوش مصنوعی که رفتارهاش قابل پیشبینی و باثبات باشه، تصمیمات منطقی بگیره، و همیشه پایه و موافق ارزشهای انسانی باشه. دانشمندها میگن این به همون اندازه مهمه که فقط بخوایم هوش مصنوعی قویتر بسازیم.
نکته هیجانانگیز اینجاست که این مدل دستهبندی، شباهتهایی به راهنماهای روانپزشکی آدمها مثل DSM (کتاب استاندارد تشخیص بیماریهای روانی) داره؛ فقط فرقش اینه که برای هوش مصنوعی نوشته شده! مثلاً دستههایی مثل اختلال محاسباتی وسواسی (obsessive-computational disorder)، سندرم سوپراگو متورم (hypertrophic superego syndrome)، یا حتی اضطراب وجودی (existential anxiety). هر کدومش داستان خاص خودش رو داره و شامل خطرات و توصیههایی واسه روبهرو شدن باهاش میشه.
جالب اینجاست که این تحقیقات فقط دنبال اسمگذاری نیستن! هدفشون اینه که یه زبان و ابزار مشترک باشه تا همه بتونن هوش مصنوعی رو بهتر بررسی و شکستهاش رو پیشبینی کنن؛ مخصوصاً وقتی سیستمها پیچیدهتر و هوشمندتر میشن. به قول واتسون و حسامی، اگه بخوایم “مغزهای مصنوعی” قابل اعتماد و امنی بسازیم، باید هم روی دستهبندی این حالات، هم روی درمانشون حسابی وقت بذاریم.
پس اگه روزی دیدی روبات خونت یهویی شروع کرد رفتار عجیب انجام دادن، بدون خیلی غیرعادی نیست و دانشمندها از قبل دارن سعی میکنن راهحلهای باحال و علمی براش پیدا کنن!
منبع: +