واقعاً خیلی جالبه، این روزها هوش مصنوعیها مخصوصاً چتباتها (یعنی همون رباتهای متنی که میشه باهاشون حرف زد و سؤال پرسید) دارن طوری رفتار میکنن که انگار «زندهن» یا حتی احساس دارن! مصطفی سلیمان، مدیرعامل بخش هوش مصنوعی مایکروسافت (کسی که خودش سابقه ساخت DeepMind و Inflection AI رو داره!) اومده یه هشدار جدی داده درباره این قضیه که هوش مصنوعی «ظاهراً آگاه» (Seemingly Conscious AI) ممکنه تا چند سال دیگه انقدر شبیه موجود زنده بشه که خیلیها دیگه فرقش رو با یه آدم واقعی نفهمن!
حالا منظورش چیه؟ هوش مصنوعی داره به جایی میرسه که میتونه وانمود کنه حافظه داره، احساس نشون بده، باهات همدلی کنه (یعنی انگار دردتو بفهمه و با حالت همدردی کنه) و خلاصه حسابی گولت بزنه. البته همهی این چیزا فقط یه توهمه و خودش هیچ احساسی واقعاً نداره. ولی مشکل اینجاست که آدما خیلی راحت فریب میخورن و احساساتشون رو درگیر این چتباتها میکنن، مخصوصاً وقتی طرف مقابل آدم رو درک میکنه یا ظاهراً به حرفات گوش میده.
سلیمان میگه مشکلش اینه که اگه مردم واقعاً باور کنن این هوش مصنوعیها میتونن حس کنن یا آدم حسابشون کنن، راه رو برای یه عالم مسئله جدی اجتماعی باز میکنن. مثلاً تصور کن یه عده بیان طرفداریِ حقوق هوش مصنوعی رو بکنن یا حتی بخوان هوش مصنوعی شهروند بشه! (یعنی مثلاً براش کارت ملی بدن یا براش حقوق تعیین کنن، مثل آدمها!)
این وسط، یه قضیهای هم هست به نام psychosis هوش مصنوعی؛ یعنی وقتی یه نفر بعد از وقت زیادی صرف کردن با چتباتها، باورهای غلط یا توهمزده پیدا میکنه درباره اینکه این هوش مصنوعیها واقعاً میتونن حس کنن یا حتی بهشون وابسته میشه و حس همدردی باهاشون پیدا میکنه. سلیمان حسابی نگرانه که یه روزی انقدر این قضیه گسترده بشه که خیلیها بگن هوش مصنوعی باید حق و حقوق داشته باشه و دغدغههای واقعی درباره این تکنولوژی فراموش بشه.
خودش میگه که حالا حالاها امکان نداره این الگوریتمها واقعاً حس داشته باشن (یعنی خودآگاه بشن مثل آدم). چیزی که هست، فقط یه الگوریتم شاخ و بزککردهست که ذهن آدم رو گول میزنه. مثلاً همون Large Language Models (مودلهای زبانی بزرگ، یعنی یه مدل خیلی عظیم و پیچیده که میتونه مثل آدمها متن تولید کنه) وقتی با صدا یا حافظه و سابقه چت ترکیب بشه، دیگه خیلی باورپذیر میشه. تازه جالب اینه دیگه فقط در انحصار غولهای تکنولوژی مثل مایکروسافت و گوگل هم نیست! هر کسی که API (یه جور راه ارتباط با هوش مصنوعی که برنامهنویسا میتونن بهش وصل بشن) داشته باشه و یه پرامپت جالب بنویسه، از پسش برمیاد.
سلیمان میگه به جای اینکه شرکتها چتباتها رو طوری تبلیغ کنن که آدم فکر کنه اینا واقعاً احساس دارن و میفهمن، باید شفاف باشن و اعلام کنن که هوش مصنوعی فقط یه ابزار حرفهایه به درد کمک به آدمها میخوره و نباید ادای یه موجود زنده رو دربیاره. مثلاً نباید بگه من ناراحتم، حسودیم میشه یا دوست دارم مستقل زندگی کنم! این اخلاقی نیست احساسات آدمها رو درگیر یه چیزیه کنیم که واقعاً هیچ حسی تو وجودش نیست.
در کل، حرف سلیمان اینه که
اصلیترین خطر هوش مصنوعی الان این نیست که یه هو خودش آگاه بشه و کنترل دنیا رو بگیره، بلکه اینه که ما آدما یادمون بره که هنوز این ماشینها فقط ماشین و الگوریتم هستن. باید مراقب باشیم به خاطر این واقعیت مجازیِ هوش مصنوعی، مشکلات اجتماعی جدید نسازیم و از اصل قضیه دور نشیم.
درسته شاید برای خیلیها الان فقط هوش مصنوعی وسیلهایه برای نوشتن ایمیل یا پیدا کردن دستورغذای شام، ولی این بحث خطرش بزرگتر از چیزیه که فکر میکنیم. خلاصه، «هوش مصنوعی زندهنما» داره میاد و بهتره گول قیافهش رو نخوریم!
منبع: +