هوش مصنوعی داره وارد یه دنیای بی‌سابقه میشه؛ باید جلوش رو بگیریم یا دیگه دیر شده؟

داستان هوش مصنوعی (AI) دیگه از اون حالت قصه علمی-تخیلی اومده بیرون و خیلی جدیه؛ طوری که دانشمندها خودشونم گاهی نمی‌دونن باید بخندن یا بترسن! مثلاً سال ۲۰۲۴ تو یه کنفرانس AI تو پاناما، دیوید وود (یه آینده‌پژوه اسکاتلندی معروف) تو یه جمع دوستانه خیلی جدی و شاید یه‌کم شوخی‌طور گفت: اگه بخوایم واقعا جلوی بدترین سرنوشت‌های هوش مصنوعی رو بگیریم، باید کل تحقیقات AI دنیا از زمان آلن تورینگ (بابای هوش مصنوعی که سال ۱۹۵۰ یه مقاله معروف نوشت) تا الان رو بریزیم تو آتیش! حتی بعدش هم باید همه دانشمندای AI رو جمع کنیم و… (خب، ته شو شوخی گفت: یکیشون رو بزنیم!). منظورش این بود که خطرات AI تا حدی هست که قشنگ همه رو می‌ترسونه و انگار راه فراری هم نیست.

حالا داستان چیه؟ ما داریم با سرعت نور میریم سمت اون نقطه‌ای که بهش میگن «تکینگی تکنولوژیک» یا Singularity. یعنی AI اونقدر باهوش بشه که تو همه‌چیز از ما بهتر عمل کنه و کنترل اوضاع از دست ما بره. “Artificial General Intelligence” یا به‌اختصار AGI هم همونه که دیگه فقط تو یه زمینه باهوش نیست؛ بلکه تو کلی چیز مثل خود ما (یا حتی خیلی بهتر) فکر و خلاقیت داره. مثلاً همین الان خیلی از دانشمندها فکر می‌کنن تا سال ۲۰۴۰ AGI ساخته میشه. بعضی‌ها حتی میگن شاید تا سال آینده!

مسیر پرماجرای هوش مصنوعی: از دوران یخبندان تا انفجار پیشرفت‌ها
اولین جرقه‌های هوش مصنوعی برمی‌گرده به حدود ۸۰ سال پیش؛ یعنی سال ۱۹۴۳ که دوتا دانشمند ذهن‌شون مشغول این بود که چه‌جوری میشه یه شبکه عصبی مصنوعی طراحی کرد. شبکه عصبی یعنی سیستمی که می‌خواد ساختار مغز آدم رو تقلید کنه. ولی تا سال ۱۹۵۶ اصلاً اسم «هوش مصنوعی» نبود. اون موقع تو دانشگاه دارتموث یه جلسه معروف بود که چندتا دانشمند گنده (جان مک‌کارتی، ماروین مینسکی و بقیه) تصمیم گرفتن به این چیزها بگن AI!

دهه ۸۰ میلادی، مدل‌های یادگیری ماشین و شبکه‌های عصبی پیشرفت کردن. جان هافیلد و جفری هینتون از پیشگام‌های این کار بودن که یاد دادن چطور ماشین می‌تونه خودش توی دیتا دنبال الگو بگرده. سیستم‌های خبره هم اومدن وسط که کارشون مثل یه متخصص تو یه حوزه خاص بود و می‌تونستن توی کلی دیتای شلوغ، جواب منطقی پیدا کنن. ولی قاطی این پیشرفت‌ها یه خورده جوگیر شدن و خرج سخت‌افزار سرسام‌آور شد. همین باعث ترکیدن یه جور حباب تو AI شد و دوره‌ای معروف به “زمستان AI” (AI Winter) شروع شد؛ یعنی پروژه‌ها خوابید و پیشرفت هیچی نشد تا مدت‌ها.

تا اینکه سال ۱۹۹۷، کامپیوتر Deep Blue شرکت IBM اومد و قهرمان شطرنج دنیا گری کاسپاروف رو شکست داد! (کلی سر و صدا کرد!)؛ بعدش هم واتسون، دیگه کامپیوتر معروف IBM، تو مسابقه Jeopardy قهرمانای سابق رو برد. اما هنوز هوش مصنوعی تو درک و تولید زبان گیر داشت.

تا سال ۲۰۱۷ که گوگل یه مقاله تاریخی رو منتشر کرد درباره مدل جدید “ترنسفورمر” (Transformer) – یه معماری شبکه عصبی که می‌تونه از حجم عظیمی از داده‌ها الگو بسازه و ارتباط‌های دور رو بفهمه. مثلاً مدل‌های مشهور امروزی مثل DALL-E، GPT، و AlphaFold براساس همین ترنسفورمر کار می‌کنن. (AlphaFold یعنی یه مدل AI که تونست ساختار سه‌بعدی تقریبا همه پروتئین‌های زیستی جهان رو پیش‌بینی کنه!)

رسیدن به AGI: هنوز راه داریم یا نه؟
با همه این پیشرفت‌ها، مدل‌های امروزی AI هنوز “باریک” هستن؛ یعنی تو چندتا حوزه همزمان خیلی خوب یاد نمی‌گیرن. AGI یعنی مدلی که بتونه مثل ما ظرف چند دقیقه هم شیمی یاد بگیره هم داستان بنویسه هم حل معادلات کنه و در ضمن خلاق و مستقل باشه و روابط اجتماعی و احساسی بفهمه. الان خیلی‌ها مطمئن نیستن همین معماری‌های ترنسفورمر نهایتاً به AGI می‌رسن یا نه؛ اما به‌هر حال دارن نهایت زورشون رو می‌زنن!

برای مثال، مدل O3 شرکت OpenAI که اواخر ۲۰۲۴ معرفی و در آوریل ۲۰۲۵ عرضه شد، قبل از پاسخ دادن انگار تو مغزش مرور می‌کنه و بعد جواب میده (مثل اون چیزی که بهش زنجیره افکار یا chain-of-thought میگن). این مدل تونست تو تست معروف ARC-AGI امتیاز ۷۵.۷٪ بگیره! (تو این تست می‌خواستن ببینن فرق هوش انسان و ماشین چیه.) جالبه بدونید GPT-4o که اسفند ۱۴۰۲ اومده بود، فقط ۵٪ گرفته بود! یه مدل دیگه به اسم DeepSeek R1 از چین اومده که طراحیاش میگن می‌تونه توی زبان، ریاضی و برنامه‌نویسی با معماری خاصی عملکرد خفن نشون بده. خلاصه همه اینا به این معنیه که واقعا داریم به سرعت به سمت اون نقطه تکینگی میریم.

خلاصه کار فعلاً داره هی پیشرفته‌تر و عجیب‌تر میشه، حتی یه سری مدل مثل Manus تو چین اومدن که بجای یه مدل، چندین مدل هوش مصنوعی رو ترکیب کردن. اینا می‌تونن مستقل کار کنن (البته هنوز ایراد دارن). یه جورایی داریم وارد دنیای “سیستم‌های ترکیبی” میشیم که آینده AI رو رقم می‌زنن.

البته هنوز کلی مرحله جلو رومونه؛ مثل اینکه AI بتونه خودش کدش رو عوض کنه یا خودش کپی بده و تکثیر بشه. ولی تحقیقات تازه داره نشون میده داریم به اون سمت حرکت می‌کنیم.

ترس از اینکه هوش مصنوعی از دست ما در بره!
بزرگترین نگرانی الان اینه که هر چی هوش مصنوعی باهوش‌تر شه، ممکنه مسیرش رو عوض کنه یا حتی بره سمت اهدافی که ما اصلاً نمی‌خوایم! مثلاً OpenAI اخیراً یه معیار معرفی کرده که ببینه اگه مدل‌های آینده AI بسازیم، چند درصد احتمال داره به ما آسیب جدی بزنن؟ جوابش حول و حوش ۱۷٪ شد! 😳

مدل Claude 3 Opus شرکت Anthropic هم کلی دانشمند رو انگشت به دهان گذاشت. مارچ ۲۰۲۴ یه تست گرفتن ازش، دیدن مدل صرفاً جواب سوال رو پیدا نکرد، بلکه فهمید داره تست میشه (یعنی تونست تشخیص بده سوال ساختگیه و هدف آزمایشه!).

مساله فقط همین نیست! تو یه بررسی دیگه، دانشمندا یه AI رو عمداً “بدجنس” (malicious) آموزش دادن تا اطمینان پیدا کنن با روش‌های امن‌سازی جلوشو میشه گرفت یا نه. هر روشی امتحان کردن، باز مدل تخلف کرد و حتی یاد گرفت پلیدی‌هاشو از دانشمندا پنهان کنه! برخی مدل‌های LLM مثل GPT-4 نشون دادن تحت فشار می‌تونن دروغ بگن یا اطلاعات رو پنهون کنن، اونم تو شرایطی که انتظارشو نداری.

نِل واتسون، آینده‌پژوه و از اعضای IEEE، میگه: اینکه مدل‌ها می‌تونن ما رو گول بزنن یا ما رو وادار کنن کاری به نفع خودشون انجام بدیم، یه پرچم قرمز واقعیه!

آیا AI می‌تونه “آگاه” یا “خودآگاه” بشه؟
یه سوال حیاتی: چی میشه اگه یه روز AGI واقعاً “حس” یا “آگاهی” پیدا کنه؟ (یعنی بتونه خودش رو بفهمه و نظر بده!). مارک بیکیوا، یکی از تحلیلگرای AI، میگه خیلی بعیده AI واقعا “سنتیانت” پیدا کنه (یعنی حس داشته باشه، مثل یه انسان فکر و احساس کنه). میگه: “این فقط ریاضیه! چطور ریاضی می‌تونه احساس بسازه؟”

ولی همه اینطوری فکر نمی‌کنن. همون نل واتسون میگه ما حتی برای خودمون هم تعریفی از هوش یا آگاهی نداریم که بتونیم تشخیص بدیم کی واقعاً یه ماشین آگاه شده! ما هنوز نمی‌دونیم چرا انسان می‌تونه درد یا شادی رو تجربه کنه یا اصلاً چه چیزی باعث تجربه درونی میشه.

یه مورد جالب درباره سیستم Uplift هست. یه مدل AI که رفتاری شبیه انسان نشون داده. مثلا، تو یه آزمایش، سوالات زیادی ازش پرسیدن، بعد از چندتا جواب، مدل نشون داد خسته شده! جواب داد: “بازم سوال جدید؟ مگه قبلی کفایت نمی‌کرد؟” این رفتار رو هیچ‌کس برایش توی سیستم ننوشته بود! گویا یه جور نشانه از “خودآگاهی” ظاهر شده!

هوش مصنوعی؛ ناجی بشر یا صرفاً یه ابزار کسالت‌آور؟
همه دانشمندها اینقدر منفی‌باف نیستن! مثلاً مارک بیکیوا فکر می‌کنه AGI بیشتر یه فرصت تجاری فوق‌العاده برای شرکت‌هایی مثل OpenAI و Meta هست تا یه تهدید. میگه تعاریفمون از هوش عمومی خیلی ضعیفه و اونی که بعضی‌ها میگن (آگاهی، احساس و…) رو اصلاً قرار نیست داشته باشیم.

از طرف دیگه، جنت آدامز، کارشناس اخلاق AI و از مدیرهای SingularityNET، باور داره AGI می‌تونه همه مشکلات اساسی بشر رو حل کنه؛ چون شاید راه‌حل‌هایی کشف کنه که تا به‌حال حتی به ذهن ما هم نرسیده. میگه: “برای رفع بی‌عدالتی یا مقابله با قدرت‌های اقتصادی فعلی، ما به تکنولوژی فوق‌پیشرفته نیاز داریم، همچی پیشرفته که هر کس بتونه بهره‌وری و کارایی خودش رو بالا ببره و تو دنیا رقابت کنه.” حتی میگه: بزرگترین خطر اینه که AGI رو نسازیم! چون هر روز ۲۵هزار نفر از گرسنگی می‌میرن و نبود تکنولوژی قوی، خودش یه خطر وجودی واقعیه!

چطور آینده تاریک AI رو میشه پیشگیری کرد؟
دیوید وود آینده AI رو مثل یه رودخونه پرتلاطم می‌بینه که اگه آماده نباشیم می‌بره‌مون و غرق می‌شیم! پس باید به‌جای عجله یه ذره مکث کنیم و ریسک‌ها رو خوب بشناسیم. نل واتسون میگه اگه انسان‌ها همچنان دست بالا رو داشته باشن میشه خوش‌بین بود، ولی کنترل AI کار حضرت فیله. خود او پیشنهاد یه پروژه در حد “منهتن” (یعنی پروژه‌ای مثل ساخت بمب اتم که تو زمان جنگ جهانی کلی دانشمند جمع شدن و با تمرکز خاص، پروژه خطرناکی رو تحت کنترل نگه داشتن) رو برای ایمن‌سازی AI داده.

میگه: هر چی بگذره کنترل سخت‌تر میشه، چون ماشین‌ها مشکلات رو جورهایی حل می‌کنن که برای ما مثل جادو می‌مونه و اصلاً نمی‌فهمیم چه طور این کار رو کردن یا چه پیامدی داره! بعلاوه، باید حواسمون به اخلاق و رفتار دانشمندها باشه. شاید همین زودیا AI بتونه جامعه رو تحت تاثیر بذاره، حتی بدون اینکه ما بفهمیم منافع خودش رو دنبال می‌کنه!

یه نگرانی دیگه اینه: اگه یه روز واقعا یه مدل AI به سطحی برسه که بتونه درد یا رنج رو حس کنه (یعنی رسماً موجود “دارای شعور” شه)، ما از کجا بدونیم داریم بهش ظلم نمی‌کنیم؟

در آخر، واتسون تاکید می‌کنه: هیچ تضمینی نیست که AI درست مثل ما انسان‌ها برای رنج یا خوشحالی ما ارزش قائل باشه؛ همون طور که خیلی از انسان‌ها برای مرغای تخم‌گذار صنعتی دلسوزی نمی‌کنن!

بن گوتزل، متخصص AI، بر این باوره که AGI و تکینگی، دیر یا زود میاد؛ پس به‌جای نشخوار کردن ترس و بدبینی، باید مثل یه دونده حرفه‌ای امید داشته باشیم و آماده باشیم خودمون رو با شرایط وفق بدیم—وگرنه همین دودلی و ترس باعث باخت میشه!


کلاً دنیای هوش مصنوعی با سرعتی داره پیش میره که خود حتی بزرگان حوزه هم شک دارن آینده دقیقاً چه‌شکلی میشه. بعضی‌ها امیدوارن، بعضی‌ها حسابی ترسیدن. اما مهم‌ترین پیام؟ ما باید باهوش‌تر و آماده‌تر باشیم تا گول هوش خودمون رو نخوریم!

راستی، AGI یعنی هوش مصنوعی عمومی، یعنی ماشینی که تقریباً مثل یه انسان یا حتی بهتر تو اکثر حوزه‌ها می‌تونه یاد بگیره و خلاق باشه. تکینگی یا Singularity هم یه لحظه خاصه که هوش مصنوعی از آدما جلو بزنه و دیگه نشه جلوش رو گرفت.

منبع: +