میخوای یه خبر عجیب بشنوی؟ الان دیگه هوش مصنوعی (یعنی سیستمهایی که میتونن مثل آدم فکر کنن و تصمیم بگیرن) وارد فاز جدیدی شده: ساخت ویروس! البته فعلاً هدف دانشمندها، ساخت ویروسهایی بود که فقط به باکتریها (همون موجودای کوچیک تکسلولی) حمله کنن و به انسان، حیوان یا گیاه کاری نداشته باشن. به این ویروسها میگن باکتریوفاژ یا فَژ – یعنی ویروسی که فقط باکتری رو شکار میکنه!
ولی قضیه فقط به همین ختم نمیشه. همین هفته یه گروه دیگه از محققها نشون دادن که هوش مصنوعی به راحتی میتونه از ابزارها و محدودیتهایی که برای جلوگیری از ساخت سلاحهای بیولوژیکی گذاشتن، دور بزنه! یعنی ایده ساخت سلاحهای مرگبار توسط AI فقط تو فیلمها نیست، یه خطر جدی کمین کرده.
ماجرا اینجوریه: یه تیم پژوهشی از مایکروسافت اعلام کرد برنامههای هوشمند الان میتونن کاری کنن که محدودیتها و فیلترهایی که مثلاً بخوان جلوی سفارش ساخت مولکولهای سمی توسط مردم رو بگیرن، بیاثر بشه. دانشمندها بعد از فهمیدن این قصه، سریع دست به کار شدن و یه سری بروزرسانی نرمافزاری برای نرمافزارهای غربالگری ساختن تا ریسک کار بیاد پایینتر. البته این ابزارهای جدید هنوز هم فقط دست متخصصهاست و مردم عادی نمیتونن راحت ازش استفاده کنن.
حالا چرا این موضوع ترسناکه؟ چون ترکیب این دو تا خبر (یعنی ساخت ویروس جدید با AI و دور زدن محافظهای امنیتی) نشون میده شاید آیندهای در راه باشه که هوش مصنوعی بتونه موجود زنده جدید یا حتی بیوسلاح خلق کنه. فعلاً این اتفاق نیفتاده، ولی کارشناسها میگن فاصلهمون باهاش اونقدرا هم زیاد نیست.
حالا یه نکته مهم تو این داستان وجود داره به اسم مشکل “استفاده دوگانه” یا Dual-use Problem. یعنی هر تکنولوژی جدید میتونه هم مفید باشه و هم سوءاستفاده بشه. مثلاً دانشمندی که داره بیماریهای عفونی رو بررسی میکنه، ممکنه بخواد یه ویروس رو تغییر بده تا بفهمه چه عاملی باعث میشه سریعتر گسترش پیدا کنه. ولی یه فرد بد نیت میتونه از همین روش برای ساختن یه ویروس وحشتناک و شروع یه دنیاگیری جدید استفاده کنه.
مثال دیگه: دستگاههایی که به بیماران آسم کمک میکنن، ممکنه توسط آدمهای بد برای پخش مواد شیمیایی سمی استفاده بشن. خلاصه، هر تکنولوژی دو لبه است.
تو یه تحقیق جدید، دو نفر از استنفورد (سم کینگ و برایان هی) تصمیم گرفتن از هوش مصنوعی کمک بگیرن تا فَژهای جدید بسازن که بتونن باکتریهای خاص رو نابود کنن، مثلاً اون باکتریهایی که به آنتیبیوتیکها مقاوم شدن و جون آدمها رو تهدید میکنن. این روش میتونه امیدی برای آینده درمان عفونتها باشه چون اگه آنتیبیوتیک جواب نده، فَژها میتونن باکتری رو از پا بندازن.
البته خب دغدغه اینکه نکنه ویروسی تولید بشه که تصادفی به انسان آسیب بزنه همیشه هست. برای همین محققها مدلهای هوش مصنوعیشون رو طوری آموزش دادن که اصلاً به ویروسهایی که میتونن به موجودات پیشرفته (گیاه، حیوان، انسان) آسیب بزنن، دسترسی نداشته باشه. حتی کلی تست گرفتن تا مطمئن شن ساختن این فَژها پرتوی خطری برای آدمها نداره.
اما واقعیت اینه که اگر کسی واقعاً بخواد یه ویروس کشنده بسازه، با روشهای قدیمی هنوز راحتتر میتونه کارشو بکنه تا با این مدل جدید هوش مصنوعی! چون الان کار با این مدلها کلی تخصص و مهارت و زمان میخواد و اصلاً ساده نیست.
از اون طرف یه گروه از مایکروسافت (اریک هورویتس و بروس ویتمن) نشون دادن غربالگریهایی که توسط شرکتهای ساخت مواد ژنتیکی برای سفارشا انجام میشه، قابل گول زدنه! یعنی نرمافزاری که الان قراره جلوی سفارش مواد خطرناک رو بگیره، خیلی وقتا نمیفهمه که یه توالی ژنتیکی ناآشنا ممکنه همون عملکرد مضر قبلی رو داشته باشه ولی با شکل متفاوت. چون هوش مصنوعی میتونه ترکیبهای کاملاً جدید بسازه که سیستم غربالگری اصلاً تو دیتابیسش نداره.
اینا اومدن روش امنیتی که تو دنیای سایبری هست (یعنی قبل از افشای باگ به بقیه، به مراجع معتبر خبر بدن) روی این مسئله اجرا کردن و سریع نرمافزارها رو آپدیت کردن. با این حال، هنوزم تو چهار تا ابزار غربالگری محبوب دنیا، حدود ۳٪ توالیهای خطرناک از فیلترها در میره و شناخته نمیشن!
الان حتی نحوه انتشار دادههای این تحقیقات هم بااحتیاطتر انجام میشه – مثلاً دادههای حساس رو فقط به محققایی میدن که از یه نهاد بینالمللی به اسم IBBIS تائیدیه بگیرن. این اولین باره که یه ژورنال بزرگ علمی چنین سیستمی رو پذیرفته.
تا اینجا تقریباً قوانین محکمی برای هوش مصنوعی وجود نداره و غربالگریها داوطلبانه است. البته یه دستور اجرایی تو آمریکا، تأکید کرده که باید مطمئن بشیم AI مطمئن و قابل اعتماد و با ارزیابیهای استاندارد باشه. حتی گفته شرکتهایی که ارزیابیهای ایمنی انجام نمیدن، نباید بودجه فدرالی بگیرن.
تو انگلیس هم یه سازمان دولتی به اسم AI Security Institute پروژههایی رو برای ایمنتر شدن تکنولوژیها تأمین مالی میکنه. هدف اینه که جلوی بدافزارهای هوش مصنوعی و استفاده نابجاش رو بگیرن.
خبر خوب اینه که هر چی طراحی ژنتیکی پیچیدهتر بشه، کار غربالگری هم راحتتر میشه چون دیتای بیشتری برای بررسی دارن. مثلاً ویروسهایی که با هوش مصنوعی برای کل ژنوم ساخته میشن، راحتتر میشه تشخیص داد که خطرناک هستن یا نه.
مایکروسافت الان با دولتها همکاری میکنه که مثلا با آنالیز آب فاضلاب یا کیفیت هوا، ردی از مواد خطرناک یا ویروسهای مخفی پیدا کنن. به عقیده کارشناسها، غربالگری باید کل اکوسیستم رو تحت نظر بگیره، نه فقط محل تولید DNA.
در نهایت، فعلاً هنوز تولید موجود زنده کامل توسط AI آسون نیست. یعنی مثلاً AI میتونه یه ژنوم کامل برای یه باکتری جدید بسازه اما پیاده کردنش تو آزمایشگاه طبیعتاً کار هر کسی نیست. ولی این خطر دور هم نیست، اینقدر تو این حوزه پیشرفت سریعه که احتیاط حسابی لازمه.
جمعبندی: باید یه همکاری واقعی بین پژوهشگرها، شرکتها، مجلات علمی و دولتها شکل بگیره تا این مسیر خطرناک رو کنترل کنن. هوش مصنوعی داره به جاهایی میره که امنیت و سلامت انسانها رو هم تحت تأثیر میذاره – پس باید حسابی حواسمون جمع باشه و خلاقانه فکر کنیم تا همیشه یه قدم جلوتر از خطرای احتمالی حرکت کنیم.
منبع: +