وقتی هوش مصنوعی ویروس جدید می‌سازه: چطور جلو ساخت بیو‌سلاح بعدی رو بگیریم؟

می‌خوای یه خبر عجیب بشنوی؟ الان دیگه هوش مصنوعی (یعنی سیستم‌هایی که می‌تونن مثل آدم فکر کنن و تصمیم بگیرن) وارد فاز جدیدی شده: ساخت ویروس! البته فعلاً هدف دانشمندها، ساخت ویروس‌هایی بود که فقط به باکتری‌ها (همون موجودای کوچیک تک‌سلولی) حمله کنن و به انسان، حیوان یا گیاه کاری نداشته باشن. به این ویروس‌ها میگن باکتریوفاژ یا فَژ – یعنی ویروسی که فقط باکتری رو شکار می‌کنه!

ولی قضیه فقط به همین ختم نمی‌شه. همین هفته یه گروه دیگه از محقق‌ها نشون دادن که هوش مصنوعی به راحتی می‌تونه از ابزارها و محدودیت‌هایی که برای جلوگیری از ساخت سلاح‌های بیولوژیکی گذاشتن، دور بزنه! یعنی ایده ساخت سلاح‌های مرگبار توسط AI فقط تو فیلم‌ها نیست، یه خطر جدی کمین کرده.

ماجرا اینجوریه: یه تیم پژوهشی از مایکروسافت اعلام کرد برنامه‌های هوشمند الان می‌تونن کاری کنن که محدودیت‌ها و فیلترهایی که مثلاً بخوان جلوی سفارش ساخت مولکول‌های سمی توسط مردم رو بگیرن، بی‌اثر بشه. دانشمندها بعد از فهمیدن این قصه، سریع دست به کار شدن و یه سری بروزرسانی نرم‌افزاری برای نرم‌افزارهای غربالگری ساختن تا ریسک کار بیاد پایین‌تر. البته این ابزارهای جدید هنوز هم فقط دست متخصص‌هاست و مردم عادی نمی‌تونن راحت ازش استفاده کنن.

حالا چرا این موضوع ترسناکه؟ چون ترکیب این دو تا خبر (یعنی ساخت ویروس جدید با AI و دور زدن محافظ‌های امنیتی) نشون میده شاید آینده‌ای در راه باشه که هوش مصنوعی بتونه موجود زنده جدید یا حتی بیو‌سلاح خلق کنه. فعلاً این اتفاق نیفتاده، ولی کارشناس‌ها می‌گن فاصله‌مون باهاش اونقدرا هم زیاد نیست.

حالا یه نکته مهم تو این داستان وجود داره به اسم مشکل “استفاده دوگانه” یا Dual-use Problem. یعنی هر تکنولوژی جدید می‌تونه هم مفید باشه و هم سوءاستفاده بشه. مثلاً دانشمندی که داره بیماری‌های عفونی رو بررسی می‌کنه، ممکنه بخواد یه ویروس رو تغییر بده تا بفهمه چه عاملی باعث میشه سریع‌تر گسترش پیدا کنه. ولی یه فرد بد نیت می‌تونه از همین روش برای ساختن یه ویروس وحشتناک و شروع یه دنیاگیری جدید استفاده کنه.

مثال دیگه: دستگاه‌هایی که به بیماران آسم کمک می‌کنن، ممکنه توسط آدم‌های بد برای پخش مواد شیمیایی سمی استفاده بشن. خلاصه، هر تکنولوژی دو لبه است.

تو یه تحقیق جدید، دو نفر از استنفورد (سم کینگ و برایان هی) تصمیم گرفتن از هوش مصنوعی کمک بگیرن تا فَژهای جدید بسازن که بتونن باکتری‌های خاص رو نابود کنن، مثلاً اون باکتری‌هایی که به آنتی‌بیوتیک‌ها مقاوم شدن و جون آدم‌ها رو تهدید می‌کنن. این روش می‌تونه امیدی برای آینده درمان عفونت‌ها باشه چون اگه آنتی‌بیوتیک جواب نده، فَژها می‌تونن باکتری رو از پا بندازن.

البته خب دغدغه اینکه نکنه ویروسی تولید بشه که تصادفی به انسان آسیب بزنه همیشه هست. برای همین محقق‌ها مدل‌های هوش مصنوعی‌شون رو طوری آموزش دادن که اصلاً به ویروس‌هایی که می‌تونن به موجودات پیشرفته (گیاه، حیوان، انسان) آسیب بزنن، دسترسی نداشته باشه. حتی کلی تست گرفتن تا مطمئن شن ساختن این فَژها پرتوی خطری برای آدم‌ها نداره.

اما واقعیت اینه که اگر کسی واقعاً بخواد یه ویروس کشنده بسازه، با روش‌های قدیمی هنوز راحت‌تر می‌تونه کارشو بکنه تا با این مدل جدید هوش مصنوعی! چون الان کار با این مدل‌ها کلی تخصص و مهارت و زمان می‌خواد و اصلاً ساده نیست.

از اون طرف یه گروه از مایکروسافت (اریک هورویتس و بروس ویتمن) نشون دادن غربالگری‌هایی که توسط شرکت‌های ساخت مواد ژنتیکی برای سفارشا انجام میشه، قابل گول زدنه! یعنی نرم‌افزاری که الان قراره جلوی سفارش مواد خطرناک رو بگیره، خیلی وقتا نمی‌فهمه که یه توالی ژنتیکی ناآشنا ممکنه همون عملکرد مضر قبلی رو داشته باشه ولی با شکل متفاوت. چون هوش مصنوعی می‌تونه ترکیب‌های کاملاً جدید بسازه که سیستم غربالگری اصلاً تو دیتابیسش نداره.

اینا اومدن روش امنیتی که تو دنیای سایبری هست (یعنی قبل از افشای باگ به بقیه، به مراجع معتبر خبر بدن) روی این مسئله اجرا کردن و سریع نرم‌افزارها رو آپدیت کردن. با این حال، هنوزم تو چهار تا ابزار غربالگری محبوب دنیا، حدود ۳٪ توالی‌های خطرناک از فیلترها در میره و شناخته نمی‌شن!

الان حتی نحوه انتشار داده‌های این تحقیقات هم بااحتیاط‌تر انجام میشه – مثلاً داده‌های حساس رو فقط به محققایی میدن که از یه نهاد بین‌المللی به اسم IBBIS تائیدیه بگیرن. این اولین باره که یه ژورنال بزرگ علمی چنین سیستمی رو پذیرفته.

تا اینجا تقریباً قوانین محکمی برای هوش مصنوعی وجود نداره و غربالگری‌ها داوطلبانه است. البته یه دستور اجرایی تو آمریکا، تأکید کرده که باید مطمئن بشیم AI مطمئن و قابل اعتماد و با ارزیابی‌های استاندارد باشه. حتی گفته شرکت‌هایی که ارزیابی‌های ایمنی انجام نمی‌دن، نباید بودجه فدرالی بگیرن.

تو انگلیس هم یه سازمان دولتی به اسم AI Security Institute پروژه‌هایی رو برای ایمن‌تر شدن تکنولوژی‌ها تأمین مالی می‌کنه. هدف اینه که جلوی بدافزارهای هوش مصنوعی و استفاده نابجاش رو بگیرن.

خبر خوب اینه که هر چی طراحی ژنتیکی پیچیده‌تر بشه، کار غربالگری هم راحت‌تر میشه چون دیتای بیشتری برای بررسی دارن. مثلاً ویروس‌هایی که با هوش مصنوعی برای کل ژنوم ساخته می‌شن، راحت‌تر میشه تشخیص داد که خطرناک هستن یا نه.

مایکروسافت الان با دولت‌ها همکاری می‌کنه که مثلا با آنالیز آب فاضلاب یا کیفیت هوا، ردی از مواد خطرناک یا ویروس‌های مخفی پیدا کنن. به عقیده کارشناس‌ها، غربالگری باید کل اکوسیستم رو تحت نظر بگیره، نه فقط محل تولید DNA.

در نهایت، فعلاً هنوز تولید موجود زنده کامل توسط AI آسون نیست. یعنی مثلاً AI می‌تونه یه ژنوم کامل برای یه باکتری جدید بسازه اما پیاده کردنش تو آزمایشگاه طبیعتاً کار هر کسی نیست. ولی این خطر دور هم نیست، اینقدر تو این حوزه پیشرفت سریعه که احتیاط حسابی لازمه.

جمع‌بندی: باید یه همکاری واقعی بین پژوهشگرها، شرکت‌ها، مجلات علمی و دولت‌ها شکل بگیره تا این مسیر خطرناک رو کنترل کنن. هوش مصنوعی داره به جاهایی می‌ره که امنیت و سلامت انسان‌ها رو هم تحت تأثیر می‌ذاره – پس باید حسابی حواسمون جمع باشه و خلاقانه فکر کنیم تا همیشه یه قدم جلوتر از خطرای احتمالی حرکت کنیم.

منبع: +