هوش مصنوعی مایکروسافت: راهی برای دور زدن امنیت زیستی کشف شد!

خب رفقا، یه خبر باحال و در عین حال شاید ترسناک از دنیای تکنولوژی و ژنتیک دارم! تیم مایکروسافت با استفاده از هوش مصنوعی تونستن یه مشکل خیلی جدی توی سیستم‌های امنیت زیستی (Biosecurity) پیدا کنن که تا حالا هیچ‌کس سراغش نرفته بود. امنیت زیستی یعنی همون سیستمی که نذاره افراد دیگه بتونن ژن‌هایی سفارش بدن که باهاش سموم کشنده یا ویروس درست کنن.

ماجرا از این قراره که برای ساخت یه پروتئین خطرناک، محقق‌ها باید دنبالش DNA مخصوصش رو از یه شرکت سفارش بدن. این شرکت‌ها یه نرم‌افزار دارن که سفارش‌ها رو با دیتابیس سموم و بیماری‌های شناخته‌شده چک می‌کنه و اگه شکی به وجود بیاد، سریع اخطار میده. اما تیم دانشمندای مایکروسافت به رهبری Eric Horvitz نشون دادن که با کمک هوش مصنوعی‌های مولد (Generative AI – یعنی هوش مصنوعی که می‌تونه خودش پروتئین یا مولکول جدید طراحی کنه)، اونم مدل‌هایی مثل EvoDiff که خودشون ساختن، میشه ساختار سم رو عوض کرد جوری که از غربالگری نرم‌افزار رد شه اما همون‌قدر خطرناک بمونه!

یه نکته: این مدل‌های generative AI الان حسابی توی تولید داروهای جدید به کار میرن، مثلاً استارتاپ‌هایی مثل Generate Biomedicines و Isomorphic Labs (یه شرکت وابسته به گوگل) دارن ازش استفاده می‌کنن. اما مشکل دقیقا اینجاست که این فناوری‌ها “dual use” هستن، یعنی هم میشه باهاش داروی مفید و سالم ساخت، هم مولکول‌های سمی و خطرناک.

تیم مایکروسافت از سال ۲۰۲۳ یه چیزی راه انداخت به اسم “red-teaming” که یعنی آزمایش نقطه‌ضعف‌های یه سیستم با دید مهاجم (یعنی خودشون نقش بدجنس رو بازی کردن تا نقطه ضعف رو پیدا کنن). آنها با این روش تونستن سیستمی رو دور بزنن که قبلاً هیچ‌کس نتونسته بود و به اصطلاح یه “zero day” پیدا کردن؛ این یعنی ضعف کاملاً جدید و کشف‌نشده توی امنیت!

مایکروسافت تأکید کرده که همه این کارها فقط شبیه‌سازی دیجیتالی بوده و هیچ پروتئین سمی واقعی نساختن، چون نمی‌خواستن تصور شه دنبال ساخت سلاح زیستی هستن. قبل از اینکه نتایج رو منتشر کنن، به دولت آمریکا و شرکت‌های نرم‌افزاری خبر دادن تا حداقل تا حدی بتونن پچ کنن (یعنی مشکل رو برطرف کنن). البته بعضی از مولکول‌هایی که با AI طراحی میشن هنوز از زیر دست نرم‌افزار درمی‌رن.

آدام کلور (Adam Clore) که توی شرکت Integrated DNA Technologies فعالیت داره و خودش نویسنده یکی از این گزارش‌هاست، گفته: «این تازه شروع کاره، یه رقابت اساسی داریم و باید دائماً تست کنیم و بهتر بشیم.» خودش میگه که هیچ راه صددرصدی وجود نداره و باید مدام به‌روز باشیم (یه جور جنگ تسلیحاتی).

مایکروسافت یه بخشی از کدهاش و جزئیات پروتئین‌های سمی که AI روشون کار کرده رو منتشر نکرده تا سوءاستفاده نشه. البته بعضی پروتئین‌های خطرناک مثل رایسین (یه سم قوی که توی لوبیای کرچک پیدا میشه) یا نوعی پریون (prion) که عامل بیماری جنون گاوی هست رو تقریباً همه پژوهشگرها می‌شناسن.

حالا خیلی‌ها مثل Dean Ball (از بنیاد نوآوری آمریکا) میگن: این یافته‌ها نشون میده که باید غربالگری دقیق‌تر و محکمتری برای سفارش‌های DNA راه بندازیم و حتماً یه سیستم تأیید و اجراش قوی هم بذاریم که کسی نتونه دورش بزنه.

دولت آمریکا خودش از قبل اهمیت این غربالگری DNA رو قبول داشته و پارسال رئیس‌جمهور ترامپ دستور بازنگری کلی تو این ماجرا رو داد (یه Executive Order یعنی حکم اجرایی). هرچند هنوز دستورالعمل مشخصی بیرون نیومده.

البته همه با این راه‌حل موافق نیستن. مایکل کوهن (یه پژوهشگر ایمنی AI از دانشگاه برکلی) معتقده همیشه راه‌هایی هست که آدم بدجنس‌ها می‌تونن DNA رو قایم کنن و اساساً می‌گه چالش مایکروسافت ساده بوده و نرم‌افزارهاشون هنوز کلی ضعف دارن! اون می‌گه “مجبوریم کم‌کم عقب‌نشینی کنیم و دنبال راهکارهای جدید باشیم”.

راه پیشنهادی کوهن اینه که امنیت زیستی رو بریزن تو خود سیستم‌های هوش مصنوعی، یا حداقل یه جور کنترل بذارن روی اطلاعاتی که بیرون می‌دن. اما کلور از طرف دیگه می‌گه هنوز نظارت روی ساخت ژن‌ها مهمه، چون بیشتر شرکت‌های ساخت DNA تو آمریکا هستن و با دولت همکاری نزدیک دارن، ولی تکنولوژی هوش مصنوعی دیگه دست همه‌ست و نمی‌شه مهارش کرد. خودش اینجوری مثال زده: “اگه کسی بتونه ما رو گول بزنه تا یه کد DNA براش بسازیم، اتفاقاً می‌تونه همون منابع رو بذاره و یه مدل زبون بزرگ هوش مصنوعی تمرین بده!”

خلاصه که با پیشرفت AI، باید خیلی حواسمون جمع باشه که یه وقت از این ابزارها برای ساختن چیزای خطرناک استفاده نشه. بازی گربه و موش حسابیه! اگه خبری شد، من اینجام که واستون راحت تعریفش کنم.

منبع: +