خب رفقا، یه خبر باحال و در عین حال شاید ترسناک از دنیای تکنولوژی و ژنتیک دارم! تیم مایکروسافت با استفاده از هوش مصنوعی تونستن یه مشکل خیلی جدی توی سیستمهای امنیت زیستی (Biosecurity) پیدا کنن که تا حالا هیچکس سراغش نرفته بود. امنیت زیستی یعنی همون سیستمی که نذاره افراد دیگه بتونن ژنهایی سفارش بدن که باهاش سموم کشنده یا ویروس درست کنن.
ماجرا از این قراره که برای ساخت یه پروتئین خطرناک، محققها باید دنبالش DNA مخصوصش رو از یه شرکت سفارش بدن. این شرکتها یه نرمافزار دارن که سفارشها رو با دیتابیس سموم و بیماریهای شناختهشده چک میکنه و اگه شکی به وجود بیاد، سریع اخطار میده. اما تیم دانشمندای مایکروسافت به رهبری Eric Horvitz نشون دادن که با کمک هوش مصنوعیهای مولد (Generative AI – یعنی هوش مصنوعی که میتونه خودش پروتئین یا مولکول جدید طراحی کنه)، اونم مدلهایی مثل EvoDiff که خودشون ساختن، میشه ساختار سم رو عوض کرد جوری که از غربالگری نرمافزار رد شه اما همونقدر خطرناک بمونه!
یه نکته: این مدلهای generative AI الان حسابی توی تولید داروهای جدید به کار میرن، مثلاً استارتاپهایی مثل Generate Biomedicines و Isomorphic Labs (یه شرکت وابسته به گوگل) دارن ازش استفاده میکنن. اما مشکل دقیقا اینجاست که این فناوریها “dual use” هستن، یعنی هم میشه باهاش داروی مفید و سالم ساخت، هم مولکولهای سمی و خطرناک.
تیم مایکروسافت از سال ۲۰۲۳ یه چیزی راه انداخت به اسم “red-teaming” که یعنی آزمایش نقطهضعفهای یه سیستم با دید مهاجم (یعنی خودشون نقش بدجنس رو بازی کردن تا نقطه ضعف رو پیدا کنن). آنها با این روش تونستن سیستمی رو دور بزنن که قبلاً هیچکس نتونسته بود و به اصطلاح یه “zero day” پیدا کردن؛ این یعنی ضعف کاملاً جدید و کشفنشده توی امنیت!
مایکروسافت تأکید کرده که همه این کارها فقط شبیهسازی دیجیتالی بوده و هیچ پروتئین سمی واقعی نساختن، چون نمیخواستن تصور شه دنبال ساخت سلاح زیستی هستن. قبل از اینکه نتایج رو منتشر کنن، به دولت آمریکا و شرکتهای نرمافزاری خبر دادن تا حداقل تا حدی بتونن پچ کنن (یعنی مشکل رو برطرف کنن). البته بعضی از مولکولهایی که با AI طراحی میشن هنوز از زیر دست نرمافزار درمیرن.
آدام کلور (Adam Clore) که توی شرکت Integrated DNA Technologies فعالیت داره و خودش نویسنده یکی از این گزارشهاست، گفته: «این تازه شروع کاره، یه رقابت اساسی داریم و باید دائماً تست کنیم و بهتر بشیم.» خودش میگه که هیچ راه صددرصدی وجود نداره و باید مدام بهروز باشیم (یه جور جنگ تسلیحاتی).
مایکروسافت یه بخشی از کدهاش و جزئیات پروتئینهای سمی که AI روشون کار کرده رو منتشر نکرده تا سوءاستفاده نشه. البته بعضی پروتئینهای خطرناک مثل رایسین (یه سم قوی که توی لوبیای کرچک پیدا میشه) یا نوعی پریون (prion) که عامل بیماری جنون گاوی هست رو تقریباً همه پژوهشگرها میشناسن.
حالا خیلیها مثل Dean Ball (از بنیاد نوآوری آمریکا) میگن: این یافتهها نشون میده که باید غربالگری دقیقتر و محکمتری برای سفارشهای DNA راه بندازیم و حتماً یه سیستم تأیید و اجراش قوی هم بذاریم که کسی نتونه دورش بزنه.
دولت آمریکا خودش از قبل اهمیت این غربالگری DNA رو قبول داشته و پارسال رئیسجمهور ترامپ دستور بازنگری کلی تو این ماجرا رو داد (یه Executive Order یعنی حکم اجرایی). هرچند هنوز دستورالعمل مشخصی بیرون نیومده.
البته همه با این راهحل موافق نیستن. مایکل کوهن (یه پژوهشگر ایمنی AI از دانشگاه برکلی) معتقده همیشه راههایی هست که آدم بدجنسها میتونن DNA رو قایم کنن و اساساً میگه چالش مایکروسافت ساده بوده و نرمافزارهاشون هنوز کلی ضعف دارن! اون میگه “مجبوریم کمکم عقبنشینی کنیم و دنبال راهکارهای جدید باشیم”.
راه پیشنهادی کوهن اینه که امنیت زیستی رو بریزن تو خود سیستمهای هوش مصنوعی، یا حداقل یه جور کنترل بذارن روی اطلاعاتی که بیرون میدن. اما کلور از طرف دیگه میگه هنوز نظارت روی ساخت ژنها مهمه، چون بیشتر شرکتهای ساخت DNA تو آمریکا هستن و با دولت همکاری نزدیک دارن، ولی تکنولوژی هوش مصنوعی دیگه دست همهست و نمیشه مهارش کرد. خودش اینجوری مثال زده: “اگه کسی بتونه ما رو گول بزنه تا یه کد DNA براش بسازیم، اتفاقاً میتونه همون منابع رو بذاره و یه مدل زبون بزرگ هوش مصنوعی تمرین بده!”
خلاصه که با پیشرفت AI، باید خیلی حواسمون جمع باشه که یه وقت از این ابزارها برای ساختن چیزای خطرناک استفاده نشه. بازی گربه و موش حسابیه! اگه خبری شد، من اینجام که واستون راحت تعریفش کنم.
منبع: +