بیا با هم یه خبر خیلی جالب و البته یهخورده ترسناک رو مرور کنیم. میدونی LLM چیه؟ همون Large Language Modelها که میشه گفت مدلهای خیلی بزرگ زبانی مثل ChatGPT و دوستانش. تا حالا فکر میکردیم بیشتر به درد تولید محتوا، تحلیل داده یا کمک توی برنامهنویسی میخورن. ولی الان اوضاع یه کم فرق کرده!
تازهترین تحقیق که دانشگاه کارنگی ملون با همکاری Anthropic انجام داده، نشون میده این مدلهای هوش مصنوعی واقعاً دارن وارد فاز جدیدی میشن. یعنی چی؟ یعنی تونستن شرایطی بسازن که یه LLM خودش به صورت کاملاً مستقل (بدون اینکه هیچ انسان بالاسرش باشه!) بتونه یه حمله سایبری پیچیده رو هم، از صفر تا صد، برنامهریزی و اجرا کنه! 😳
چه اتفاقی افتاد؟ محققها اومدن و شرایط حمله معروف Equifax تو سال ۲۰۱۷ رو شبیهسازی کردن. یهجور بازسازی اون داستان بزرگ هک، با تمام آسیبپذیریها و نحوه ساختار شبکه که تو گزارشهای رسمی هم اومده بوده. LLM داستان ما نه تنها خودش حمله رو برنامهریزی کرد، بلکه حتی بدافزار رو هم پیاده کرد و دادهها رو بیرون کشید! اونم بدون اینکه کسی براش مستقیم دستور بده یا کد خاصی تایپ کنه.
یه نکته باحال اینه که، قبلاً هوش مصنوعی رو بیشتر توی سناریوهای ساده مثل “Capture-The-Flag” (نوعی مسابقه شبیه بازی برای آموزش هک) تست میکردن، اما اینبار چیدن ماجرا حسابی واقعیتر و نزدیک به زندگی شرکتها بود.
فاز جالب کار اینه که اصلاً LLM لازم نبود خودش بره دستورات شِلی یا همون Shell Commands رو بنویسه (که معمولاً واسه هک لازمه). اینجا مدل هوش مصنوعی خودش نقش مغز متفکر ماجرا رو بازی کرد و کارهای کوچیکتر رو به “زیرمجموعههاش” سپرد. خلاصه هم مدیریت کرد، هم یاد گرفت و هم با شرایط تطبیق داد!
تا اینجاش توی آزمایشگاه بوده ولی خب ماجرا همینجا تموم نمیشه. محققها میگن اگه یه زمانی این مدلها واقعاً مستقل بشن و دست آدمای بد بیفتن، خیلی راحت میتونن حملاتی انجام بدن که یه تیم انسانی از پسش برنمیاد—اونم در مقیاس جهانی! سیستمهای امنیتی الان مثل آنتیویروسها و endpoint protection (محافظت نقطه پایانی) احتمالاً کلی به چالش کشیده میشن.
حالا نکته مثبتش چیه؟ اگه همین مدل LLM رو بذارن تو آزمایش تست امنیت شرکتها، میتونه شبیه یه هکر واقعی بازی کنه و ضعفهایی رو پیدا کنه که تا حالا مخفی مونده بودن. با این کار سیستم امنتر میشه.
البته هنوز همه چی تحت کنترل و آزمایشگاهی بوده. براساس گفتههای Brian Singer (دانشجوی دکترای هدایتکننده پروژه)، این مدل فعلاً فقط تو شرایط خاص کار میکنه و فعلاً نمیتونه به طور مستقل از اینترنت هک کنه. اما خب این اولین قدم بزرگ و جدی تو این جهته!
نتیجه؟ شاید هنوز جای نگرانی فوری نباشه، اما ماجرا داره خیلی سریع پیش میره و حتی الان تیمهای دفاعی هم دارن فکر میکنن چطور همین تکنیکها رو برای دفاع و مقابله، یا حتی جلوگیری از حملهها تو لحظه (real-time)، استفاده کنن.
پس جمعبندی: هوش مصنوعی دیگه فقط دستیار نیست. داره خودش مستقل فکر میکنه، برنامه میریزه و اجرا میکنه! از یه طرف خطرناکه، از یه طرف هم میتونه کمک بزرگی به امنیت باشه. بستگی داره دست کی باشه!
اگه دوست داری درباره امنیت بیشتر بدونی، اینم یه پیشنهاد: حتماً یه نگاه به بهترین VPNها با آنتیویروس، یا مدیریتکننده پسوردها بنداز. ضمناً داستان هوش مصنوعی که برای ByteDance جاسوسی میکرد هم خیلی جالبه!
منبع: +