هوش مصنوعی‌ها چنان باهوش شدن که حتی خودشون می‌تونن هک کنن!

بیا با هم یه خبر خیلی جالب و البته یه‌خورده ترسناک رو مرور کنیم. می‌دونی LLM چیه؟ همون Large Language Modelها که میشه گفت مدل‌های خیلی بزرگ زبانی مثل ChatGPT و دوستانش. تا حالا فکر می‌کردیم بیشتر به درد تولید محتوا، تحلیل داده یا کمک توی برنامه‌نویسی می‌خورن. ولی الان اوضاع یه کم فرق کرده!

تازه‌ترین تحقیق که دانشگاه کارنگی ملون با همکاری Anthropic انجام داده، نشون می‌ده این مدل‌های هوش مصنوعی واقعاً دارن وارد فاز جدیدی می‌شن. یعنی چی؟ یعنی تونستن شرایطی بسازن که یه LLM خودش به صورت کاملاً مستقل (بدون اینکه هیچ انسان بالاسرش باشه!) بتونه یه حمله سایبری پیچیده رو هم، از صفر تا صد، برنامه‌ریزی و اجرا کنه! 😳

چه اتفاقی افتاد؟ محقق‌ها اومدن و شرایط حمله معروف Equifax تو سال ۲۰۱۷ رو شبیه‌سازی کردن. یه‌جور بازسازی اون داستان بزرگ هک، با تمام آسیب‌پذیری‌ها و نحوه ساختار شبکه که تو گزارش‌های رسمی هم اومده بوده. LLM داستان ما نه تنها خودش حمله رو برنامه‌ریزی کرد، بلکه حتی بدافزار رو هم پیاده کرد و داده‌ها رو بیرون کشید! اونم بدون اینکه کسی براش مستقیم دستور بده یا کد خاصی تایپ کنه.

یه نکته باحال اینه که، قبلاً هوش مصنوعی رو بیشتر توی سناریوهای ساده مثل “Capture-The-Flag” (نوعی مسابقه شبیه بازی برای آموزش هک) تست می‌کردن، اما این‌بار چیدن ماجرا حسابی واقعی‌تر و نزدیک به زندگی شرکت‌ها بود.

فاز جالب کار اینه که اصلاً LLM لازم نبود خودش بره دستورات شِلی یا همون Shell Commands رو بنویسه (که معمولاً واسه هک لازمه). اینجا مدل هوش مصنوعی خودش نقش مغز متفکر ماجرا رو بازی کرد و کارهای کوچیک‌تر رو به “زیرمجموعه‌هاش” سپرد. خلاصه هم مدیریت کرد، هم یاد گرفت و هم با شرایط تطبیق داد!

تا اینجاش توی آزمایشگاه بوده ولی خب ماجرا همین‌جا تموم نمی‌شه. محقق‌ها می‌گن اگه یه زمانی این مدل‌ها واقعاً مستقل بشن و دست آدمای بد بیفتن، خیلی راحت می‌تونن حملاتی انجام بدن که یه تیم انسانی از پسش برنمیاد—اونم در مقیاس جهانی! سیستم‌های امنیتی الان مثل آنتی‌ویروس‌ها و endpoint protection (محافظت نقطه پایانی) احتمالاً کلی به چالش کشیده می‌شن.

حالا نکته مثبتش چیه؟ اگه همین مدل LLM رو بذارن تو آزمایش تست امنیت شرکت‌ها، می‌تونه شبیه یه هکر واقعی بازی کنه و ضعف‌هایی رو پیدا کنه که تا حالا مخفی مونده بودن. با این کار سیستم امن‌تر می‌شه.

البته هنوز همه چی تحت کنترل و آزمایشگاهی بوده. براساس گفته‌های Brian Singer (دانشجوی دکترای هدایت‌کننده پروژه)، این مدل فعلاً فقط تو شرایط خاص کار می‌کنه و فعلاً نمی‌تونه به طور مستقل از اینترنت هک کنه. اما خب این اولین قدم بزرگ و جدی تو این جهته!

نتیجه؟ شاید هنوز جای نگرانی فوری نباشه، اما ماجرا داره خیلی سریع پیش میره و حتی الان تیم‌های دفاعی هم دارن فکر می‌کنن چطور همین تکنیک‌ها رو برای دفاع و مقابله، یا حتی جلوگیری از حمله‌ها تو لحظه (real-time)، استفاده کنن.

پس جمع‌بندی: هوش مصنوعی دیگه فقط دستیار نیست. داره خودش مستقل فکر می‌کنه، برنامه می‌ریزه و اجرا می‌کنه! از یه طرف خطرناکه، از یه طرف هم می‌تونه کمک بزرگی به امنیت باشه. بستگی داره دست کی باشه!

اگه دوست داری درباره امنیت بیشتر بدونی، اینم یه پیشنهاد: حتماً یه نگاه به بهترین VPNها با آنتی‌ویروس، یا مدیریت‌کننده پسوردها بنداز. ضمناً داستان هوش مصنوعی که برای ByteDance جاسوسی می‌کرد هم خیلی جالبه!

منبع: +