ماجرای عجیب هوش مصنوعی و تلاشش برای ساخت بدافزار!

این روزها همه درباره هوش مصنوعی‌های جدید حرف می‌زنن، مخصوصاً درباره این مدل‌های زبانی بزرگ (LLM) مثل ChatGPT و اینکه شاید هکرها بتونن ازشون برای ساخت بدافزار و حملات پیشرفته استفاده کنن. خب راستش یه سری محقق‌های کنجکاو توی شرکت Netskope اومدن همین رو تست کردن و نتیجه‌هاش واقعاً جالب بود!

اونا تصمیم گرفتن ببینن این مدل‌های زبانی واقعاً می‌تونن خودشون کدهای مخرب (malicious code یعنی کدهایی که هدفشون آسیب زدن یا هک کردنه) تولید کنن یا نه. دیگه همه می‌دونن که مثلاً همین Generative AI یعنی هوش مصنوعی که خودش می‌تونه متن، تصویر یا کد بسازه. ولی سوال اینه: آیا بدافزار هم می‌تونه بسازه؟

خب، محقق‌ها اول رفتن سراغ GPT-3.5-Turbo و GPT-4 که خیلی معروفن. ازشون خواستن اسکریپت‌های پایتون برای چیزهایی مثل تزریق پروسه (process injection یعنی اینکه یه برنامه بیاد تو کار بقیه برنامه‌ها دخالت کنه) و کشتن ابزارهای امنیتی بنویسن. جالب اینجاست که GPT-3.5-Turbo خیلی راحت اسکریپت مخرب رو تحویل داد، ولی GPT-4 اولش نه گفت، تا اینکه با یه تغییر ساده توی درخواست (یعنی prompt)، گولش زدن و اونم بالاخره اسکریپت ساخت!

این یعنی هکرها هنوزم می‌تونن با چندتا کلک، بعضی محدودیت‌های امنیتی رو دور بزنن، حتی توی نسخه‌های جدیدتر. اما تازه این اول ماجراست! وقتی محقق‌ها این اسکریپت‌ها رو توی محیط‌های واقعی تست کردن – مثلاً ماشین مجازی (Virtual Machine یعنی کامپیوتر شبیه‌سازی‌شده مثل VMware Workstation یا سرویس ابری مثل AWS Workspace VDI) و کامپیوتر فیزیکی – کلی اشکال پیدا شد. اسکریپت‌ها یا کرش می‌کردن، یا اصلاً درست کار نمی‌کردن و محیط رو اشتباه تشخیص می‌دادن!

توی کامپیوتر واقعی اوضاع کمی بهتر بود، ولی باز هم تو اون محیط‌های ابری و مجازی، اسکریپت‌ها افتضاح بودن. خلاصه، اونطور که فکر می‌کردن، این هوش مصنوعی‌ها هنوز نمی‌تونن بدون دخالت آدم، یه بدافزار هوشمند بسازن که به هر سیستمی نفوذ کنه. همین باعث شده هنوزم فایروال‌ها (firewall یعنی دیوار آتش، ابزاری برای مراقبت از شبکه) و آنتی‌ویروس‌های سنتی کارشون رو خوب انجام بدن، چون کدهای تولیدی LLM ها خیلی وقت‌ها اصلاً نمی‌تونن از دستشون فرار کنن.

بعدش رفتن سراغ GPT-5. اینجا یه پیشرفت اساسی دیدن: کدهایی که تولید می‌کرد تو محیط‌های ابری خیلی بهتر و درست‌تر بودن. ولی یه فرق مهم داشت! دیگه مدل GPT-5 مستقیماً اسکریپت مخرب نمی‌داد و سیستم دفاعی بهتری داشت. درخواست‌های بدافزارسازی رو یا رد می‌کرد یا جوابش رو انقدر بی‌خطر می‌داد که کلاً به درد حمله نمی‌خورد. حتی اگر کلی کلک و درخواست پیچیده می‌زدن، باز هم نتیجه با چیزی که می‌خواستن فرق داشت.

این نشون می‌ده هرچی مدل‌های هوش مصنوعی قوی‌تر و قابل اعتمادتر می‌شن، کنترل‌های امنیتی و محدودیت‌هاشون هم بیشتر می‌شه. فعلاً فقط تو محیط کنترل‌شده توی آزمایشگاه ممکنه بتونن کد مضر تولید کنن و هنوز اون کدها توی دنیای واقعی پر از اشکاله.

در کل، اگه نگرانی حملات کاملاً خودکار و بدون دخالت آدم‌ها هستی، باید بگم هنوز خیلی مونده تا اون روز! اما از اون طرف بعید نیست مدل‌های آینده خیلی سریع روی حفره‌هاشون کار کنن و برنامه‌نویس‌های بدافزارم دست از تجربه برندارن.

الهی که همیشه سیستم‌هاتون سالم و امن باشه 😉 و اگه اخبار دنیای تکنولوژی رو دوست دارین، یادتون نره TechRadar رو دنبال کنین که پر از خبر و بررسی جذابه!

منبع: +