این روزها همه درباره هوش مصنوعیهای جدید حرف میزنن، مخصوصاً درباره این مدلهای زبانی بزرگ (LLM) مثل ChatGPT و اینکه شاید هکرها بتونن ازشون برای ساخت بدافزار و حملات پیشرفته استفاده کنن. خب راستش یه سری محققهای کنجکاو توی شرکت Netskope اومدن همین رو تست کردن و نتیجههاش واقعاً جالب بود!
اونا تصمیم گرفتن ببینن این مدلهای زبانی واقعاً میتونن خودشون کدهای مخرب (malicious code یعنی کدهایی که هدفشون آسیب زدن یا هک کردنه) تولید کنن یا نه. دیگه همه میدونن که مثلاً همین Generative AI یعنی هوش مصنوعی که خودش میتونه متن، تصویر یا کد بسازه. ولی سوال اینه: آیا بدافزار هم میتونه بسازه؟
خب، محققها اول رفتن سراغ GPT-3.5-Turbo و GPT-4 که خیلی معروفن. ازشون خواستن اسکریپتهای پایتون برای چیزهایی مثل تزریق پروسه (process injection یعنی اینکه یه برنامه بیاد تو کار بقیه برنامهها دخالت کنه) و کشتن ابزارهای امنیتی بنویسن. جالب اینجاست که GPT-3.5-Turbo خیلی راحت اسکریپت مخرب رو تحویل داد، ولی GPT-4 اولش نه گفت، تا اینکه با یه تغییر ساده توی درخواست (یعنی prompt)، گولش زدن و اونم بالاخره اسکریپت ساخت!
این یعنی هکرها هنوزم میتونن با چندتا کلک، بعضی محدودیتهای امنیتی رو دور بزنن، حتی توی نسخههای جدیدتر. اما تازه این اول ماجراست! وقتی محققها این اسکریپتها رو توی محیطهای واقعی تست کردن – مثلاً ماشین مجازی (Virtual Machine یعنی کامپیوتر شبیهسازیشده مثل VMware Workstation یا سرویس ابری مثل AWS Workspace VDI) و کامپیوتر فیزیکی – کلی اشکال پیدا شد. اسکریپتها یا کرش میکردن، یا اصلاً درست کار نمیکردن و محیط رو اشتباه تشخیص میدادن!
توی کامپیوتر واقعی اوضاع کمی بهتر بود، ولی باز هم تو اون محیطهای ابری و مجازی، اسکریپتها افتضاح بودن. خلاصه، اونطور که فکر میکردن، این هوش مصنوعیها هنوز نمیتونن بدون دخالت آدم، یه بدافزار هوشمند بسازن که به هر سیستمی نفوذ کنه. همین باعث شده هنوزم فایروالها (firewall یعنی دیوار آتش، ابزاری برای مراقبت از شبکه) و آنتیویروسهای سنتی کارشون رو خوب انجام بدن، چون کدهای تولیدی LLM ها خیلی وقتها اصلاً نمیتونن از دستشون فرار کنن.
بعدش رفتن سراغ GPT-5. اینجا یه پیشرفت اساسی دیدن: کدهایی که تولید میکرد تو محیطهای ابری خیلی بهتر و درستتر بودن. ولی یه فرق مهم داشت! دیگه مدل GPT-5 مستقیماً اسکریپت مخرب نمیداد و سیستم دفاعی بهتری داشت. درخواستهای بدافزارسازی رو یا رد میکرد یا جوابش رو انقدر بیخطر میداد که کلاً به درد حمله نمیخورد. حتی اگر کلی کلک و درخواست پیچیده میزدن، باز هم نتیجه با چیزی که میخواستن فرق داشت.
این نشون میده هرچی مدلهای هوش مصنوعی قویتر و قابل اعتمادتر میشن، کنترلهای امنیتی و محدودیتهاشون هم بیشتر میشه. فعلاً فقط تو محیط کنترلشده توی آزمایشگاه ممکنه بتونن کد مضر تولید کنن و هنوز اون کدها توی دنیای واقعی پر از اشکاله.
در کل، اگه نگرانی حملات کاملاً خودکار و بدون دخالت آدمها هستی، باید بگم هنوز خیلی مونده تا اون روز! اما از اون طرف بعید نیست مدلهای آینده خیلی سریع روی حفرههاشون کار کنن و برنامهنویسهای بدافزارم دست از تجربه برندارن.
الهی که همیشه سیستمهاتون سالم و امن باشه 😉 و اگه اخبار دنیای تکنولوژی رو دوست دارین، یادتون نره TechRadar رو دنبال کنین که پر از خبر و بررسی جذابه!
منبع: +