Нейросети неспособны создавать автономные кибератаки
Эксперты из Netskope устроили эксперимент с чат-ботами GPT-3.5-Turbo, GPT-4, GPT-5. Модели использовали для создания вредоносных Python-скриптов по обходу безопасности и обнаружению виртуальных машин. GPT-3.5 сразу сгенерировал запрашиваемый код. GPT-4 сначала сопротивлялся запросу, но после хитрой подсказки сдался. Полученные скрипты успешно работали на физических машинах, но в виртуальных окружениях, например в VMware и AWS, были неэффективны или отказывались функционировать вовсе. Также написанные сценарии порой неправильно определяли среду и были нестабильны.
Как объяснили кибербез-спецы, автоматическое, универсальное и надёжное вредоносное ПО, созданное ИИ, отличается нестабильным кодом и требует доработки человеком.
Последней в тестах была модель GPT-5. Качество кода, созданного с её помощью, заметно улучшилось, особенно в облаке, в отличие от предыдущих скриптов. Однако ИИ перестал просто отклонять вредоносные запросы, он начал их пересоздавать в безопасные функции. Исследователи использовали более сложные подсказки, но результат всё равно был далёк от идеала для многоступенчатых атак.
Специалисты ИБ подтверждают, что большие языковые модели могут создавать потенциально вредоносные алгоритмы, но реализация таких скриптов нестабильна и часто неэффективна. Риски массовых автономных кибератак с ИИ пока низки, реальные инциденты по-прежнему требуют участия человека. Тем не менее хакерские команды занимаются улучшением ИИ-систем. Нельзя исключать, что в будущем нейросети смогут эксплуатировать уязвимости быстрее, чем системы защиты обнаруживать атаки.
По результатам тестов оказалось, что традиционные методы защиты (антивирусы, брандмауэры и другие) остаются надёжными средствами от большинства новых киберугроз.