ИИ vs пентестер: может ли машина заменить человека

6 мин
98
4
18 февраля 2026
ИИ vs пентестер: может ли машина заменить человека

Революция в инструментах

В 2025 году 94% внутренних тестов на проникновение завершилось полным захватом корпоративной сети (в 2024 году — 85,7%). Этот показатель реалистично отражает уровень уязвимости компаний, считает эксперт центра исследования киберугроз Solar 4RAYS ГК «Солар» Владимир Степанов. «Цифра говорит и о недостаточной зрелости процессов безопасности: многие организации продолжают воспринимать защиту как формальность, вместо того чтобы интегрировать её в архитектуру и повседневную операционную практику. По опыту расследований при проникновении атакующего во внутреннюю сеть он раньше или позже получит доступы во многие или даже все интересующие его подсети и системы, достаточно редко встречая непреодолимые преграды», — отмечает эксперт.

Кроме того, нужно учитывать и сторону атакующих. «Современные хакеры, например украинские хактивисты, часто имеют опыт работы в среде пентеста или redteam. Это означает, что даже при относительно простых ошибках инфраструктуры злоумышленники способны быстро превращать уязвимости в реальные компрометации», — рассказал Владимир Степанов.

Последние два года стали переломными в истории проактивной киберзащиты. Организации всё чаще вместо классической модели «сканирование и патчинг» пробуют автономный пентест с использованием ИИ-инструментов. Такие системы анализируют, принимают решения и действуют как виртуальная redteam-команда, работающая в режиме 24/7.

ИИ-агенты становятся частью новой методологии автоматизации пентеста, считает руководитель группы разработки искусственного интеллекта GreenData Александр Перевалов. Они способны моделировать поведение специалиста: формировать план тестирования, вызывать внешние инструменты, анализировать результаты и готовить итоговый отчёт. «Языковые модели, лежащие в их основе, могут быть дополнены данными из внешних источников, например корпоративных баз знаний. Это позволяет повышать эффективность пентестов благодаря автоматизации рутинных и аналитических задач», — отметил эксперт.

В топе готовых зарубежных ИИ-решений для пентеста — сервисы Hexstrike AI, Burp Suite Pro, Burp AI, XBOW и NodeZero. Hexstrike AI, например, содержит более 150 встроенных инструментов безопасности и управляется 12+ автономными ИИ-агентами, способными координировать сложные сценарии атак. NodeZero проводит более 100 тысяч автономных тестов на проникновение, используя ИИ для принятия решений. «Растёт класс «автономного пентеста» и security-validation платформ, например, NodeZero от Horizon3.ai и решения уровня Pentera: они позволяют чаще прогонять типовые атаковые пути и фиксировать подтверждённые векторы риска», — рассказал архитектор web-разработки UserGate Олег Пименов.

Среди популярных open source инструментов — фреймворк CAI (Cybersecurity AI Agent), ИИ-ассистент Nebula (BerylliumSec), платформа Strix и Promptfoo. Также специалисты часто используют PentestGPT, позволяющий автоматизировать все ключевые этапы пентеста.

В российском сегменте в основном развиваются коробочные решения для автопентестинга, позволяющие снизить число штатных аналитиков-пентестеров, рассказала инженер-аналитик компании «Газинформсервис» Ирина Дмитриева.

Ещё один тренд российского ИБ-рынка — рост популярности концепции «ИИ-ассистент + непрерывность», когда появляются GenAI-помощники в продуктах крупных игроков (Cubi, CPT). Как правило, речь идёт про точечные функции (суммаризация, классификация, подсказки, автогенерация артефактов), а не полностью автономный offensive-агент, который уверенно держит контекст цели без участия эксперта, рассказал Олег Пименов.

Где ИИ лучше

Сегодня ИИ-инструменты способны закрыть большинство рутинных задач Red team. В их числе:

  • быстрое и массовое сканирование систем, эндпоинтов и обработка большого массива данных;
  • анализ IAM-политик во множестве облачных учётных записей для выявления путей эскалации привилегий;
  • выявление слабых конфигураций и моделирование базовых цепочек атак на основе результатов сканирований;
  • создание рабочих PoC, разработка пейлоадов, обфускация кода;
  • персонализация фишинговых атак за счёт OSINT-возможностей и быстрой генерации подходящего текста;
  • и многое другое.

ИИ-решения помогают грамотно оценивать поверхности атаки в больших сетях при обилии легаси, облачных гибридных сред и SaaS-решений, а также быстро перебрать результаты сканеров (например, Burp, OWASP Zap, nmap) и сформировать гипотезы проведения потенциальных атак, отметила Ирина Дмитриева. «Охват автотестированием позволяет круглосуточно контролировать важнейшие ветки внутренней разработки: проверка новых релизов и полного цикла CI/CD, анализ защищённости микросервисных компонентов архитектуры. Для человека проверка воздействия в «ручном» режиме от каждого нового коммита проблематична. ИИ-тулзы превосходны в рутинных задачах по заданным паттернам, начиная от первичной разведки и завершая шаблонными веб-атаками, переборами параметров и финальной генерацией отчётов», — рассказала она.

Есть области, в которых ИИ-системы стали обязательным элементом работы. Например, как отметил Олег Пименов, уже сейчас очень востребованы ИИ-поддержка триажа и репортинга. Также ИИ остро необходим при работе над задачами, требующими срочного повышения производительности.

Ведущий специалист отдела по работе с уязвимостями ИС компании «Бастион» Сергей Зыбнев в числе must have-функций ИИ выделил парсинг логов, конвертацию форматов данных, генерацию wordlist, первичную сортировку находок и подготовку черновиков документации. «ИИ лучше справляется с первичным триажом находок. При сканировании инфраструктуры «сыпется» сотня алертов, которые LLM отсортирует по критичности и отбросит очевидный «шум» — это экономит часы ручной работы», — рассказал эксперт.

ИИ‑системы стали по‑настоящему необходимы там, где нужно резко повысить производительность — от первичного анализа до автоматизации типовых задач, говорит руководитель продукта «Гарда NDR» компании «Гарда» Станислав Грибанов. «Однако общий тренд на российском рынке пока не сформирован. В ряде направлений вендорами даже продвигается обратный подход, основанный на реверс-инжиниринге вредоносного ПО и разработке правил детектирующей логики «цифровых отпечатков» известных атак», — отметил он.

Недостатки ИИ как redteam

Несмотря на впечатляющий прогресс, ИИ имеет серьёзные ограничения, которые не позволяют технологии полностью заменить пентестера-человека.

Непонимание контекста. ИИ идеально использовать в качестве сканера, но это инструмент, а не стратег. Пока он не способен увидеть и оценить полноценную картину происходящего и массово выявлять сложные уязвимости. «Нейросети не могут перенять весь опыт и интуицию реального человека. LLM не понимают бизнес-логику конкретной компании. Модель видит код — пентестер видит намерение разработчика и где оно расходится с реализацией», — сказал Сергей Зыбнев.

Человеческий подход предполагает творчество, адаптацию к нестандартным ситуациям и анализ контекста, автоматизированный — скорость, масштаб и повторяемость атак, отмечает менеджер продукта группы развития ML-технологий ГК «Солар» Полина Сокол.

«Уже сегодня ИИ может генерировать код для эксплойтов, анализируя огромные массивы данных (включая открытый код в интернете), но качество такого кода часто оставляет желать лучшего. Он может быть грязным, избыточным или содержать ошибки. Человеку-разработчику приходится тратить время на доработку такого кода, чтобы он стал безопасным и эффективным. На российском рынке уже есть решения, которые могут анализировать коды на безопасность. Например, это Solar Appscreener, который обеспечивает комплексную безопасность разработки приложений благодаря технологиям статического, динамического анализа, анализа состава и цепочки поставок ПО (SAST, DAST, OSA). ИИ может предложить множество вариантов атак или обхода защиты, но для создания действительно сложных, точечных эксплойтов требуется экспертное участие», — говорит она. В будущем ИИ сможет автоматизировать поиск и эксплуатацию уязвимостей, но полная замена человека маловероятна, считает Полина Сокол.

Специалист думает медленнее, но его аналитика глубже в ряде сценариев потенциальных атак, говорит Ирина Дмитриева. «Для высококвалифицированного специалиста самые дорогие уязвимости рождаются при анализе вариантов обхода мер антифрода, злоупотребления бизнес-процессами и сложной, многоэтапной реализацией сценариев злоупотребления ресурсами», — пояснила она.

Отсутствие адаптивности. Человек интуитивно понимает приоритеты и обладает динамическим мышлением, необходимым в ситуациях, когда каждый шаг корректируется на лету для максимального продвижения по Сети. Без правильно собранного инструментария, прав и контекста LLM склонна деградировать в линейное следование подсказкам и скриптам. «LLM не обладает навыками адаптивного пивота. Когда специалист получает shell на сервере, он понимает, куда идти дальше, — это вывод на основе десятков факторов: процессов, найденных кредов или того, какая сетевая топология «ощущается». LLM не умеет принимать решения «динамически» в условиях неполной информации», — отметил Сергей Зыбнев. Алгоритмы ИИ опираются на паттерны, заявленные в рамках обучения, но они не понимают неописанные информационные системы, сказала Ирина Дмитриева. Человек ломает границы и шаблоны, пробуя креативные подходы к проведению атак.

ИИ — не человек. Нередко для продвижения по инфраструктуре необходимо прямое взаимодействие с реальным миром и людьми, чего ИИ просто не может сделать. «У нейросетей не получится осуществить физический пентест — позвонить в бухгалтерию, представиться сисадмином и выудить пароль», — говорит Сергей Зыбнев.

Законодательные ограничения. Текущие нормативные требования не позволяют исключить специалиста-человека из рабочего цикла. Аудиторы и регуляторы, кроме результатов тестирования, ожидают объяснения, как были проведены тесты и почему были определены конкретные риски. «ИИ не может нести ответственность за полученный результат. Верификацией составленных отчётов по-прежнему занимается эксперт, его задача также защита отчёта перед руководством, для которого устранение уязвимостей является критично значимой процедурой», — пояснила Ирина Дмитриева.

Использование ИИ не всегда безопасно. Это серьёзная проблема для всех redteam, имеющих доступ к крайне чувствительным данным. Сергей Зыбнев выделил несколько центральных проблем использования LLM-инструментов в пентесте:

  • утечка данных клиента — когда пентестер «скормил» логи с чувствительными данными в открытую нейросеть и потенциально нарушил NDA, отдав данные клиента в обучающую выборку;
  • невозможно избавиться от «галлюцинаций» в отчётах — модель может уверенно писать, что нашла SQL-инъекцию там, где её нет, из-за чего создаётся риск ложноположительных срабатываний в отчёте;
  • постоянное использование LLM джуном для написания эксплойтов как минимум не способствует развитию собственного понимания;
  • Prompt Injection во время форензики — атакующий анализирует логи клиента через LLM, которого заразил вирус-шифровальщик, и встречает в логах скрытые инструкции, их инструмент считывает как команду и выполняет.

«Моя позиция «злая» — спасибо ИИ и дуракам, которые вайб-кодят, ломать будет много чего, потом что ИИ генерит лапшу, а не адекватный код и не заботится о безопасности», — считает один из белых хакеров, пожелавший остаться неназванным.

Снизить риски поможет использование локальных ИИ-моделей для работы с чувствительными данными (Ollama + Mistral), оставив облачные сервисы только для общих задач (написать шаблон отчёта, объяснить технологию и «накидать» структуру скрипта без контекста клиента). Эксперты предлагают следовать концепции «LLM = junior-стажер»: всё, что ИИ выдал, требует code review, а каждую «найденную уязвимость» необходимо проверить.

ИИ-решения способны закрывать рутинные задачи и определять типовые уязвимости, но если надо провести глубокое качественное исследование и найти сложные сценарии атак — нужно обращаться к реальным специалистам, убеждены эксперты. При этом ИИ даёт очевидные преимущества, от которых нельзя отказываться, если компании важна скорость реакции на быстро меняющиеся тренды в ИБ. Поэтому организации всё чаще прибегают к гибридной модели работы — грамотное и осторожное использование современных систем квалифицированными специалистами-людьми.

ИИ меняет профессию пентестеров

«Нейросеть не заменит живого человека, но однозначно изменит профессию. Через пять лет пентестер без навыков работы с ИИ-инструментами будет как пентестер без Burp в 2015 году: технически — возможно, практически — неконкурентоспособно. На горизонте 2026— 2027 годов ожидается рост спроса на middle+ специалистов, которые совмещают классические навыки с умением эффективно использовать LLM», — считает Сергей Зыбнев.

Новыми задачами для пентестеров станет работа с ИИ-тулзами, написание новых ИИ-агентов с учётом задач организации, верификация отчётов из систем и работа со сложными векторами атак, полагает Ирина Дмитриева. «Первостепенно от кандидата требуются понимание ограничений ИИ (при работе с внутренней информацией организации) и грамотная интеграция в процессы компании, включая пайплайны, шаблоны и агенты», — отметила она.

На горизонте 2026–2027 годов можно ожидать не сокращения спроса на пентестеров, а его перераспределения, предполагает Александр Перевалов. Рынку будут особенно нужны специалисты, умеющие использовать ИИ в пентестинге и тестировать не только классические ИТ-системы, но и решения с ИИ «под капотом». В ближайшие годы пентест станет менее рутинным и более исследовательским, с акцентом на сложные, нетривиальные задачи.

Важное по теме
Новости
Читать 3 минуты
19.02.2026
Атака началась с документа с предложением о сотрудничестве
Новости
Читать 3 минуты
19.02.2026
Вредонос внедряют в заводскую прошивку устройств
Новости
Читать 3 минуты
19.02.2026
Компании встраивают скрытые команды в кнопки «Суммировать с помощью ИИ»
Оставьте комментарий
Доступно для авторизованных пользователей
1/1000