ИИ играет в защите: где нейросети могут подвести

6 мин
95
10 февраля 2026
ИИ играет в защите: где нейросети могут подвести

Конец эпохи экспериментов

ИИ уже не просто дань моде, а следствие вполне утилитарного подхода — старые методы защиты уже не так хорошо справляются с текущим потоком угроз.

Где ИИ становится важным элементом ИБ:

  • Обнаружение вредоносного ПО и аномалий.
  • Прогнозирование рисков в реальном времени.
  • Снижение ложных срабатываний (False Positive).

Источник: CSO

Однако при всей привлекательности ИИ-решений, их внедрение всё ещё сопряжено с рядом нерешённых вопросов. Кроме того, глобальная статистика не всегда учитывает локальную специфику: дефицит кадров, регуляторные барьеры и уникальный ландшафт угроз.

Российский сценарий: от пилотов к практике

«За последние два-три года динамика внедрения ИИ-решений в ИБ в России стала устойчиво позитивной. Первые проекты были, в основном, экспериментальными: анализ логов, автоматическое выявление аномалий, базовый корреляционный анализ. Но к 2024-2025 годам интерес бизнеса перешёл в практические кейсы: автоматизация SOC, продвинутый анализ трафика, обнаружение сложных атак на ранних этапах, интеллектуальный triage инцидентов», — рассказал технический директор MD Audit (SL Soft FabricaONE. AI, акционер — ГК Softline) Юрий Тюрин.

По данным ряда исследований, доля компаний, которые уже используют или планируют использовать ИИ в ИБ, превышает 65%, а среди крупных организаций этот показатель ещё выше. При этом растёт и зрелость внедрений — от пилотов к промышленным инсталляциям, где ИИ интегрирован в основные процессы защиты и реагирования. Это отражает переход от интереса к внедрению и реальному использованию в операциях.

«Спрос на ИИ-функциональность в ИБ-решениях в России усиливается не только вследствие роста ИТ-угроз, но и из-за дефицита квалифицированных специалистов, что стимулирует автоматизацию аналитических задач», — говорит старший менеджер практики кибербезопасности компании «Технологии доверия» Антон Мерцалов. Внедрение ИИ в информбезопасности особенно заметно в крупных корпоративных структурах и государственных проектах, где ИИ становится частью общей стратегии повышения устойчивости к угрозам, отмечает он.

Вряд ли сейчас речь идёт о возникновении нового класса «защитных продуктов от ИИ-угроз», на которые потребуются отдельные бюджеты, говорит руководитель центра исследования киберугроз Solar 4RAYS ГК «Солар» Алексей Вишняков. «Скорее мы наблюдаем традиционную для мира кибербезопасности «гонку вооружений», когда на каждое новое «изобретение» атакующих индустрия выдаёт стратегию противодействия.

Например, в определённый момент группировки перестали «вкладываться» в разработку уникального вредоносного ПО, потому что ресурсов на его создание требуется много, а ИБ-индустрия научилась хорошо обнаруживать и блокировать такие угрозы. Зато в арсеналах злоумышленников появились общедоступные инструменты для тестирования безопасности, переделанные под цели атакующих, а распространённые тактики и техники стали включать в себя больше таких, которые требуют участия оператора для проведения атаки. Автоматически такие «ручные» атаки с общедоступными инструментами взлома распознавать сложнее, поэтому появились решения, которые обнаруживают не просто вредоносный код, но всю цепочку атаки или её часть», — рассказал эксперт.

Что реально работает

По оценкам экспертов, на российском рынке ИБ устоялись несколько ключевых классов решений, где применяется ИИ:

  • SIEM/XDR с ML/AI-аналитикой — автоматизация корреляции событий, выявление аномалий, снижение уровня ложных срабатываний;
  • EDR с поведенческим анализом — обнаружение сложных атак на конечных точках, где традиционные подходы уже не справляются;
  • автоматизированный triage и расследование инцидентов — ускорение реакции SOC, генерация гипотез по инцидентам, рекомендации по действиям;
  • AI-ассистенты для аналитиков — помощь в анализе логов, генерация отчетов, предварительная классификация инцидентов;
  • DAST/IAST для тестирования приложений — автоматизация поиска уязвимостей с элементами ИИ.

Появилось отдельное направление AI-решений для анализа цепочек поставок и оценки рисков третьих сторон, что особенно актуально на фоне роста атак через подрядчиков.

XDR и SIEM/SOAR остаются ключевыми источниками информации и средствами реагирования. В периметровой защите критичны стабильность и отсутствие задержек, поэтому внедрение AI в такие системы требует осторожности, говорит директор Департамента информационной безопасности компании «Айтеко» Владимир Баланин. В то же время в ряде инструментов, например, в Fraud Detection и сканерах кода или уязвимостей, алгоритмический анализ уже фактически стал стандартом, отмечает он.

Для повышения безопасности стоит внедрять поведенческий анализ и ИИ для обнаружения аномалий в реальном времени. Для предупреждения утечки информации на отечественном рынке есть DLP-системы, которые способны анализировать такие аномалии на корпоративном устройстве. Например, Solar Dozor реализован модуль поведенческого анализа UBA, рассказала менеджер продукта группы развития ML-технологий ГК «Солар» Полина Сокол.

Цена ошибки и парадокс доверия

Ключевая ценность ИИ-решений — снятие рутинной нагрузки. «У специалистов освобождается время на более сложные задачи, что повышает общую эффективность команды безопасности и позволяет концентрироваться на угрозах, которые требуют человеческого анализа и опыта, отмечает руководитель группы «Безопасная разработка» компании «Кросс технолоджис» Антон Редько.

Главный минус в том, что часть специалистов начинает слишком полагаться на ИИ, что может приводить к новым уязвимостям. «Внедрение решений на базе ИИ, особенно в ИБ, часто требует наличия специалистов, которые умеют с ним обращаться. Таким образом, внедрение ИИ ведёт не к экономии, а к перераспределению инвестиций в персонал, что требует дополнительных вложений в найм или обучение, — добавляет Антон Редько. — ИИ пока не идеальная технология, чтобы доверять ей серьезные и сложные процессы».

Ведущий эксперт по безопасной разработке в «К2 Кибербезопасность» Александр Лысенко обращает внимание на другой спорный вопрос: «Необходимо учитывать вероятностный результат ИИ и вопрос ответственности. Кто виноват, если ИИ пропустил инцидент или посчитал уязвимость как False Positive? Окончательного ответа на этот вопрос пока нет». Пока что ИИ — это скорее рекомендательное дополнение к существующим инструментам ИБ, считает он.

«Чёрный ящик», отравленные данные и дорогое железо

Существуют и другие вызовы, с которыми приходится считаться при внедрении ИИ-решений в контур защиты. «ИИ-технологии выглядят как процесс: «сырые данные» — «извлечение признаков» — «ИИ-алгоритмы и модели» — «выходные данные». На каждом из этих этапов есть свои нюансы, — отмечает Владимир Баланин. — Например, на первом этапе злоумышленники могут «отравлять» данные для обучения или создавать входные данные, которые обманывают модель. Извлечение признаков и построение моделей требуют качественной экспертизы, а также серьёзных инвестиций в инфраструктуру хранения, что затрудняет инхаус-разработку и создает риски раскрытия информации».

Модели и алгоритмы требуют значительных вычислительных ресурсов. Если их встраивают в критические системы, это добавляет ещё один слой обработки трафика или событий. В результате может вырасти задержка, увеличиться нагрузка на серверы и, как следствие, растёт стоимость аппаратной платформы, отмечает эксперт.

Кроме того, нельзя забывать, что ИИ-алгоритмы и модели — это интеллектуальная собственность разработчиков. Что может привести к необходимости применения облачных технологий и сложности обеспечения конфиденциальности.

Когда компания использует готовую модель, она получает так называемый «чёрный ящик»: алгоритм принимает решения, но его внутренняя логика не прозрачна. Могут возникнуть сложности с интерпретацией данных и настройкой решения, говорит Владимир Баланин.

При внедрении ИИ-решений в ИБ по-прежнему ключевым вызовом остаётся и организационный фактор. На регуляторном уровне в России всё ещё формируется нормативная база. «Федеральная служба по техническому и экспортному контролю (ФСТЭК) включает угрозы, связанные с использованием ИИ, в банк данных угроз безопасности информации. Это подчёркивает необходимость учитывать риски ИИ в защите критических ИТ-систем», — сказал Антон Мерцалов. Одновременно анонсируются стандарты по безопасной разработке и эксплуатации ИИ-систем в дополнение к традиционным требованиям по созданию безопасного ПО. Это, говорит он, отражает системный тренд на разработку требований к ИИ.

Приказ ФСТЭК № 117: что изменилось, как подготовиться и не сорвать аттестацию

Существенным практическим ограничением остаётся дефицит квалифицированных ИБ-специалистов и экспертов, способных корректно адаптировать, интегрировать и эксплуатировать ИИ-модули, например, в существующих SOC-процессах.

Кроме того, многие организации сталкиваются с отсутствием зрелых MLSecOps-метрик, а также нехваткой качественных данных для обучения моделей, что требует дополнительных ресурсов и времени, отмечает Антон Мерцалов. «Технологические проблемы, такие как предвзятость моделей, ложные срабатывания и трудности интерпретации результатов ИИ, напрямую влияют на доверие к автоматизированной аналитике и усиливают нагрузку на команды безопасности», — уверен он.

Ловушка завышенных ожиданий

Повышенное внимание к ИИ-технологиям приводит к двойственной ситуации. С одной стороны, это привлекает инвестиции, ускоряет обсуждение решений, стимулирует заинтересованность поставщиков и ускоряет появление продуктов. «Бизнес готов пробовать автоматизацию и инструменты, которые обещают повышение эффективности при снижении нагрузки на команды ИБ», — говорит Юрий Тюрин.

С другой стороны, возникает иллюзия «волшебной таблетки». «ИТ-лидеры нередко воспринимают ИИ как универсальное решение без учёта его ограничений, потребности в качественных данных и сложностей интеграции с существующими системами. Международные исследования указывают на наличие значительного разрыва между потенциальной пользой ИИ и практическими барьерами, включая сложность интеграции и недостаток экспертиз», — отмечает Антон Мерцалов.

ИИ воспринимается как панацея, что может приводить к разочарованию от первых внедрений, если не определены чёткие цели и метрики. «Это мешает зрелому внедрению, когда ИИ рассматривают как инструмент сопровождения экспертов, а не замены людей», — считает Юрий Тюрин.

Курс на опережение

Несмотря на скепсис и болезни роста, эксперты смотрят на перспективы ИИ-решений с оптимизмом. Российская отрасль кибербезопасности за 2022–2024 годах выросла в 1,5 раза, обогнав по динамике весь ИТ-рынок. Как ожидается, она будет в среднем увеличиваться на 15% год и к 2030 году достигнет 681 млрд руб.

«Увеличение спроса на мониторинг и аутсорсинг ИБ-услуг дополнительно стимулирует внедрение ИИ-инструментов. В среднесрочной перспективе тенденции будут смещаться от реактивных сценариев к предиктивной аналитике, автоматизированному управлению рисками и интеграции ИИ-средств с бизнес-целями. Успех будет напрямую зависеть не только от технологий, но и от инвестиций в подготовку кадров, процессов управления и зрелой оценки рисков», — полагает Антон Мерцалов.

Впрочем, ИИ пока рано относить к обязательному элементу защиты, убеждены эксперты. Для этого должна всё-таки появиться нормативная база, которая бы регламентировала использование подобных решений.

Однако ИИ продолжит активно внедряться там, где он показывает экономический эффект. «Бизнес должен зарабатывать, а сокращение издержек за счёт автоматизации и снижения нагрузки на ИБ-специалистов будет хорошим драйвером этого процесса», — считает Владимир Баланин.

Безусловно, искусственный интеллект в DLP автоматизирует и ускоряет работу ИБ-специалиста: много подробностей инцидентов сразу доступны в системе, их не нужно собирать и обрабатывать вручную. При этом автоматика не заходит на поле человека и не принимает за него решения, чтобы не допустить ошибок. Нужно понимать, что «последнее слово» всегда остаётся за ИБ-специалистом, и он должен, как и раньше, полностью контролировать ситуацию.

Важное по теме
Новости
Читать 3 минуты
11.02.2026
Хакеры Warlock Group взломали офисную сеть через почтовый сервер
Новости
Читать 3 минуты
11.02.2026
Вредоносный инструмент перехватывает трафик и распространяет бэкдоры
Новости
Читать 3 минуты
11.02.2026
Большинство установок ИИ-ассистента содержат критические уязвимости
Оставьте комментарий
Доступно для авторизованных пользователей
1/1000