OpenAI представила модель ИИ для команд кибербезопасности
Компания OpenAI запустила специализированную модель искусственного интеллекта для специалистов по информационной безопасности. Новая разработка получила название GPT-5.5-Cyber и представляет собой адаптированную версию последней ИИ-модели компании. Доступ к системе предоставляется в ограниченном режиме только проверенным командам безопасности.
Релиз состоялся через месяц после того, как компания Anthropic представила собственную модель для задач кибербезопасности под названием Mythos. Появление двух специализированных решений с небольшим временным интервалом указывает на обострение конкуренции между разработчиками искусственного интеллекта за корпоративный рынок защиты информации. Для OpenAI это первая серьёзная попытка закрепиться в сегменте специализированных решений для бизнеса за пределами универсальных чат-ботов.
OpenAI изменила привычную практику и ввела процедуру проверки для всех команд, желающих получить доступ к GPT-5.5-Cyber. Ранее компания делала свои модели общедоступными. Такой подход связан с чувствительностью технологии. По мнению разработчиков, ИИ-инструменты для кибербезопасности могут использоваться как наступательное оружие. Система способна находить уязвимости нулевого дня или создавать фишинговые кампании с высокой скоростью.
Запуск Mythos от Anthropic вызвал большой интерес в корпоративном секторе. Модель обещает помогать командам выявлять уязвимости и реагировать на угрозы быстрее, чем аналитики без помощи машинных алгоритмов. По имеющимся сведениям, несколько CISA-компаний из списка Fortune 500 запросили доступ к системе сразу после анонса. Кроме того, в СМИ появилась информация, что Агентство национальной безопасности США использует новую модель искусственного интеллекта Mythos Preview.
Технические характеристики GPT-5.5-Cyber пока не раскрываются. OpenAI не опубликовала спецификации и результаты тестов. По данным отраслевых исследований, среднестатистическая компания обрабатывает 4484 оповещения системы безопасности ежедневно. Организациям требуется в среднем 277 дней для обнаружения и локализации утечки данных. Модели искусственного интеллекта, способные сократить этот срок до часов или минут, дают критически важное преимущество.