OpenAI предупредила о растущих киберрисках новых моделей ИИ
Компания OpenAI предупредила, что стремительно растущие киберспособности её передовых ИИ-моделей, вероятно, будут представлять более высокий уровень угрозы для кибербезопасности.
По мере развития возможностей может серьёзно увеличиться количество людей, способных проводить кибератаки. OpenAI уже фиксирует существенный рост этого показателя в последних релизах. Особенно это касается способности моделей работать автономно долгое время, что открывает путь для brute-force атак.
В августе GPT-5 в упражнении capture-the-flag показала результат 27%. В ноябре GPT-5.1-Codex-Max показала уже 76%. OpenAI ожидает, что будущие версии продолжат эту тенденцию. Поэтому компания планирует оценивать каждую новую модель с учётом риска роста уровня киберугроз. Пока OpenAI не сообщает о том, какие типы будущих моделей представляют наибольшую угрозу и вероятных сроках их появления.
Ведущие нейросетевые модели OpenAI и других разработчиков становятся всё эффективнее и в поиске уязвимостей. Поэтому компании решили усилить межотраслевое сотрудничество по вопросам киберугроз. Так, в 2023 году была создана некоммерческая организация Frontier Model Forum (Форум передовых моделей). Также OpenAI планирует создать совет по рискам передовых технологий (Frontier Risk Council). Это консультативная группа, куда пригласят внешних экспертов по кибербезопасности. Они будут работать вместе с командами OpenAI. Кроме того, OpenAI проводит закрытое тестирование инструмента Aardvark. Разработчики могут использовать его для поиска уязвимостей в своих продуктах. Для доступа к Aardvark нужно подать заявку.
Эксперты OpenAI отмечают, что ключевой фактор — способность модели работать продолжительное время без участия человека. При этом атаки методом перебора, основанные на долгой автономной работе, легче отразить.