Международные агентства выпустили руководство по использованию ИИ в ОТ-системах
Несколько международных агентств по кибербезопасности выпустили новое руководство по использованию искусственного интеллекта в ОТ-системах. По их данным, оно поможет операторам критически важной инфраструктуры безопасно работать с ИИ.
В числе разработчиков документа Агентство по кибербезопасности и защите инфраструктуры США (CISA), Австралийский центр кибербезопасности (ACSC) и Национальный центр кибербезопасности Великобритании (NCSC).
Руководство описывает внедрение инструментов на основе машинного обучения, больших языковых моделей или ИИ-агентов. Положения из документа применимы и к традиционным системам автоматизации. Кроме преимуществ применения ИИ, включая экономию ресурсов, оно содержит данные о рисках использования ИИ-технологий в ОТ-системах. В частности, разработчикам ОТ-систем рекомендуется создать управляемые процессы для тестирования моделей, соблюдать нормативы и обеспечивать прозрачность в работе с данными.
Особое внимание в руководстве уделяется защите важной информации, связанной с работой промышленного оборудования. Речь идёт о двух типах данных: технические документы (подробные схемы устройств, списки оборудования) и рабочие показатели (различные измерения и параметры процессов, которые могут случайно попасть в ИИ-модель при обучении).
Авторы документа подчёркивают, что производители ОТ-решений всё чаще включают компоненты ИИ в устройства. Операторам систем рекомендуют требовать от производителей подробности использования ИИ-функций в устройстве и его методах обработки данных. Например, проблемы могут быть связаны с безопасностью при работе с облаком, ограничением по задержкам и обеспечением совместимости с устаревшими OT-системами.