Мировые агентства по кибербезопасности выпустили новое руководство, призванное помочь операторам критически важной инфраструктуры безопасно интегрировать искусственный интеллект в системы операционных технологий (OT).
Документ был разработан CISA (США) совместно с Австралийским центром кибербезопасности при участии международных партнёров, включая NCSC (Великобритания). Он посвящён таким явлениям, как машинное обучение, большие языковые модели и агенты ИИ, но при этом остаётся применимым к традиционным системам автоматизации на основе логики и статистики. В тексте рассматриваются как потенциальные преимущества нейросетей (в плане эффективности и затрат), так и уникальные проблемы безопасности, которые они создают в средах OT.
Согласно руководству, операторам критически важной инфраструктуры рекомендуется:
- понимать риски, связанные с ИИ, и внедрять безопасные методы разработки среди персонала;
- оценивать использование нейросетей в ОТ-средах, включая вопросы безопасности данных и интеграции;
- создавать структуры управления для постоянного тестирования моделей и соблюдения нормативных требований;
- осваивать методы защиты, обеспечивая прозрачность и имплементацию мер реагирования на инциденты.
ИБ-регуляторы также отметили, что поставщики ОТ всё чаще встраивают искусственный интеллект непосредственно в устройства. В связи с этим авторы документа советуют операторам требовать прозрачности в отношении функциональности ботов, цепочек поставок софта и политик использования данных. Проблемы же интеграции включают в себя сложность системы, риски безопасности в облаке, ограничения по задержке и обеспечение совместимости с устаревшими системами ОТ.
В руководстве также указывается, что контроль со стороны человека остаётся ключевым фактором в средах ОТ с поддержкой нейросетей. Мониторинг результатов работы ИИ, выявление аномалий и поддержка отказоустойчивых механизмов имеют решающее значение для эксплуатационной надёжности. Плюс, операторам настоятельно рекомендуется согласовывать интеграцию ботов с существующими системами кибербезопасности, проводить регулярные аудиты и соблюдать развивающиеся международные стандарты ИИ.
Усам Оздемиров






