Ernst & Young: Быстрое внедрение ИИ-агентов требует усиления контроля

По мнению экспертов Infosecurity Europe, агентный ИИ и инструменты ИИ, которые подключаются друг к другу без человеческого контроля, представляют собой растущие риски безопасности.

ИИ-агенты работают с высокой степенью автономности. Агентная система может выбирать модель, которую она использует, передавать данные или результаты другому инструменту и даже принимать решение без одобрения человека. Они работают быстрее, чем системы предыдущего поколения, основанные на больших языковых моделях (LLM), поскольку не нуждаются в том, чтобы человек давал им инструкции. Также они могут обучаться на ходу, адаптируя используемые ими модели и подсказки.

Трудности могут возникнуть в том случае, когда организации объединяют компоненты ИИ, такие как генеративные инструменты или чат-боты, без дополнительных проверок или позволяют агентам принимать автономные решения. Это уже происходит в ИТ, в таких областях, как написание кода и настройка систем. Риск становится выше, если развёртывание ИИ в организациях продвигается быстрее, чем средства контроля безопасности.

Согласно исследованию консалтинговой компании Ernst & Young, только 31% организаций заявляет, что их внедрение ИИ полностью зрелое. Кроме того, EY обнаружила, что управление нейросетями в компаниях преимущественно отстаёт от инноваций в этой сфере. В первую очередь это касается агентного ИИ, который может увеличить риски, уже выявленные организациями с помощью LLM. Агентные системы подвержены всем тем же рискам, включая быстрое введение, отравление, предвзятость и неточности.

Однако ситуация может стать серьёзнее, когда один агент передаёт неточные или предвзятые данные другому. Даже довольно низкий уровень ошибок, в несколько процентных пунктов или меньше, может стать значительной проблемой, если он усугубляется в подсистемах. Безопасность пострадает ещё больше, если инструменты ИИ подключены к источникам данных, находящимся вне контроля предприятия.

«Вместо того чтобы ИИ напрямую общался с людьми, он общается с другими системами ИИ, — пояснил доктор Андреа Изони, директор по ИИ в AI Technologies. — Нам нужен промежуточный уровень безопасности ИИ, особенно если вы собираете или получаете информацию извне».

Исследование EY показало, что 76% компаний уже использует агентный ИИ или планируют сделать это в течение года. Меж тем, только 56% заявило, что они умеренно или полностью знакомы с рисками.

По словам Руди Лая, директора по безопасности ИИ в Snyk, быстрое внедрение агентного ИИ подталкивает организации к ужесточению контроля и политик. Эксперт предлагает использовать такие инструменты, как спецификации материалов ИИ, чтобы проверить, какая технология где используется, а также документировать соединения и передачи между агентами ИИ.

 

Усам Оздемиров

16 июня, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

20.11.2025
EU IRU противостоит попыткам экстремистов завербовать граждан
20.11.2025
ЛК: «Мамонт» не вымер, а «Триада» нашла новый канал распространения
20.11.2025
Половина россиян ожидает помощи от банков при блокировке перевода
20.11.2025
Клубничная диета — только для гарантированно совершеннолетних
20.11.2025
Операция «Эндшпиль 3.0» уничтожила три крупные вредоносные сети
19.11.2025
АЛРОСА переходит на отечественный архиватор ARZip
19.11.2025
Хакеры сумели «приручить» Claude Code, чтобы автоматизировать атаки
19.11.2025
«Давление на пользователей через социальную инженерию будет расти быстрее технических мер защиты»
19.11.2025
Cloudflare: Мы работаем над тем, чтобы подобное не повторилось
19.11.2025
Законопроект о кибербезопасности и устойчивости в Великобритании приняли с воодушевлением

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных