В компании TrendAI предупреждают, что навыки, используемые для выполнения операций на основе искусственного интеллекта, сопровождаются риском кражи данных, саботажа и сбоев. Авторы свежего отчёта пришли к выводу, что такие ИИ-скиллы представляют собой «артефакты, объединяющие удобочитаемый текст с инструкциями, которые могут читать и выполнять большие языковые модели».

Сюда входят такие элементы, как человеческий опыт, рабочие процессы и операционные ограничения — вплоть до логики принятия решений, считают эксперты. Благодаря алгоритмам и навыкам работы с ними организации способны достигать масштабируемости и передачи знаний на ранее недостижимом уровне. Примерами такого подхода служат Agent Skills от Anthropic, GPT Actions от OpenAI и Copilot Plugin от Microsoft.

Однако это также представляет риск для корпоративной безопасности, так как потенциально приводит к утечке данных клиентов или иной конфиденциальной информации. «Если злоумышленник получит доступ к логике, лежащей в основе навыка, это может предоставить ему значительные возможности для эксплуатации»,— пояснили эксперты.

Имея доступ к оперативным данным и бизнес-логике, злоумышленники нарушают работу госслужб, саботируют производственные процессы, похищают сведения о пациентах и многое другое. Подобные риски особенно остро стоят для центров мониторинга информационной безопасности с поддержкой ИИ. Хакеры способны выявлять и использовать в них «слепые зоны» обнаружения. Инъекционные атаки в этом отношении представляют собой серьёзную проблему, отметили в TrendAI.

При этом многие из инструментов безопасности не могут эффективно анализировать и смягчать угрозы, исходящие от неструктурированных текстовых данных, которыми являются вышеупомянутые ИИ-навыки. Чтобы помочь ИБ-командам, в отчёте была представлена ​​новая восьмиэтапная модель цепочки атак, демонстрирующая новые возможности обнаружения вредоносной активности. Так, рекомендуется проводить мониторинг целостности скиллов, искать манипуляции с логикой SOC и выявлять аномалии в доступе к учётным данным.

В заключение специалисты сделали следующие выводы:

  • рассматривайте навыки как конфиденциальную интеллектуальную собственность, оценивая и снижая риски на протяжении всего жизненного цикла, используя надлежащий контроль доступа, версионирование и управление изменениями;
  • отделяйте логику навыков от ненадёжных данных, предоставляемых пользователям: последние могут привести к возможностям эксплуатации;
  • применяйте принципы минимальных привилегий при проектировании навыков и ограничивайте контекст выполнения минимально необходимыми разрешениями, чтобы предотвратить горизонтальное перемещение;
  • проверяйте, как злоумышленники могут использовать операционную логику, до развёртывания;
  • постоянно проводите аудит, как и для любого бизнес-процесса. Это особенно важно в средах с поддержкой ИИ, где традиционные границы безопасности размываются.

 

Усам Оздемиров

24 февраля, 2026

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

06.03.2026
В России пересчитают весь «пластик»
06.03.2026
«Информация используется для обеспечения корректной работы звонков»
06.03.2026
Двойная экспертиза: Servicepipe и «Спикател» запускают совместный образовательный проект
06.03.2026
Телевизор теперь тоже часть КИИ
06.03.2026
Anthropic — угроза цепочке поставок национальной безопасности?
06.03.2026
Импортозамещение в финсекторе станет плавнее
05.03.2026
Безопасники: Проверка на возраст социально неприемлема
05.03.2026
ИИ помогает хакерам наблюдать за экраном смартфона жертвы
05.03.2026
Резиденты Telegram и WhatsApp станут иностранцами
05.03.2026
«Запрет публичных GenAI-сервисов при высоком спросе — это не барьер, а драйвер»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных