В связи с выявлением широко распространённых нарушений в использовании учётных данных Институт SANS предупредил, что гонка за внедрением ИИ в корпоративные рабочие процессы грозит опередить усилия в области безопасности. Выводы были сделаны в рамках исследования «Состояние угроз и защиты идентификации в 2026 году», основанного на интервью с более чем 500 ИБ-специалистами по всему миру.
76% организаций сообщает о росте числа «нечеловеческих идентичностей» (Non-Human Identity/NHI), таких как аккаунты служб, ключи API, боты автоматизации и идентификаторы рабочих нагрузок. Всё большее число из них связано с нейросетями: 74% респондентов уже использует ИИ-агентов или автоматизацию, требующую учётных данных.
В частности, агентный ИИ представляет собой потенциально новый риск безопасности, с которым, похоже, мало кто из опрошенных предприятий может справиться. Как отмечают авторы документа, агенты требуют разрешений для автономной работы и часто получают привилегированный доступ для прямого взаимодействия с критической инфраструктурой и данными.
Однако, в отличие от традиционных NHI, которые следуют фиксированной логике, агентный ИИ интерпретирует инструкции и может предпринимать непредсказуемые действия. Это означает, что он ведёт себя скорее как «сверхпривилегированный инсайдер», работающий со скоростью машины. Существует также риск галлюцинаций.
Между тем эксперты Forrester Research в прошлом году выразили мнение, что внедрение агентного ИИ приведёт к публично раскрытой утечке данных уже к концу текущего, и призвали компании следовать подходу «минимально жизнеспособной безопасности» для смягчения связанных с этим рисков.
По мнению авторов исследования, большинству организаций, по-видимому, не хватает скоординированного подхода к развёртыванию нейросетей, ориентированного на безопасность. Так, 92% опрошенных не обновляет учётные данные машин каждые 90 дней, опасаясь, что это может нарушить работу аккаунтов служб. 59% обновляет менее половины своих данных NHI ежеквартально. При этом 5% даже не знает, используют ли они вообще агентный ИИ в своей организации.
Сертифицированный инструктор Института SANS Ричард Грин предупредил, что компании предоставляют ботам полномочия по принятию решений быстрее, чем создают системы управления для их контроля: «Первые признаки управления обнадёживают — почти четыре из десяти организаций сейчас использует одобрение действий агентов ИИ с участием человека. Но настоящая проблема заключается в том, чтобы опережать эти системы по мере их перехода от пилотных проектов к основным операциям».
Институт SANS рекомендовал внедрение хранилищ секретной информации, автоматической ротации и ограниченного доступа с минимальными привилегиями в качестве защиты от рисков, связанных с агентным ИИ, но подчеркнул важность масштабирования этих усилий в соответствии с продолжающимся ростом числа «нечеловеческих идентичностей».
Усам Оздемиров






.png)