Согласно новому исследованию ISACA, 90% специалистов по цифровому доверию отмечает, что сотрудники их организаций применяют ИИ-инструменты. Однако менее половины компаний имеет какие-либо политики безопасности или защиты ИИ, что потенциально делает их уязвимыми для утечек данных, нарушений конфиденциальности и других киберугроз. Опрос основан на ответах 3400 респондентов со всего мира.

Только 38% заявило, что такая политика носит в их организации всеобъемлющий характер, тогда как 30% отмечает её ограниченность. Несмотря на рост использования нейросетей на рабочем месте, 25% опрошенных усомнилось в наличии у них вообще каких-либо политик в отношении ботов.

Такое положение привело к появлению «теневого ИИ» — когда сотрудники применяют LLM в своей повседневной работе, создавая риски утечек конфиденциальной информации. Участники ежегодного опроса ISACA выразили неуверенность в том, что смогут предотвратить инцидент, вызванный инструментом теневого ИИ, который неизвестен ИТ-специалистам и безопасникам.

В общей сложности 56% респондентов не знает, сколько времени потребуется для остановки ИИ-системы, подвергшейся взлому. Лишь 20% сообщило, что в их организации есть какой-либо процесс для отключения или переопределения сервисов в случае возникновения таких проблем, как вредоносная деятельность ИИ или воздействие на языковые модели атак с отравлением данных.

«Учитывая, что только 38% специалистов уверено в понимании советом директоров рисков, связанных с ИИ, дефицит лидерства так же реален, как и дефицит технологий, — констатировала Ульрика Деллруд, член рабочей группы ISACA по новым тенденциям и главный специалист по конфиденциальности и этике данных в Smarter Contracts. — Эффективное управление ИИ также начинается с освоения ваших данных. Без этого невозможно управлять рисками, обеспечивать доверие или создавать устойчивую ценность. Путь вперёд ясен: успех ИИ будет зависеть не только от инноваций, но и от ответственного, дисциплинированного управления данными и информированного лидерства».

Исследование — среди прочего — показало убеждённость безопасников в том, что киберугрозы, создаваемые нейросетями, усиливаются. Тем не менее, по словам многих респондентов, ИИ предоставляет преимущества для ИБ-специалистов, улучшая способность их компаний обнаруживать киберугрозы и реагировать на них.

 

Усам Оздемиров

7 мая, 2026

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

07.05.2026
17% родителей помогает детям пройти проверку возраста в Сети
07.05.2026
Бизнес прибегает к самописным решениям из-за возможности сэкономить
07.05.2026
ISACA: Дефицит технологий и лидерства подпитывает уязвимость для киберрисков
06.05.2026
Россияне не хотят сдавать биометрию — рынок адаптируется
06.05.2026
АБД: Регулирование не должно приводить к появлению новых барьеров
06.05.2026
РБК: Минцифры может лишиться 15% специалистов
06.05.2026
«Мы не ожидаем, что у роста безналичной оплаты уже наступил некий предел»
06.05.2026
Белый дом начнёт инспектировать ИИ-системы?
06.05.2026
«ДиалогНаука» внедрила решения ViPNet для защиты МБ РУС Банка
05.05.2026
CISA и партнёры рекомендовали Zero Trust на основе конвергенции ИТ и ОТ

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных