По прогнозам Gartner, к 2030 году более 40% организаций в мире столкнётся с киберинцидентами из-за использования неавторизованных инструментов ИИ. Опрос руководителей ИБ-отделов показал, что 69% из них имеет доказательства или подозревает, что сотрудники используют общедоступный GenAI на работе.

Эксперты предупреждают, что такое поведение может увеличить риск потери интеллектуальной собственности, компрометации данных и других проблем безопасности и соответствия требованиям. Ещё в 2023 году Samsung была вынуждена запретить использование нейросетей внутри компании после того, как персонал поделился исходным кодом и протоколами совещаний с ChatGPT.

«Чтобы устранить эти риски, ИТ-директорам следует определить чёткие общекорпоративные политики использования инструментов ИИ, проводить регулярные аудиты на предмет их теневой активности и включить оценку рисков GenAI в свои процессы оценки SaaS-решений», — заявил аналитик Арун Чандрасекаран.

Выводы Gartner совпадают с результатами нескольких аналогичных исследований.

В прошлом году специалисты из Strategy Insights сообщили, что более трети организаций в США, Великобритании, Германии, странах Северной Европы и Бенилюкса столкнулось с трудностями при отслеживании несанкционированного использования ботов. Тогда же RiverSafe заявила, что у пятой части британских компаний конфиденциальные корпоративные данные предположительно были раскрыты из-за применения сотрудниками ИИ.

В Gartner предупредили, что даже законное использование нейросетей может иметь непредвиденные последствия: к 2030 году 50% предприятий столкнутся с задержками в обновлении инструментов этого класса и/или ростом затрат на обслуживание из-за неуправляемого технического долга. Задержка в обновлении, в частности, может создавать риски безопасности, если не управлять ею должным образом.

Арун Чандрасекаран заострил внимание на замыкании в экосистеме и снижении квалификации, которые могут возникнуть в результате чрезмерно активного использования GenAI: «Чтобы предотвратить постепенную потерю корпоративной памяти и возможностей, организациям следует определить, где человеческие суждения и мастерство имеют решающее значение, и разрабатывать решения на основе ИИ, которые дополняют, а не заменяют эти навыки».

 

Усам Оздемиров

21 ноября, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

09.04.2026
Александр Пушкин («Перспективный мониторинг»): «Даже корректно настроенный WAF не способен полностью блокировать все атаки на веб-ресурс»
09.04.2026
Хакеры атакуют американских поставщиков CNI
09.04.2026
Anthropic запускает Glasswing, чтобы бороться с критическими уязвимостями
08.04.2026
Рынок говорит: Кибербез — обязательная часть цифрового бизнеса
08.04.2026
Кибербезопасность в строительстве и ЖКХ станет одной из ключевых тем на Форуме ГосСОПКА
08.04.2026
Платформа Venom Stealer поставила на поток непрерывную кражу данных
08.04.2026
На FINNEXT 2026 обсудили, как ИИ-агенты и экосистемы меняют финрынок
08.04.2026
От адаптации к изобретению: подведены итоги 3-й ежегодной Премии FINNEXT
07.04.2026
Безопасники выявили опасную уязвимость в ChatGPT
07.04.2026
Власти Камбоджи хотят искоренить киберпреступность и работорговлю

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных