Согласно отчёту Netskope «Облачные технологии и угрозы за 2025 год», 47% людей, использующих на рабочем месте инструменты генеративного ИИ (ChatGPT, Google Gemini и Microsoft Copilot), делают это с помощью личных учётных записей и приложений, что приводит к отсутствию прозрачности и контроля.
В результате возрастает риск кибербезопасности и появления проблем с нарушением политики обработки данных, а также опасность утечки конфиденциальной корпоративной информации. «Хотя число пользователей в среднем утроилось, объём данных, отправляемых в приложения SaaS-технологий на основе ИИ, вырос в шесть раз — с 3000 до 18 тысяч запросов в месяц. При этом 25% ведущих организаций инициирует более 70 тысяч запросов в месяц, а 1% — более 1,4 млн», — говорится в отчёте.
В Netskope выяснили, что за последний год количество известных нарушений политики обработки данных в результате использования сотрудниками генеративного ИИ и LLM-систем удвоилось (примерно 3% из них совершает в среднем 223 нарушения в месяц).
В 25% организаций, наиболее активно применяющих технологии GenAI, в среднем регистрировалось 2100 инцидентов ежемесячно. Они связаны с отправкой нейросетям исходного кода, конфиденциальных сведений, интеллектуальной собственности и даже учётных данных для входа в систему.
Эксперты советуют обеспечить наличие эффективных политик для максимальной прозрачности работы с чат-ботами, а также уведомлять сотрудников о возможных рисках взаимодействия с ИИ. Похоже, компании уже начинают делать выводы и ужесточать контроль за «теневыми» LLM: процент специалистов, использующих личные аккаунты в ИИ-приложениях на рабочем месте, снизился с 78% до 47% по сравнению с предыдущим годом.
Усам Оздемиров





.png)