Настоящая статья посвящена складывающейся ситуации с растущей угрозой утечек конфиденциальной корпоративной информации, вызванной неконтролируемым использованием сотрудниками публичных сервисов искусственного интеллекта (ИИ-сервисов).
Практика «быстро обратиться к генеративному ИИ» превращается в устойчивый канал вывода данных из корпоративной среды: в запросы уходят фрагменты кода, внутренние регламенты, коммерческие документы, персональные данные клиентов и техническая документация. По материалам открытых публикаций за 2023–2026 годы в настоящей статье собраны и структурированы ключевые риски, подтвержденные инциденты, доступные ресурсы для мониторинга проблемы, а также сформулированы практические рекомендации по снижению вероятности утечки данных и обеспечению контроля применения ИИ в корпоративных процессах.
1. Введение: масштаб и актуальность проблемы
Массовое внедрение генеративного ИИ в бизнес-процессы создало парадоксальную ситуацию: технологии, призванные повысить эффективность, стали одним из главных каналов утечки информации. К 2025 году 83% корпоративных команд использовали генеративный ИИ, однако лишь 31% организаций имели формализованные политики обращения с данными при работе с этими инструментами [1]. Это привело к феномену «теневого ИИ» — использованию сотрудниками публичных ИИ-сервисов (ChatGPT, Claude, Gemini и др.) без одобрения и контроля со стороны ИТ-безопасности. Российская статистика демонстрирует катастрофическую динамику: в 2025 году объем данных, отправляемых сотрудниками российских компаний в публичные ИИ-сервисы, вырос в 30 раз [2]. Проблема вышла за рамки технической уязвимости, превратившись в комплексный организационно-управленческий вызов, требующий незамедлительного стратегического ответа.
2. Классификация ключевых рисков
Риски утечек информации через публичные ИИ-сервисы носят многоуровневый характер и могут быть структурированы по трем основным категориям.
2.1. Технические риски
Уязвимости конфигурации и архитектуры: неправильная настройка ИИ-систем, включая облачные базы данных и API-шлюзы, является частой причиной масштабных утечек. Яркий пример — инцидент с платформой Moltbook в феврале 2026 года, где из-за ошибки конфигурации стали публично доступны 1,5 миллиона API-ключей, используемых для управления ИИ-агентами [3].
Атаки на модель (Prompt Injection, Model Inversion): злоумышленники используют специально сконструированные промпты для обхода ограничений модели, извлечения конфиденциальных данных, на которых она обучалась, или манипуляции ее выводом. Исследование компании Anthropic выявило случаи, когда злоумышленники использовали ClaudeCode для автоматизации рекогносцировки и проникновения в корпоративные сети [4].
Компрометация цепочки поставок: уязвимости в сторонних библиотеках, фреймворках или моделях, интегрированных в корпоративные ИИ-решения, могут стать вектором для атаки на всю инфраструктуру. На этот тип атак приходилось около 30% инцидентов, связанных с ИИ [5].
Недостаточная обработка вывода (Data Leakage через ответы): модель может непреднамеренно включить конфиденциальную информацию из своего обучающего набора данных или контекста предыдущих взаимодействий в генерируемый ответ.
2.2. Организационные и кадровые риски
«Теневой ИИ» и отсутствие политик: сотрудники, стремясь решить рабочие задачи быстрее, загружают в публичные чат-боты код, финансовые отчеты, персональные данные клиентов, стратегические документы. Классический случай произошел в Samsung в 2023 году, когда инженеры загрузили фрагменты секретного исходного кода в ChatGPT для проверки и оптимизации [6]. Аналогично в 2025 году исполняющий обязанности директора Агентства кибербезопасности и инфраструктурной безопасности США (CISA) загрузил в ChatGPT служебные документы с грифом «For Official Use Only» [7].
Недостаточная осведомленность и обучение: сотрудники часто не осознают, что вводимые в публичный ИИ-сервис данные могут сохраняться, использоваться для дообучения модели и становиться потенциально доступными другим пользователям или злоумышленникам.
Отсутствие контроля доступа и мониторинга: во многих организациях нет технических средств для обнаружения и блокировки передачи конфиденциальной информации в публичные ИИ-сервисы.
2.3. Правовые и регуляторные риски
Несоответствие требованиям защиты данных: передача персональных данных сотрудников и клиентов в сервисы, чьи серверы находятся за пределами Российской Федерации, создает прямые риски нарушения Федерального закона от 27.07.2006 г. №152-ФЗ «О персональных данных». Особое внимание следует уделить порядку трансграничной передачи, установленному Роскомнадзором, несоблюдение которого может повлечь значительные штрафы и предписания для оператора.
Нарушение коммерческой тайны и интеллектуальной собственности: утечка через публичный ИИ-сервис конфиденциальной информации, ноу-хау и стратегических планов подрывает конкурентные преимущества компании и может квалифицироваться как разглашение коммерческой тайны со всеми вытекающими правовыми последствиями.
Неопределенность и динамичность регуляторного поля: законодательное регулирование использования ИИ, особенно в части ответственности за утечки, продолжает развиваться. В этой связи организациям рекомендуется ориентироваться не только на текущие законы, но и на перспективные стандарты, такие как ГОСТ Р ИСО/МЭК 42001-2024, задающие рамки ответственного управления ИИ.
Важно отметить, что регуляторное поле в РФ начинает обретать более прикладные контуры именно в части ИИ-рисков. Позитивный сигнал — работа ФСТЭК России: в Банке данных угроз безопасности информации (БДУ) выделен отдельный раздел, посвященный угрозам безопасности информации систем искусственного интеллекта. Это означает, что ИИ-сценарии начали формально учитываться при моделировании угроз и обосновании мер защиты.
Параллельно появляется и нормативная рамка: приказ ФСТЭК России №117 от 11.04.2025 г. актуализирует требования по защите информации для государственных и связанных систем и вступает в силу с 1 марта 2026 года.
При этом это только начало пути. БДУ и нормативные требования задают направление, но не заменяют корпоративную практику: классификацию данных для ИИ-сценариев, контроль внешних интеграций и регулярную переоценку рисков по мере развития публичных ИИ-сервисов и агентных режимов.
3. Реальные инциденты и кейсы
В таблице приведена подборка подтвержденных инцидентов из открытых источников, связанных с утечками информации.

Таблица. Подтвержденные инциденты из открытых источников, связанных с утечками информации
4. Статистика и аналитические данные
Актуальные отчеты ведущих компаний в сфере кибербезопасности подтверждают системный характер проблемы [8]:
Обнаружение и реагирование: на обнаружение утечки в среднем уходит 181 день, на ее локализацию — еще 60 дней [5]. При этом инциденты, связанные с «теневым ИИ», обнаруживаются быстрее (в среднем за 62 дня), но их устранение остается сложным (185 дней) [5].
Динамика инцидентов: база данных AI Incident Database зафиксировала более 300 зарегистрированных инцидентов с ИИ в 2025 году, причем наиболее частыми были случаи с deepfake и мошенничеством [9]. Графики Our World in Data показывают устойчивый рост числа регистрируемых инцидентов с ИИ с 2012 года [10].
5. Ресурсы для мониторинга и анализа инцидентов
Для отслеживания трендов и изучения конкретных случаев целесообразно использовать специализированные ресурсы.
AI Incident Database (incidentdatabase.ai) — крупнейшая международная открытая база данных, посвященная сбору и документированию инцидентов, когда системы ИИ причинили вред или создали его риск [11].
Our World in Data — предоставляет наглядную статистику и графики по количеству зарегистрированных инцидентов и споров, связанных с ИИ, в долгосрочной перспективе [10].
IBM Cost of a Data Breach Report — ежегодное авторитетное исследование стоимости, причин и трендов утечек информации [12] [13].
Verizon Data Breach Investigations Report (DBIR) — ежегодный всеобъемлющий анализ реальных инцидентов информационной безопасности, включая связанные с ИИ [14].
При этом важно понимать, что основная масса таких источников формируется за рубежом — это полезно для сопоставления с глобальной картиной, но добавляет фактор зависимости по доступности и полноте. Поэтому, наряду с обращением к международным базам и отчетам, имеет смысл поддерживать развитие общедоступных российских и/или локализованных ресурсов для сбора и анализа ИИ-инцидентов (включая утечки через публичные ИИ-сервисы) — с понятной методологией, единым словарем терминов и возможностью воспроизводимого сравнения кейсов. Такая инфраструктура снижает риски «внешней опоры» и помогает быстрее переводить наблюдения из инцидентов в практические меры защиты.
6. Рекомендации по построению системы защиты
На основе анализа рисков и инцидентов можно сформулировать комплекс мер для организаций.
6.1. Разработка и внедрение политики использования ИИ
Четкий регламент, определяющий, какие публичные ИИ-сервисы разрешены, для каких задач, какие категории данных категорически запрещено в них загружать. Политика должна быть доведена до всех сотрудников.
6.2. Технические меры контроля
6.3. Повышение осведомленности и обучение
Регулярные тренинги, на которых сотрудникам на реальных примерах (вроде инцидентов в Samsung или CISA) разъясняются риски «теневого ИИ» и правила безопасной работы.
6.4. Аудит и мониторинг
Регулярная проверка логов на предмет использования публичных ИИ-сервисов. Внедрение решений класса CASB (Cloud Access Security Broker) для контроля за облачными приложениями.
6.5. Создание инцидент-ответа для ИИ-угроз
В план реагирования на инциденты информационной безопасности должны быть включены специфические сценарии, связанные с утечкой информации через публичные ИИ-сервисы.
В качестве методологического фундамента для всех перечисленных мер рекомендуется рассмотреть внедрение принципов, изложенных в национальном стандарте ГОСТ Р ИСО/МЭК 42001-2024 «Информационные технологии. Искусственный интеллект. Системы менеджмента искусственного интеллекта». Данный стандарт предоставляет организациям структурированную модель для:
Использование данного стандарта позволит перейти от разрозненных мер к целостной системе управления, минимизирующей вероятность инцидентов и демонстрирующей должную осмотрительность перед регуляторами и партнерами.
7. Прогнозы и заключение
Эксперты единодушны в том, что проблема будет обостряться. Специалисты Swordfish Security предупреждают, что в 2026 году следует ожидать громких инцидентов с участием ИИ-агентов, которым будет предоставлен доступ к конфиденциальной информации и корпоративным API [15]. «Лаборатория Касперского» прогнозирует, что главным кибервызовом 2026 года станет массовая автоматизация атак с использованием ИИ как целостной экосистемы [16].
Утечки информации из-за использования публичных ИИ-сервисов перестали быть гипотетическим риском и превратились в повседневную угрозу для организаций по всему миру. Борьба с ней требует не разовых мер, а комплексного подхода, объединяющего технологические решения, пересмотр внутренних процессов, постоянное обучение персонала и адаптацию правовой базы. Организации, которые уже сегодня начнут выстраивать систему управления рисками, связанными с использованием ИИ, смогут не только избежать финансовых и репутационных потерь, но и получить конкурентное преимущество в эпоху тотальной цифровизации.
Ссылки:
[2] https://www.anti-malware.ru/news/2026-02-03-121598/48907
[3] https://aimojo.io/moltbook-data-leak/
[4] https://www.anthropic.com/news/detecting-countering-misuse-aug-2025
[5] https://www.brightdefense.com/resources/data-breach-statistics/
[7] https://www.rbc.ru/politics/28/01/2026/697a29eb9a7947a1bfffd8d8
[8] https://www.demandsage.com/data-breach-statistics/
[9] https://techround.co.uk/news/ai-incidents-2025-ai-incident-database/
[10] https://ourworldindata.org/grapher/annual-reported-ai-incidents-controversies
[11] https://incidentdatabase.ai/
[12] https://www.bakerdonelson.com/webfiles/Publications/20250822_Cost-of-a-Data-Breach-Report-2025.pdf
[13] https://www.ibm.com/reports/data-breach
[14] https://keepnetlabs.com/blog/2025-verizon-data-breach-investigations-report
[15] https://safe.cnews.ru/articles/2025-12-19_eksperty_swordfish_security_v_2026_godu_my_uvidim
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных