Cloud.ru на GoCloud 2026 анонсировал Guardrails Filter для безопасной работы c ИИ. Это первый инструмент для защиты от утечек при запросах к популярным open-source моделям у российских облачных провайдеров.
Guardrails Filter защищает от утечки корпоративных и пользовательских данных при работе с LLM-моделями. Инструмент сканирует текст и выделяет потенциально чувствительные элементы (ПД, реквизиты, API-ключи, секреты), маскирует их и передает обезличенный запрос в LLM. После ответа модели маскиратор меняет синтетические данные обратно на реальные значения. При этом сохраняется семантическая целостность всех передаваемых данных. Таким образом, конечный пользователь получает полноценный результат, при этом чувствительные данные не покидают корпоративный ИТ-контур.
Инструмент предназначен для работы с моделями из сервиса Cloud.ru Foundation Models. На платформе в данный момент доступно более 20 популярных больших языковых моделей. Пользователям доступны модели различных типов, включая text-to-text, audio-to-text и image-text-to-text. Они уже готовы к использованию — пользователю не нужно развертывать инференс и писать код, достаточно подключиться через API. Механизм Guardrails Filter будет также доступен бизнесу для внедрения в режиме on-premise, чтобы обработка данных происходила на его стороне.
Cмомента выхода сервиса Foundation Models в коммерческую эксплуатацию в ноябре 2025 года модели обработали 450 млрд токенов. Наиболее востребованы сценарии применения генеративного AI клиентами Cloud.ru: клиентская поддержка, разработка, продажи, создание контента.
Инструмент Guardrails Filter наиболее актуален для отраслей, которые традиционно работают с большим количеством чувствительных данных и не хотят подвергать риску утечек своих клиентов и сотрудников. Это прежде всего здравоохранение, ритейл и госсектор. По данным рыночный исследований, 71% крупных российских компаний уже используют генеративный ИИ хотя бы в одной функции бизнеса.
«Отсутствие систем фильтрации персональных данных — один из главных блокеров для внедрения генеративного ИИ, мы расширяем функционал Foundation Models, решаю проблему большинства бизнесов. Это продолжение стратегического развития AI Factory, где безопасность встроена в экосистему, а не является надстройкой. Сотрудники российских компаний полагаются на генеративный ИИ для решения самых разных задач и зачастую предоставляют LLM конфиденциальную информацию, повышая риск утечки чувствительной информации. Причем чем больше источников данных подключено к чат-боту, тем шире радиус ущерба», — отметил руководитель продукта AI Factory Cloud.ru Артемий Мазаев.
Также Cloud.ru добавил в Foundation Models LLM-модель российской компании HiveTrace с Guardrails механизмом, которой клиенты смогут пользоваться аналогично другим моделям из нашего списка. LLM минимизирует промпт-инъекции, утечку системных инструкций, некорректную обработку выходных данных, а также риск введения ИИ-агента в заблуждение.






.png)