Cloud.ru на GoCloud 2026 анонсировал Guardrails Filter для безопасной работы c ИИ. Это первый инструмент для защиты от утечек при запросах к популярным open-source моделям у российских облачных провайдеров.

Guardrails Filter защищает от утечки корпоративных и пользовательских данных при работе с LLM-моделями. Инструмент сканирует текст и выделяет потенциально чувствительные элементы (ПД, реквизиты, API-ключи, секреты), маскирует их и передает обезличенный запрос в LLM. После ответа модели маскиратор меняет синтетические данные обратно на реальные значения. При этом сохраняется семантическая целостность всех передаваемых данных. Таким образом, конечный пользователь получает полноценный результат, при этом чувствительные данные не покидают корпоративный ИТ-контур.

Инструмент предназначен для работы с моделями из сервиса Cloud.ru Foundation Models. На платформе в данный момент доступно более 20 популярных больших языковых моделей. Пользователям доступны модели различных типов, включая text-to-text, audio-to-text и image-text-to-text. Они уже готовы к использованию — пользователю не нужно развертывать инференс и писать код, достаточно подключиться через API. Механизм Guardrails Filter будет также доступен бизнесу для внедрения в режиме on-premise, чтобы обработка данных происходила на его стороне.

Cмомента выхода сервиса Foundation Models в коммерческую эксплуатацию в ноябре 2025 года модели обработали 450 млрд токенов. Наиболее востребованы сценарии применения генеративного AI клиентами Cloud.ru: клиентская поддержка, разработка, продажи, создание контента.

Инструмент Guardrails Filter наиболее актуален для отраслей, которые традиционно работают с большим количеством чувствительных данных и не хотят подвергать риску утечек своих клиентов и сотрудников. Это прежде всего здравоохранение, ритейл и госсектор. По данным рыночный исследований, 71% крупных российских компаний уже используют генеративный ИИ хотя бы в одной функции бизнеса.

«Отсутствие систем фильтрации персональных данных — один из главных блокеров для внедрения генеративного ИИ, мы расширяем функционал Foundation Models, решаю проблему большинства бизнесов. Это продолжение стратегического развития AI Factory, где безопасность встроена в экосистему, а не является надстройкой. Сотрудники российских компаний полагаются на генеративный ИИ для решения самых разных задач и зачастую предоставляют LLM конфиденциальную информацию, повышая риск утечки чувствительной информации. Причем чем больше источников данных подключено к чат-боту, тем шире радиус ущерба», — отметил руководитель продукта AI Factory Cloud.ru Артемий Мазаев.

Также Cloud.ru добавил в Foundation Models LLM-модель российской компании HiveTrace с Guardrails механизмом, которой клиенты смогут пользоваться аналогично другим моделям из нашего списка. LLM минимизирует промпт-инъекции, утечку системных инструкций, некорректную обработку выходных данных, а также риск введения ИИ-агента в заблуждение.

10 апреля, 2026

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

13.04.2026
ФБР отчиталось о масштабах ущерба из-за кибермошенничества
10.04.2026
Cloud.ru запустил инструмент для безопасной работы с ИИ
10.04.2026
Servicepipe закрыла год с показателем 1,4 млрд рублей и наградила лучших партнёров
10.04.2026
Servicepipe: Число запросов на настройку работы с ИИ-агентами утроилось
09.04.2026
Александр Пушкин («Перспективный мониторинг»): «Даже корректно настроенный WAF не способен полностью блокировать все атаки на веб-ресурс»
09.04.2026
Хакеры атакуют американских поставщиков CNI
09.04.2026
Anthropic запускает Glasswing, чтобы бороться с критическими уязвимостями
09.04.2026
«СимбИИоз»: регулирования и новые роли ИИ в бизнесе и промышленности
09.04.2026
«ДиалогНаука» провела тестирование на проникновение в ТКБ БАНК ПАО
09.04.2026
Cloud.ru представил собственное решение для защиты контейнеров с ИИ-агентом

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных