«Будем их обсуждать, и без зоркого взгляда сообщества они не пройдут»

Заместитель директора ФСТЭК России Виталий Лютиков, выступая на Форуме «Технологии искусственного интеллекта», сообщил, что его ведомство прорабатывает вопрос установления набора требований к государственным системам по использованию ИИ. Тут есть особенности с точки зрения моделей применения, заметил он.

«Пусть это будет первый шаг. Нас могут критиковать, что они [модели — прим. ред.] не полные и не настолько глубокие. Но я придерживаюсь позиции, что надо с чего-то начинать. Это, во-первых. И второе — мы рассматриваем вопрос (сейчас он пока ещё на стадии проработки) создания некоего методического документа, рекомендаций для операторов систем с искусственным интеллектом. Для того чтобы сформировать концептуальные подходы относительно тех специфичных угроз, которые существуют», — рассказал спикер.

По словам Лютикова, эти документы ведомство планирует сделать открытыми, публичными: «Будем их обсуждать, и без зоркого взгляда сообщества они не пройдут».

27 мая, 2024

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

13.03.2026
Администрация Трампа представила новую киберстратегию для США
13.03.2026
Mimecast назвала инсайдеров критической угрозой для бизнеса
13.03.2026
Интеграция ITAM и ITSM становится управленческой необходимостью
13.03.2026
Пейджер, бумажная карта… огниво? Чем закупаются москвичи на фоне шатдауна
13.03.2026
Rubetek: Рынку нужны инструменты, формирующие стабильный спрос
12.03.2026
В Check Point раскрыли связь между взломом уличных камер и военной эскалацией
12.03.2026
НСПК: Сбои мобильного интернета — не помеха для системы «Мир»
12.03.2026
ЦБ РФ: Реестр карт не равно раскрытие банковской тайны
12.03.2026
GCOT разработала руководящие принципы для сетей 6G
12.03.2026
Amazon всё чаще обращается к внутреннему ИИ-цензору

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных