В ближайшие годы в России может появиться отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нём планируют написать и про ответственность разработчиков ИИ, задать классификацию умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета», организатор круглого стола по вопросам ИИ.

Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет, считает эксперт в области информационных технологий и искусственного интеллекта Игорь Ашманов. Уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.

Искусственный интеллект сейчас пытаются внедрить везде: «умные камеры» уже используют для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов, правовой статус распознавания лиц никак не определён, — отмечает Ашманов.

По мнению директора Национального центра развития искусственного интеллекта при Правительстве РФ Сергея Наквасина, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни. «Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьёзными проблемами», — считает он, подчеркивая, что нет даже терминологической базы — нигде не зафиксировано четкое определение самого ИИ и многочисленных дополнительных понятий, которые с ним связаны.

Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и т. д.

Работа по созданию свода законов ведётся, отмечает первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. На проработку вопросов уйдет 2-3 года, считает она.

«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — отмечает Рукавишникова. Параллельно с этим нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и касаются цифрового благополучия страны.

Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно выманивающие с их помощью у людей деньги.

За точечный подход выступают и сами разработчики. Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по её реализации нужно серьёзно ускорить.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.03.2026
Безопасники: Проверка на возраст социально неприемлема
05.03.2026
ИИ помогает хакерам наблюдать за экраном смартфона жертвы
05.03.2026
Резиденты Telegram и WhatsApp станут иностранцами
05.03.2026
«Запрет публичных GenAI-сервисов при высоком спросе — это не барьер, а драйвер»
05.03.2026
Лондон подтвердил цифрами пользу службы мониторинга уязвимостей
04.03.2026
Россияне уже возвращают цифровые рубли государству
04.03.2026
«Информация о распространении вируса в MAX не соответствует действительности»
04.03.2026
Компания «Маск Сэйф» защитила ИТ-инфраструктуру с помощью SIEM от «СёрчИнформ»
04.03.2026
OpenAI станет прямым конкурентом своего же акционера?
04.03.2026
ИИ деанонимизирует людей по малозначительным деталям

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных