В ближайшие годы в России может появиться отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нём планируют написать и про ответственность разработчиков ИИ, задать классификацию умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета», организатор круглого стола по вопросам ИИ.

Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет, считает эксперт в области информационных технологий и искусственного интеллекта Игорь Ашманов. Уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.

Искусственный интеллект сейчас пытаются внедрить везде: «умные камеры» уже используют для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов, правовой статус распознавания лиц никак не определён, — отмечает Ашманов.

По мнению директора Национального центра развития искусственного интеллекта при Правительстве РФ Сергея Наквасина, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни. «Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьёзными проблемами», — считает он, подчеркивая, что нет даже терминологической базы — нигде не зафиксировано четкое определение самого ИИ и многочисленных дополнительных понятий, которые с ним связаны.

Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и т. д.

Работа по созданию свода законов ведётся, отмечает первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. На проработку вопросов уйдет 2-3 года, считает она.

«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — отмечает Рукавишникова. Параллельно с этим нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и касаются цифрового благополучия страны.

Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно выманивающие с их помощью у людей деньги.

За точечный подход выступают и сами разработчики. Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по её реализации нужно серьёзно ускорить.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

18.04.2025
Домофоны, электронные дневники и утерянные посылки. «Билайн» — о популярных сегодня скам-схемах
18.04.2025
Российских ИТ-игроков обяжут поддерживать школы и колледжи?
18.04.2025
Каждый десятый владелец смарт-часов ничего не знает про ИБ-риски
18.04.2025
«Сбер»: Таймер — стандартный приём, который используют мошенники
18.04.2025
Вредоносные приложения в новых смартфонах? Теперь да
17.04.2025
В России полюбили самозапреты
17.04.2025
Google надеется на тёплый приём на тайваньской земле
17.04.2025
Более 500 спикеров, реверс-инжиниринг в Кибергороде и концерт Uma2rman: как пройдёт Positive Hack Days в этом году
17.04.2025
У нас есть Apple Pay дома. МКБ первым оседлал «Волну»
17.04.2025
Discord присмотрится к подданным Британской Короны. Пристально

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных