В ближайшие годы в России может появиться отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нём планируют написать и про ответственность разработчиков ИИ, задать классификацию умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета», организатор круглого стола по вопросам ИИ.

Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет, считает эксперт в области информационных технологий и искусственного интеллекта Игорь Ашманов. Уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.

Искусственный интеллект сейчас пытаются внедрить везде: «умные камеры» уже используют для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов, правовой статус распознавания лиц никак не определён, — отмечает Ашманов.

По мнению директора Национального центра развития искусственного интеллекта при Правительстве РФ Сергея Наквасина, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни. «Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьёзными проблемами», — считает он, подчеркивая, что нет даже терминологической базы — нигде не зафиксировано четкое определение самого ИИ и многочисленных дополнительных понятий, которые с ним связаны.

Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и т. д.

Работа по созданию свода законов ведётся, отмечает первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. На проработку вопросов уйдет 2-3 года, считает она.

«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — отмечает Рукавишникова. Параллельно с этим нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и касаются цифрового благополучия страны.

Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно выманивающие с их помощью у людей деньги.

За точечный подход выступают и сами разработчики. Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по её реализации нужно серьёзно ускорить.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

27.03.2026
Минфин расширит обмен данными между ФНС и ЦБ
27.03.2026
Apple создаёт спецнейросети для iPhone силами Google
27.03.2026
К2Тех: Есть запрос на доступность данных, защиту процессов и соблюдение нормативов
27.03.2026
ЕС наложит запрет на ИИ-сервисы для имитации обнажённого тела
27.03.2026
Gartner: К концу года более 40% операций SOC будет выполняться автоматически
26.03.2026
Кто сможет работать в аккредитованной ИТ-компании с 2026 года
26.03.2026
FCA обновило правила отчётности о киберинцидентах и ​​сообщениях от третьих лиц
26.03.2026
Банки, операторы связи и УЦ смогут купить данные о россиянах у МВД
26.03.2026
Банкиры и безопасники — против уведомлений в МАХ
26.03.2026
Студентов научат внедрять кибербез на ранних этапах создания ПО

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных