В ближайшие годы в России может появиться отдельный свод законов, норм и правил, которые будут регулировать искусственный интеллект. В нём планируют написать и про ответственность разработчиков ИИ, задать классификацию умных цифровых систем на опасные и безопасные, а также закрепить маркировку контента, сгенерированного нейросетями, пишет «Парламентская газета», организатор круглого стола по вопросам ИИ.

Сегодня интеллектуальные цифровые системы в России применяются не слишком широко. Однако влияние их растет, считает эксперт в области информационных технологий и искусственного интеллекта Игорь Ашманов. Уже в ближайшие годы ИИ может начать «контролировать» образование и медицину.

Искусственный интеллект сейчас пытаются внедрить везде: «умные камеры» уже используют для распознавания лиц людей, находящихся в розыске. В этой сфере нет никаких законов, правовой статус распознавания лиц никак не определён, — отмечает Ашманов.

По мнению директора Национального центра развития искусственного интеллекта при Правительстве РФ Сергея Наквасина, сейчас страна находится в одном шаге от массового внедрения интеллектуальных цифровых систем во все сферы общественной и даже политической жизни. «Если заранее не решить ряд вопросов нормативного регулирования, в том числе не выработать нормы и механизмы противодействия возможным рискам и угрозам, то, конечно, мы можем в этот период столкнуться с очень серьёзными проблемами», — считает он, подчеркивая, что нет даже терминологической базы — нигде не зафиксировано четкое определение самого ИИ и многочисленных дополнительных понятий, которые с ним связаны.

Нет систем классификации, по которым разные ИИ можно было бы однозначно определять как опасные и безопасные, не выработаны механизмы применения интеллектуальных систем в различных юридических и финансовых процессах и т. д.

Работа по созданию свода законов ведётся, отмечает первый зампред Комитета Совета Федерации по конституционному законодательству и государственному строительству Ирина Рукавишникова. На проработку вопросов уйдет 2-3 года, считает она.

«По сути, перед нами сейчас стоит задача сформировать некую принципиально новую отрасль, которая могла бы называться цифровым правом», — отмечает Рукавишникова. Параллельно с этим нужно работать точечно: дополнять и расширять нормативные акты, которые уже существуют и касаются цифрового благополучия страны.

Другая форма защиты от ИИ — маркировка контента, который создан с его помощью. Прежде всего это нужно, чтобы снизить угрозу от дипфейков — искусственно сгенерированных фотографий и видеозаписей, которые уже освоили в том числе мошенники, успешно выманивающие с их помощью у людей деньги.

За точечный подход выступают и сами разработчики. Участники обсуждения напомнили также, что концепция развития искусственного интеллекта в России существует уже несколько лет. Однако сейчас в связи со стремительным развитием технологий работу по её реализации нужно серьёзно ускорить.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

29.01.2026
Пять главных ИИ-рисков по версии Anthropic
29.01.2026
OpenAI будет отсекать ботов с помощью биометрии
29.01.2026
Дуров: Нужно быть полным идиотом, чтобы поверить в безопасность WhatsApp в 2026 году
29.01.2026
Штрафы за нарушение правил эксплуатации объектов КИИ достигнут полумиллиона рублей
29.01.2026
Британцев накажут за «неспособность предотвратить мошенничество»
28.01.2026
Эксперты PwC советуют больше думать о репутации в условиях роста киберугроз
28.01.2026
Банк России приветствует активную цифровизацию финсектора
28.01.2026
Сеть биткоина могла бы стать скандинавской страной
28.01.2026
«ДиалогНаука» провела оценку соответствия требованиям SWIFT для КБ «Москоммерцбанк» (АО)
28.01.2026
Программа для разработки «Модели угроз и нарушителя «Конструктор-У» от ARinteg включена в реестр российского ПО

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных