«В целом нужен базовый закон об ИИ, который определит все понятия и общие принципы использования»

Риски широкого распространения и использования искусственного интеллекта обсудили участники пленарной сессии «Использование систем искусственного интеллекта: вопросы доверия и информационной безопасности» Дня Кибербезопасности Форума GIS DAYS 2023, который прошёл 6 октября в Москве.

Александр Шойтов, заместитель министра цифрового развития, связи и массовых коммуникаций РФ отметил, что о рисках использования ИИ достаточно много говорят, в том числе в мире, есть даже позиция кардинальная сократить его использование. По мнению представителя Минцифры тормозить развитие ИИ не надо, а необходимо аккуратно и адекватно его внедрять. Шойтов отметил два ключевых риска использования ИИ: неправильное функционирование и утечка данных.

Риски неправильного функционирования могут быть связаны со многими факторами: неправильно сделанная модель и данные, в каком-то процессе жизненного цикла ИИ на него были проведены атаки… В результате чего ИИ неправильно принимает решения. «Это критично, когда на основе выводов ИИ он сам или мы начинаем принимать решения, — считает спикер. — Это особенно критично при использовании на транспортных автоматизированных системах, в медицине, в любой сфере, в том числе КИИ, где мы рассматриваем ИИ как помощника, а на основе его оценки принимаются решения».

Второй ключевой риск — утечка данных, которые получаются в процессе работы ИИ. «Мы должны давать ему много данных, сам он работает неформализованно. Задача, которая перед нами стоит, — обезличить эти данные, чтобы в них не содержалось чувствительной информации с одной стороны, с другой — чтобы он мог принять полезное решение и предоставить хороший результат», — продолжил замминистра. Утечки также возможны при атаках на системы ИИ и на всех этапах жизненного цикла ИИ, отметил Шойтов.

Обсуждая вопросы безопасного использования ИИ, спикер напомнил собравшимся, что есть термин «сильный искусственный интеллект» (General AI), который может решать универсальные задачи в отличие от популярного сегодня Chat GPT, решающего узконаправленные задачи. «От него сложно добиться содержательного ответа, он не для этого предназначен», заявил замглавы Минцифры. И добавил, что сейчас идёт разработка Национальной программы «Экономика данных», в том числе обсуждается вопрос создания научного центра сильного ИИ для его системного развития. Несколько лет назад, при создании опорных центров на базе крупнейших вузов по ИИ, в том числе на базе Института систем программирования, который занимается изучением иностранных решений ИИ, от создания центра сильного ИИ отказались, поскольку не были готовы к решению таких задач. На сегодня вопрос находится в стадии обсуждения, сообщил Александр Шойтов.

Вопросы регулирования ИИ — ещё одна проблема, которая обсуждается на разных площадках и раскладывается на много составляющих, в том числе этические аспекты или проблемы регулирования на уровне лучших практик, отметил Шойтов. Вполне конкретны и понятны проблемы ИИ, связанные с информационной безопасностью.

«Сама система регулирования ИБ у нас есть и эффективно работает. Вопрос правильно отработать это технологически, что сложно, и правильно положить на нормативно-взвешенные нормы»,  — считает замглавы Минцифры. В качестве примера такого подхода он привёл работу над законопроектом об обезличивании персональных данных.

«Это процесс долго шёл, мы надеемся завершить его до нового года, — подчеркнул докладчик. — Это компромиссный закон с точки зрения решения, но он гарантирует информационную безопасность конструктивно и в целом, на верхнем уровне». Дальше проблема от нормативной уходит в приказы и методические рекомендации, в реализацию.

В перспективе в 2024 году появится проект «Требований по информационной безопасности ИИ, работа над ним сейчас ведётся в Академии криптографии РФ. Александр Шойтов надеется, что документ получит одобрение регулятора и будет принят.

Также на базе Технического комитета по ИИ ведётся разработка нескольких стандартов по ИБ ИИ. За основу берутся иностранные стандарты, однако, по информационной безопасности у нас должны быть приняты «свои оригинальные вещи», полагает представитель Минцифры. «Это большая сложная работа», — заявил он. Спикер отметил необходимость регулирования архитектурных решений и принципов построения систем ИИ в части стандартизации и унификации.

«В целом нужен базовый закон об искусственном интеллекте, который определит все понятия, общие принципы использования. Он готовится. Это крайне важная и сложная история», — заключил Шойтов.

 

Медиа Группа «Авангард» в рамках GIS DAYS 2023 выступила организатором ключевой дискуссии в Москве.

6 октября, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.10.2025
ВТБ предоставит своим клиентам цифрового вышибалу
21.10.2025
Криптовалюта как часть эффекта «бабочки»
20.10.2025
Ernst & Young нашла у бизнеса большие убытки из-за рисков ИИ
20.10.2025
«Спикател» включил в портфель российскую операционную систему РЕД ОС
20.10.2025
Россия экспортирует «пластик» в Афганистан?
20.10.2025
F6: Целью атак может стать любая российская организация независимо от специализации
20.10.2025
«При резком усилении налоговой нагрузки Россия не сможет претендовать на роль одного из технологических лидеров»
20.10.2025
Рублёвый стейблкойн A7A5 обеспечил России лидерство по криптотрафику
17.10.2025
В обход Совбеза ООН — через Владивосток
17.10.2025
В Липецке подвели итоги межрегионального форума «Реалии и Стратегии КиберБезопасности»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных