О реестре доверенных технологий ИИ: мы не можем ориентироваться только на нормы прибыли

6 июня, 2025

О реестре доверенных технологий ИИ: мы не можем ориентироваться только на нормы прибыли

Активное развитие искусственного интеллекта и его применение в разных сферах жизни вызывает немало вопросов. И один из них связан с доверием к новым технологиям. Еще в октябре 2019 года была принята Национальная стратегия развития ИИ до 2030 года. В ней прямо обозначено, что доверенными можно считать «технологии, отвечающие стандартам безопасности, разработанные с учетом принципов объективности, недискриминации, этичности, исключающие при их использовании возможность причинения вреда человеку и нарушения его основополагающих прав и свобод, нанесения ущерба интересам общества и государства».

Согласно свежему социологическому опросу, общий уровень доверия технологиям ИИ среди россиян составляет всего 38%. Как отметила начальник Управления Президента РФ по развитию ИКТ и инфраструктуры связи Татьяна Матвеева, недоверие основывается, прежде всего, на страхе утечки данных и использования ИИ в корыстных целях. Как показал опрос, факторами повышения доверия к технологиям ИИ являются отсутствие ошибок в работе, уверенность в защищенности персональных данных (в том числе биометрических), отсутствие предвзятости, интуитивная понятность и наличие сертификации.

Нормативно-правовая база в сфере использования ИИ у нас в стране только формируется. В Национальной стратегии записано, что регуляторы в своей работе должны учитывать такие основные принципы, как безопасность, гуманистический подход, уважение автономии и свободы воли человека, отсутствие дискриминации отдельных групп лиц, риск-ориентированный подход, ответственность разработчиков и квалифицированная экспертная оценка.

Для подготовки законов в области ИИ в апреле 2025 года в Госдуме была сформирована межфракционная рабочая группа, которую возглавил зампредседателя нижней палаты Александр Бабаков. Как было заявлено, группа сосредоточится на выработке правовых механизмов для внедрения и использования «национально-ориентированных» ИИ-систем в различных отраслях. По мнению Бабакова, данная сфера не может развиваться исключительно по рыночным законам и ориентироваться только на нормы прибыли. Нужна комплексная оценка факторов, включая потенциальные угрозы, в том числе этического характера.

С учетом поправок, которые в феврале 2024 года внес в Стратегию президент Владимир Путин, объем оказанных услуг по разработке и реализации решений в области ИИ к 2030 году должен вырасти как минимум до 60 млрд рублей, доля приоритетных областей экономики с высокой готовностью к внедрению ИИ увеличится до 95%, а уровень доверия граждан к технологиям должен подняться до 80%. Также в Стратегии содержится пункт о том, что будет сформирован реестр апробированных доверенных технологий ИИ, проверенных на угрозы информационной безопасности, для органов публичной власти и организаций. Реестр будет размещен на единой цифровой платформе Российской Федерации «ГосТех».

При определении критериев для включения тех или иных технологий в реестр доверенных будут ориентироваться на положения, содержащиеся в Стратегии. В качестве ответа на вызовы в данной сфере в мае 2024 года был создан Консорциум исследований технологий безопасности ИИ, в который на сегодняшний день входит два десятка участников. По мнению экспертов, в отличие от обычного ИИ, который ориентирован, прежде всего, на решение прикладных задач (сроки, эффективность, возврат инвестиций), доверенный ИИ подразумевает интеграцию механизмов верификации, аудита и управления рисками на всех стадиях жизненного цикла, обеспечивая повышенную надежность и предсказуемость поведения в критических сценариях.

Современный уровень развития ИИ подталкивает к идее его стандартизации, так как определение единых критериев позволят упростить внедрение ИИ-технологий и повысить доверие к ним. Эксперты видят в создании реестра доверенных решений немало плюсов: ведь он способен минимизировать риски ошибок, нарушения приватности и злоупотребления при использовании ИИ-систем в таких важных сферах, как финансы, оборонная промышленность и медицина, дает компаниям и пользователям ориентир в виде решений, прошедших проверку на безопасность и надежность. Кроме того, разработчики будут иметь выбор между использованием готовых, одобренных решений или созданием продуктов с учетом понятных и формализованных стандартов, а бизнес и пользователи будут охотнее их внедрять.

На пути создания реестра может возникнуть немало трудностей. Среди специалистов звучат предостережения, связанные с недостатком экспертизы, разногласиями между государством, бизнесом и наукой. Называют и такие негативные факторы, как бюрократизация, субъективность оценок и технические сложности. Например, Руслан Пермяков, советник директора по инновациям ИВМиМГ СО РАН, особо выделяет проблему конфиденциальности данных в условиях динамических самообучающихся ИИ-моделей. «Мы имеем на своих руках довольно сложную модель с "черным ящиком", который динамически изменяется в зависимости от внешних условий, — считает Пермяков. — У нас система может генерировать новые данные, которых ранее там не было, и мы не можем их классифицировать».

В качестве практических мер для повышения доверия к государственным информационным системам с ИИ эксперт предлагает обязательную оценку качества анонимизации данных, аудит данных и процессов обучения, повышение интерпретируемости моделей, достижение баланса между эффективностью ИИ и защитой конфиденциальности, а также формирование междисциплинарных команд, которые будут включать в себя не только специалистов ИТ, но и профессионалов из других областей знаний.

В рамках Консорциума исследований безопасности технологий ИИ созданы три рабочие группы, которые отвечают за подготовку предложений в нормативные правовые акты для реализации Стратегии, тестирование технологий ИИ, а также создание и развитие реестра доверенных решений ИИ. Руководитель РГ №3 Лидия Виткова, начальник аналитического центра кибербезопасности «Газинформсервис», заявила, что реестр должен быть сформирован уже в 2027 году. Вначале для формирования образа будущего реестра был проведен форсайт с участием разных стейкхолдеров. Его концепция уже разработана и передана в Консорциум. В настоящее время группа занята формированием списка функциональных требований к компонентам модулей реестра. В 2026 году планируется запустить пилот, с тем чтобы пройти тесты взаимодействия модулей внутри ГИС и с внешней средой.

Недавно заместитель главы Минцифры Александр Шойтов сообщил о важном проекте по  разработке профильной матрицы угроз для объектов КИИ и ГИС, в котором принимают участие три пилотных региона. Республика Татарстан займется анализом фотоизображений сельхозземель и испытанием генеративной модели «ГосПромт». Новосибирская область опробует систему голосового самообслуживания ИИ. Сахалинская область протестирует систему распознавания видеоизображений с объектов. Как пояснил секретарь Консорциума Дмитрий Служеникин, данный пилот начался три месяца назад, к нему могут подключиться и другие регионы. С его помощью налаживаются «логика работы реестра доверенных технологий ИИ, правила работы и совместные взаимодейтвия».

Стать автором BIS Journal

Смотрите также

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

17.06.2025
ВТБ узнал мнение россиян об интеграции виртуальной тревожной кнопки
17.06.2025
Без ИБ теперь даже не отдохнуть. Боты оставляют россиян без отпуска
17.06.2025
ИБ-компании помогли Интерполу в борьбе с азиатскими хакерами
17.06.2025
Северная Европа задумалась о цифровом суверенитете
17.06.2025
Гигант оптовой торговли продуктами питания стал жертвой кибератаки
16.06.2025
Китай нагружает соседские ИИ-чипы своими данными
16.06.2025
Ernst & Young: Быстрое внедрение ИИ-агентов требует усиления контроля
16.06.2025
«Платформизация вынудит многие отрасли выйти из-зоны комфорта»
16.06.2025
Трамп пустил под нож основные киберпроекты Обамы и Байдена
16.06.2025
Сравняет ли Иран счёт в «цифре»?

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных