

20 мая, в Москве, в пространстве кластера «Ломоносов» прошел III форум «Технологии доверенного искусственного интеллекта». В нем приняли участие представители профильных государственных министерств и ведомств, ведущих отечественных научно-исследовательских центров и профессиональных объединений в сфере технологий доверенного ИИ, российских технологических лидеров, реализующих успешные проекты в области ИИ, и крупнейших компаний ИБ-сектора.
Ключевая сессия, которую модерировал директор ГК «Солар» Игорь Ляпунов, была посвящена изменениям и прогрессу в обсуждаемой сфере за прошедший год. Свое вступительное слово он начал с рассказа о довольно тревожных результатах исследования компании OpenAI, согласно которым уже в ближайшие годы будет создан суперинтеллект — Artificial Superintelligence (ASI), сравнимый с мощью человеческого мозга. Появление такого колоссального потенциала для экономики и связанная с ним конкуренция между передовыми державами таят в себе риски выхода ИИ из-под контроля.
Свою точку зрения на роль ИИ в развитии экономики и доверия к нему представила начальник Управления Президента РФ по развитию ИКТ и инфраструктуры связи Татьяна Матвеева. Прежде всего, согласно принятой Стратегии развития ИИ до 2030 года, для задач государственного управления, в сферах, где может быть нанесен ущерб безопасности страны в целом, следует использовать технологии доверенного ИИ. В их основе должны лежать такие принципы, как объективность, недискриминация и этичность (исключено нанесение вреда человеку). Также не допускаются нарушение основополагающих прав и свобод человека, нанесение ущерба интересам государства и общества. Сюда можно добавить эффективность, надежность, отказоустойчивость и объяснимость технологий, заключила спикер.
Как показал недавний социологический опрос трех тысяч россиян, 96% респондентов слышало об искусственном интеллекте, но объяснить, что это такое, смогло только 42%. Опыт пользования продуктами ИИ имеет 69%, но общий уровень доверия к нему составляет лишь 38%. Если говорить о видах деятельности, то больше нейросетям доверяют в сферах развлечений, услуг, промышленности и меньше — в здравоохранении, экономике и финансах, образовании, госуправлении и оказании психологической помощи. По словам Татьяны Матвеевой, доверие к ИИ формируется благодаря тому, что оптимизируется работа и улучшается качество жизни. К обратному эффекту приводят опасения, связанные с утечками персональных данных и использованием технологий в корыстных целях.
Если мы хотим стимулировать доверие к нейросетям, то можно двигаться по нескольким направлениям. Роль государства здесь видится в прямом нормативно-правовом регулировании, в системе стандартизации и сертификации, единых подходах к оценке параметров технологий (например, бенчмарки). Идет процесс саморегулирования: так, был создан Кодекс этики в сфере ИИ, к которому присоединилось более 900 организаций. Люди должны видеть эффект от внедрения ИИ-продуктов. Как отметила Матвеева, на региональном уровне реализуется более 500 решений, начиная от различных чат-ботов и заканчивая прогнозами чрезвычайных ситуаций, и они показывают «высокую степень повышения результативности работы, снижение нагрузки на людей, увеличение эффективности и повышение предсказуемости».
Заместитель министра цифрового развития, связи и массовых коммуникаций РФ Александр Шойтов рассказал о том, что Академией криптографии в 2024 году разработаны и направлены в ФОИВ и заинтересованные организации «Предложения в проект требований по обеспечению ИБ информационных систем, реализующих технологии ИИ». Также Академия совместно с Консорциумом исследований безопасности технологий ИИ разрабатывает профильную матрицу угроз для объектов КИИ и ГИС и приступает к ее отработке с пилотными регионами России. Шойтов на слайдах представил вниманию участников модель тестирования технологий ИИ без использования в КИИ и модель для КИИ, заслуживающей высокую степень доверия.
Есть конкретные риски, связанные с использованием передовых технологий: потеря контроля над критическими инфраструктурами, финансовые потери из-за ошибок ИИ, компрометация личной информацией, манипуляция сознанием и поведенческая реклама, опасность автоматизированных решений без возможности апелляции и т. д. Проблемы информационной безопасности и искусственного интеллекта имеют чисто технологический характер, считает Шойтов. Да, работа в сфере ИБ более понятна и измерима по сравнению с ИИ, но угрозы в обеих сферах взаимосвязаны, и решать эти проблемы придется одновременно.
Модератор Игорь Ляпунов в ходе дискуссии не раз прибегал к помощи нейросети DeepSeek, которая генерировала довольно провокационные вопросы и темы. Если отдельные алгоритмы способны заменить до 40% рабочих мест, то как быть с безработицей? Насколько опасно использовать зарубежные фреймворки в российских ИИ-разработках? Не усиливает ли внедрение ИИ разрыв между Москвой и регионами? Были также «подсказки» от DeepSeek: возможная «когнитивная деградация», экзистенциальные риски для малых культур, коллапс образования из-за появления ИИ-тьюторов и создание персонализированных биологических угроз.
Не стоит «обожествлять искусственный интеллект и говорить, что он все придумал», отметила Наталья Касперская, президент ГК InfoWatch. Ни в коем случае нельзя впускать ИИ в школьные стены, но главная проблема — это все же «вторичность отечественного ИИ». При условии использования таких фреймворков, как PyTourch и TensorFlow, мы не получим доверенный ИИ. Эта вторичность на самом деле «дает возможность закладок, внешнего управления и навязывания чужой повестки», считает Касперская.
Большую опасность представляет «замена коммуникации граждан на общение с искусственным интеллектом». Часть рисков мы сегодня видим, но многие нам не ясны, так как это новая технология, и у человечества нет особого опыта ее применения. По мнению спикера, идет «тихое вползание ИИ в нашу жизнь» и о рисках говорят значительно меньше, чем о преимуществах. Должна быть государственная структура, ответственная за контроль над нейросетями, необходимо заниматься регулированием, «пока не стало слишком поздно», заключила Касперская.
В ходе ключевой дискуссии выступили еще несколько спикеров. Директор Департамента стратегического развития и инноваций Минэкономразвития Оксана Сотникова рассказала о проведенном в 2024 году форсайте для определения приоритетов развития ИИ. Были выделены несколько важных направлений: обеспечение соответствия ценностям человека и общества, объяснимость, обеспечение безопасности разработки и эксплуатации, а также защита от взлома. Директор по информационным и цифровым технологиям ГК «Росатом» Евгений Абакумов сделал акцент на практической стороне вопроса: какой объем электроэнергии потребует внедрение технологий ИИ и не понадобится ли введение дополнительных мощностей?
Как отметил генеральный директор Ассоциации ФинТех Максим Григорьев, финансовый сектор одним из первых научился прагматично и практически применять искусственный интеллект: для скоринга, управления торговыми стратегиями, противодействия мошенникам и т. д. Представители финансового рынка договорились с Альянсом в сфере ИИ о создании отраслевого клуба, который обеспечит взаимодействие, обмен информацией и формирование необходимых отраслевых практик. Дмитрий Служеникин рассказал о работе, проведенной за прошедший год в Консорциуме исследований безопасности технологий ИИ. Усилия направлены на то, чтобы «норматив не выходил пустой» и все понимали, как на деле его выполнять.
Достичь состояния, когда нет никаких уязвимостей, невозможно, но обеспечить нужный уровень доверия необходимо, полагает директор ИСП РАН Арутюн Аветисян. «Я точно не луддит. Пчелы против меда — это не мой стиль, — заметил спикер. — Я сам занимаюсь искусственным интеллектом и его внедрением». Регуляторика нужна, но такая, чтобы не препятствовала развитию технологий.
В заключение дискуссии Игорь Ляпунов охарактеризовал ИИ как технологию, которая врывается без спроса в нашу жизнь. И следует воспринимать ее как сущность, которая способна поменять мир, причем с невообразимой скоростью. Проблематика доверенного ИИ — это сложный вызов, но совместная работа. профессионалов поможет ответить на него системно и прагматично.
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных