14 мая в Москве, в здании конгресс-центра МГТУ имени Н. Э. Баумана, прошёл IV Форум «Технологии доверенного искусственного интеллекта», организаторами которого стали Национальный технологический центр цифровой криптографии, ИСП РАН, Академия криптографии РФ и Медиа Группа «Авангард» (при поддержке Минцифры). Участники, представляющие власть и экспертное сообщество, обсудили животрепещущие вопросы современного положения дел в сфере ИИ.
На ключевой дискуссии ведущий, генеральный директор АНО «НТЦ ЦК» Игорь Качалин сразу же обратился к первому докладчику с непростым вопросом: «С учётом общей привычки говорить об искусственном интеллекте в терминах эффективности, скорости и инноваций почему важно обеспечить безопасность и доверенность этим технологиям при таком широком применении?». В данной теме и заключается, наверное, основное противоречие современной технологической политики, парировала начальник Управления Президента РФ по развитию информационно-коммуникационных технологий и инфраструктуры связи Татьяна Матвеева.
Если мы говорим о долгосрочных, суверенных решениях, которые могут даже иметь «экспортную» ценность, без учёта определённых ценностей безопасности явно не обойтись. По мнению эксперта, быстрое, бездумное внедрение ИИ чревато накоплением технологического долга и критических уязвимостей при результате, обратном желаемому. Молодому поколению важно учиться критическому восприятию, а ИИ-технологии должны быть архитектором смыслов, находясь в правильной позиции по отношению к истории и этике. Уровень доверия будет выше, если обучать модели на национальном корпусе данных, — иначе они будут отравлены чуждыми нам идеями.
«Важно, чтобы технология была в помощь и не претендовала на замену размышления и даже самого человека, — резюмировала Татьяна Матвеева. — Тут не должно быть определённой гонки между людьми и алгоритмами. Искусственный интеллект — это инструмент для сбора той или иной информации. Критическое мышление, осмысление, рефлексия, оценка критичности и всего остального всё равно остаются всегда за человеком».
О своём отношении к зарубежному опыту в части обязательной сертификации высокорисковых систем и границе между законодательным регулированием и саморегулированием отрасли высказался в ходе дискуссии сенатор РФ Артем Шейкин: в Евросоюзе переусердствовали с первым, что привело к появлению «Цифрового омнибуса» (Digital Omnibus), который призван упростить, гармонизировать и снизить административную нагрузку, в том числе и на искусственный интеллект; в России же мы видим, с одной стороны, требования закона, а с другой — такие явления, как Альянс в сфере искусственного интеллекта, Белая книга и Кодекс этики. Подобная взаимодополняемость представляется хорошим симбиозом.
«В правовой плоскости перед нами возникает вопрос о совместимости рационального алгоритма и правосубъектности у человека, являющегося носителем прав и обязанностей, — добавил Шейкин. — ИИ принимает решения на основе строгих правил, формальной логики, статистических закономерностей оптимизации. Он всегда будет в первую очередь защищать ту экосистему, в которой он работает. Мы исходим из презумпции добросовестности и невиновности. И мы полагаем, что человек вправе требовать от властного субъекта разъяснение, почему в отношении него принято то или иное решение, и вправе обжаловать его в суде».
Регуляторика должна быть интеллектуальной
Замглавы Минцифры, президент Академии криптографии Александр Шойтов постарался довести до аудитории своё понимание доверенного ИИ: мы до конца пока его не понимаем, поэтому здесь важны интерпретируемость или объяснимость. Также следует выделить техническую защиту информации, функциональную надёжность и этику. В случае, например, с дипфейками не всем может помочь критическое мышление (не у каждого оно достаточно развито), поэтому предлагается на входе и выходе ИИ-моделей поставить цензоры или фильтры.
«Я полностью поддерживаю саморегулирование и этику, но в критических сферах всё-таки требования государства обязательны, — прояснил свою позицию Шойтов. — Ведь и в Кодексе этики, который подписало более тысячи компаний, содержится обязанность обеспечивать меры по информационной безопасности. Здесь нужен именно правильный баланс. При реализации мер регулирования следует обеспечивать национальную безопасность на основе общественного договора между гражданами и властью».
Регуляторика обязательна, но она должна быть интеллектуальной, а также необходима отраслевая специализация, полагает директор Института системного программирования РАН Арутюн Аветисян. Благо, она создается в нашей стране «прямо параллельно с развитием технологий». Доверия не существует, пока нет юридического документа, где написано, что это значит. Без адекватного регулирования есть шансы скатиться на уровень «страны третьего мира».
«Мы сотрудничаем практически со всеми отраслями, потому что без базового системного ПО конкурентоспособность никакой отрасли сейчас невозможна, — заметил учёный. — Независимо от того, какую мы этику напишем, технологии-то внизу будут одни и те же. Они должны вместе создаваться и развиваться. Есть огромный потенциал внутри страны, есть наши партнёры из ЕврАзЭС, как минимум, которые могут в это вовлекаться — и каждый человек там дороже любых денег. У нас достигнут консенсус на основе государства, науки и бизнеса, как в случае с компаниями "Сбер" и "Яндекс". Но надо сделать так, чтобы эти отдельные островковые истории успеха превратились в мощную струю».
«Алиса» знает, как приготовить «бараньи крылья»
Говоря о требованиях к доверенности ИИ и её роли в международном технологическом сотрудничестве, заместитель директора по информационной инфраструктуре Госкорпорации «Росатом» Андрей Королев выделил понятие «референс»: «Начинать надо с себя, проводя успешные внедрения. И это, в первую очередь, вызывает доверие. Когда-то таким образом развивалась и атомная энергетика — не только в России, но и за рубежом. Регуляторика, в широком смысле слова, стандартизация, технологическая независимость и информационная безопасность могут сегодня сделать абсолютно коммерчески привлекательным на зарубежных рынках продукт под названием искусственный интеллект».
При защите гостайны «доверенный» означает «изолированный», объяснил присутствующим Андрей Масалович, КиберДед, российский учёный, специалист по информационной безопасности, OSINT и конкурентной разведке. Он рассказал, что перед форумом обратился к «Алисе» с вопросом, как приготовить бараньи крылья, — и получил вполне «правдивый» рецепт. Несмотря на то, что искусственному интеллекту доверять пока нельзя, американцы его используют уже непосредственно в боевых условиях, опираясь в первую очередь на проект Maven Smart System от компании Palantir.
Слово «доверенный» — это не самая лучшая находка, когда мы определяем некую структуру, которая ближе к инженерным знаниям, поделился мнением президент НАМИБ, вице-президент ГК «Гарда» Борис Мирошников. США являются той державой, которая первая построила систему кибербезопасности, обеспечила себе монополию и стремится её сохранить на долгие времена.
«Мы хотим равноправного взаимодействия всех субъектов для того, чтобы обеспечить режим справедливого обеспечения безопасности, а гегемон хочет обеспечить статус-кво, чтобы быть регулятором в каждой квартире на этой планете, — сделал вывод эксперт. — Вот этот конфликт продолжается по сей день, в разной степени выплескивается наружу, либо в завуалированном виде существует. Нам нужны эрудированные, умные люди, которые могут себя уверенно чувствовать на разных площадках мировых переговорных процессов и профессионально, компетентно в них участвовать, причём с патриотическим подходом ко всем этим вопросам».
В сфере искусственного интеллекта борьба за мировое лидерство идёт сегодня между двумя странами — Соединёнными Штатами и Китаем, заметил член Совета директоров ГК «ИнфоВотч», президент ООО «Ашманов и партнёры» Игорь Ашманов. Ни та, ни другая ничего регулировать не будет: зачем лидеру себя ограничивать? На самом деле ИИ получил лицензию на убийство людей. В сфере войны никаких самоограничений с их стороны не предвидится, и можно посочувствовать нашим дипломатам, у которых очень нелёгкая работа.
Эксперт считает, что РФ сильно отстала от лидеров в ИИ-сфере, и требуются кардинальные меры: «Нужен проект уровня ядерного или ракетного, рынок нас не спасёт. Без этого у нас не будет никакого доверенного интеллекта, который мы сможем кому-то предложить на мировом рынке. Нам не продают критичные технологии, мы давно занесены в список врагов. Нам нужны асимметричные ответы, нужно делать что-то совершенно другое. И это можно делать только на уровне общего государственного проекта».
Наша задача — митигировать монополизацию
Руководитель юридического департамента «ХайТэк» Александрина Михайловская посвятила своё выступление сравнительному анализу подходов к правовому регулированию искусственного интеллекта в России, Европейском союзе и США. По её мнению, регулирование ИИ вышло за рамки узкопрофильной юридической дискуссии и стало уже вопросом технологического лидерства и суверенитета, конкурентоспособной экономики и национальной безопасности.
Если ещё пару лет назад власти США делали основной упор на этику использования ИИ, на вопросы недопущения дискриминации, соблюдения прав человека, то теперь акценты заметно сместились, и государство уже регулирует не алгоритм как таковой, а доступ к данным, вычислительные мощности, инфраструктуру, безопасность применения в чувствительных сферах и так далее. Таким образом они в принципе препятствуют возможности создания продвинутых решений у потенциальных конкурентов.
Европейский Союз стал первой юрисдикцией, где принят комплексный закон, регулирующий использование и разработку ИИ, — так называемый AI Act, который характеризуется риск-ориентированным подходом: то есть чем выше потенциальное влияние системы на общественные интересы, права человека, безопасность, тем жёстче регуляторные требования. В итоге звучит критика, что они душат инновации. По мнению Михайловской, здесь можно говорить и про запретительную регуляторику, потому что полноценное соответствие довольно жёстким положениям этого акта для маленьких компаний и стартапов практически невозможно.
Со слов спикера, Россия переходит к более структурному регулированию. И в этой связи формируется концепция национального, доверенного, суверенного ИИ. Такая система пригодна для использования в социально значимых и критических сферах, но при этом важно соблюдать баланс между излишней зарегулированностью и поддержанием инновационного развития. И главная задача сейчас стоит не только в том, чтобы полностью исключить риски, а в том, чтобы создать работающую систему управления этими рисками, если они будут возникать.
Специальный представитель Президента Российской Федерации по вопросам международного сотрудничества в области информационной безопасности, директор Департамента международной информационной безопасности МИД России Артур Люкманов рассказал о своём участии в саммите действия по ИИ в Нью-Дели в феврале 2026 года (India AI Impact Summit), где была принята декларация, направленная на безопасное и полезное для человека использование ИИ.
Дипломат отметил, что ООН в лице её генерального секретаря Антониу Гутерриша вышла с инициативой о глобальном диалоге по искусственному интеллекту, которую РФ поддержала: «Всё, что есть у нас здесь хорошего, мы стремимся распространять в международных отношениях — масштабировать, экспортировать. Если говорить о межгосударственной этике, то это больше такой "реал-политик". Некоторые государства не скрывают свои намерения принуждать другие страны с помощью информационных технологий и даже кичатся этим. России в этих условиях важно работать над заключением юридически обязывающих договоренностей».
Этичный ИИ — это не обременение, а конкурентное преимущество: просто этика понимается по-разному теми или иными субъектами, полагает управляющий директор Центра человекоцентричного AI ПАО «Сбербанк», член Независимой международной научной панели по ИИ при ООН Андрей Незнамов: «Выигрывает положительный потребительский опыт. Доверие складывается из того, что шаг за шагом вам нравится процесс взаимодействия с моделью. Если вы не пользуетесь отечественными моделями, значит, российским разработчикам есть над чем работать».
Участие в работе международной группы привело эксперта к мысли о том, насколько сильно поляризован мир — даже на уровне науки, в сфере искусственного интеллекта. Сейчас ООН фиксирует переход цифрового разрыва в так называемый ИИ-разрыв, потому что концентрация вычислительных мощностей, инвестиций и людей происходит фактически в двух странах мира, и это большая проблема. По мнению Незнамова, особо важная задача сделать так, чтобы каким-то образом митигировать, уменьшить монополизацию. Есть немало стран, которые поддерживают данную позицию России.
«Искусственный интеллект — суперкрутая технология. Если он будет помогать одному человеку, одной компании, одной стране, мы не получим от него блага, и мощнейший эксперимент приведёт только к большому дисбалансу. И, как мне кажется, мы не должны этого допустить» — резюмировал спикер.
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных
Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных