Роскомнадзор и Главный радиочастотный центр совместно с аналитическим центром MindSmith и «Ростелекомом» выпустили исследование «Инструменты ИИ в руках злоумышленников — классификация угроз и способы противодействия».
В ходе исследования эксперты выделили четыре существующих направления ИИ, каждое из которых представляет широкую предметную область, характеризующуюся форматом информации, с которым работает то или иное решение: компьютерное зрение, обработка естественного языка, распознавание и синтез речи, системы прогнозирования и поддержки принятия решений.
Вторым параметром стала степень зрелости, отражающая разные стадии развития решений. Здесь выделено три уровня зрелости решения: «концепция», «прототип» и «внедрено».
Таким образом, получены 12 функциональных групп — приоритетных направлений применения ИИ, соответствующих технологическим интересам профильных организаций по мониторингу и обеспечению безопасности Интернета. Каждая группа объединяет решения, предназначенные для выполнения задач в конкретном направлении:
- обнаружение дипфейков;
- определение контекста происходящего на видео;
- автоматизация мониторинга и модерации контента;
- распознавание лиц;
- извлечение смысла из текста;
- поддержка проверки фактов;
- распознавание символики;
- извлечение и анализ метаданных;
- распознавание эмоций;
- поддержка решений при информационных атаках;
- генерация контента;
- рекомендация контента.
44-страничное исследование содержит подробный разбор каждого из направлений. При этом, несмотря на различия в технических особенностях работы решений в каждой группе, исследователи отметили ряд универсальных положений:
- В России есть экспертиза для создания отечественных датасетов и моделей и качественные решения в области распознавания лиц и работы с информационными атаками, но не хватает вычислительных мощностей, мощного оборудования, инфраструктуры и кооперации между ключевыми стейкхолдерами.
- Китай и США лидируют с большим отрывом в существенной части направлений развития ИИ. В этих странах развито сотрудничество государственных организаций с коммерческими.
- Без внедрения ИИ будет крайне проблематично обеспечить когнитивную безопасность населения.
- Наличие отечественных моделей и их внедрение, использование отечественных датасетов — вопрос национальной безопасности.
- Разработка процедур тестирования и оценки моделей — важная инфраструктурная задача.
- Значительная часть моделей ИИ представляет собой «чёрный ящик». Внедрение таких моделей иностранного производства представляет угрозу.
- Регуляторика в большинстве стран не успевает за скоростью развития технологий ИИ.
- Искусственный интеллект значительно обогнал человека в объёме и скорости обработки данных, работы с большими объёмами информации. Но на данный момент ИИ далек от идеала, чем нередко пользуются злоумышленники.
Государству необходимо разработать процедуры тестирования и оценки моделей ИИ, чтобы поддерживать перспективные проекты и их разработчиков, считают эксперты.
Вы интересуетесь искусственным интеллектом, планируете внедрение или уже используете ИИ в своей работе?
Вы хотите:
- Понимать уязвимости и угрозы, связанные с ИИ;
- Знать о построении доверенной работы технологий ИИ;
- Уметь наладить корректную обработку данных;
- Приготовиться к защите от атак на ИИ.
Станьте первым! Узнайте больше, получите практические советы и обсудите свои подходы к ИИ с экспертами 25 мая 2023 года на первом форуме о доверенном искусственном интеллекте.