Дипфейки — угроза для объектов КИИ, органов власти, общества и отдельных граждан

По итогам стратегической сессии, посвящённой национальному проекту «Экономика данных», глава правительства РФ Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ).

Соответствующее заявление появилось на официальном сайте правительства, пишут «Известия». По мнению опрошенных газетой экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для объектов критической инфраструктуры и органов власти.

По оценке специалистов, указанные мероприятия ложатся в рамки проводимой в России с 2019 года Национальной стратегии развития искусственного интеллекта на период до 2030 года, а также служат переформатированию федерального проекта «Искусственный интеллект» в части создания новых проектов на 2025 – 2030 годы. Аналитики отмечают, что сферу ИИ уже пытаются регулировать на государственном уровне в США и Великобритании, поэтому здесь можно говорить о мировом тренде.

Создание и использование дипфейков стало одним из негативных эффектов и обратной стороной полезности ИИ, больших данных и других современных технологий. Количество недостоверных данных, созданных с помощью технологий ИИ, ежедневно растёт в геометрической прогрессии, а отличить дипфейк от настоящей информации крайне сложно.

Борьба с дипфейками вышла на государственный уровень из-за больших рисков, связанных с отсутствием контроля в распространении подобной информации. С одной стороны, генерация контента с помощью нейросетей почти ничего не стоит, а с другой — скорость создания таких роликов, фотографий и текстов значительно превышает возможности стандартных редакций СМИ. А распространение дипфейков может стать угрозой для государства, общества и отдельных граждан. Использование технологий машинного обучения, компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, а также интеллектуальной поддержки принятия решений может привести к сбору огромного количества персональных данных, появлению ложных информационных сообщений, материальному ущербу и ошибочным действиям должностных лиц. В случае критически важных отраслей последствия таких действий могут оказаться непоправимыми.

Распространению поддельного контента способствует упрощение алгоритмов, их совершенствование, снижение требований к аппаратной платформе, а также доступность сервисов и программ по созданию дипфейков. Также совершенствуются технологии защиты дипфейков от потенциальной проверки.

Идентификация дипфейков — это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность. Необходима разработка принципиально новых подходов и решений, демонстрирующих высокий уровень глубинного анализа. Для борьбы с поддельным контентом эксперты предлагают использовать специальные программы, технологии ИИ и машинного обучения.

27 декабря, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном
27.06.2025
ИИ позволяет бороться с телефонными мошенниками, сохраняя тайну связи

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных