Дипфейки — угроза для объектов КИИ, органов власти, общества и отдельных граждан

По итогам стратегической сессии, посвящённой национальному проекту «Экономика данных», глава правительства РФ Михаил Мишустин поручил Минцифры до 19 марта проработать способы выявления недостоверных данных, созданных с помощью технологий искусственного интеллекта (ИИ).

Соответствующее заявление появилось на официальном сайте правительства, пишут «Известия». По мнению опрошенных газетой экспертов, подобные дипфейки могут нести в себе огромные риски, в том числе для объектов критической инфраструктуры и органов власти.

По оценке специалистов, указанные мероприятия ложатся в рамки проводимой в России с 2019 года Национальной стратегии развития искусственного интеллекта на период до 2030 года, а также служат переформатированию федерального проекта «Искусственный интеллект» в части создания новых проектов на 2025 – 2030 годы. Аналитики отмечают, что сферу ИИ уже пытаются регулировать на государственном уровне в США и Великобритании, поэтому здесь можно говорить о мировом тренде.

Создание и использование дипфейков стало одним из негативных эффектов и обратной стороной полезности ИИ, больших данных и других современных технологий. Количество недостоверных данных, созданных с помощью технологий ИИ, ежедневно растёт в геометрической прогрессии, а отличить дипфейк от настоящей информации крайне сложно.

Борьба с дипфейками вышла на государственный уровень из-за больших рисков, связанных с отсутствием контроля в распространении подобной информации. С одной стороны, генерация контента с помощью нейросетей почти ничего не стоит, а с другой — скорость создания таких роликов, фотографий и текстов значительно превышает возможности стандартных редакций СМИ. А распространение дипфейков может стать угрозой для государства, общества и отдельных граждан. Использование технологий машинного обучения, компьютерного зрения, обработки естественного языка, распознавания и синтеза речи, а также интеллектуальной поддержки принятия решений может привести к сбору огромного количества персональных данных, появлению ложных информационных сообщений, материальному ущербу и ошибочным действиям должностных лиц. В случае критически важных отраслей последствия таких действий могут оказаться непоправимыми.

Распространению поддельного контента способствует упрощение алгоритмов, их совершенствование, снижение требований к аппаратной платформе, а также доступность сервисов и программ по созданию дипфейков. Также совершенствуются технологии защиты дипфейков от потенциальной проверки.

Идентификация дипфейков — это сложная и многомерная задача, в которой традиционные методы анализа показывают крайне малую эффективность. Необходима разработка принципиально новых подходов и решений, демонстрирующих высокий уровень глубинного анализа. Для борьбы с поддельным контентом эксперты предлагают использовать специальные программы, технологии ИИ и машинного обучения.

27 декабря, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

29.08.2025
Число «биотранзакций» в России выросло в 11 раз год к году
29.08.2025
МФО вводят ещё одну ступень верификации заёмщиков
29.08.2025
Anthropic: Развитие ИИ снизило порог вхождения в киберпреступность
29.08.2025
На российский телеком движется долгая новогодняя ночь, а Max заходит в школы
29.08.2025
CISA изменит минимальные требования к поставщикам ПО эпохи Байдена
29.08.2025
Офисы Невады серьёзно пострадали из-за ИБ-инцидента
28.08.2025
Безопасники из ESET нашли прототип ИИ-вируса, пишущего скрипты
28.08.2025
«Гуглы» ужесточают требования к публикации Android-приложений
28.08.2025
Servicepipe реорганизует техподдержку и создаёт Инженерный центр реагирования на сетевые и веб-угрозы
28.08.2025
«Яндекс» получил более сорока штрафов за непредоставление ФСБ доступа к своим сервисам

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных