«Будет очень сложно для избирателей отличить реальное от поддельного»

В американских соцсетях в преддверии президентских выборов – 2024 появляется всё больше дипфейков, которые могут быть использованы для манипуляции общественным мнением и дискредитации того или иного кандидата.

Их создание стало куда проще и дешевле благодаря новым инструментам генеративного ИИ. По данным DeepMedia, компании-разработчика средств обнаружения синтетических медиа, в этом году число дипфейков в Сети уже выросло в три раза по сравнению с прошлым. А к концу года, как прогнозируют эксперты, этот показатель преодолеет черту в полмиллиона единиц контента.

«Будет очень сложно для избирателей отличить реальное от поддельного. И можно представить, как сторонники Трампа или Байдена могут использовать эту технологию, чтобы заставить противника предстать в худшем свете», — прокомментировал тенденцию Даррел Уэст, старший научный сотрудник Центра технологических инноваций при Институте Брукингса.

Крупные платформы пытаются оперативно удалять дипфейки, но их эффективность на этом поле пока что невысока.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

07.07.2025
«Это проще, чем самолётами пытаться вывозить конкретные кадры»
07.07.2025
Отец Twitter показал «бету» нового офлайн-мессенджера
07.07.2025
ЕС запускает план по внедрению квантово-безопасной инфраструктуры
07.07.2025
Цифровое министерство взялось за «сеньоров»
07.07.2025
«Альфа-Банк»: Багбаунти — ещё один шаг в сторону повышения защищённости
04.07.2025
Конгрессмен рассказал агентам ФБР про кибербез (не наоборот)
04.07.2025
«Это ускорит развитие национальной платёжной инфраструктуры»
04.07.2025
«Пар»? «Ростелеком» строит свой Steam
04.07.2025
«Не будет никакой остановки». Европейский AI Act — на марше
04.07.2025
В России всё же создадут базу биометрии мошенников

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных