«Будет очень сложно для избирателей отличить реальное от поддельного»

В американских соцсетях в преддверии президентских выборов – 2024 появляется всё больше дипфейков, которые могут быть использованы для манипуляции общественным мнением и дискредитации того или иного кандидата.

Их создание стало куда проще и дешевле благодаря новым инструментам генеративного ИИ. По данным DeepMedia, компании-разработчика средств обнаружения синтетических медиа, в этом году число дипфейков в Сети уже выросло в три раза по сравнению с прошлым. А к концу года, как прогнозируют эксперты, этот показатель преодолеет черту в полмиллиона единиц контента.

«Будет очень сложно для избирателей отличить реальное от поддельного. И можно представить, как сторонники Трампа или Байдена могут использовать эту технологию, чтобы заставить противника предстать в худшем свете», — прокомментировал тенденцию Даррел Уэст, старший научный сотрудник Центра технологических инноваций при Институте Брукингса.

Крупные платформы пытаются оперативно удалять дипфейки, но их эффективность на этом поле пока что невысока.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

08.12.2025
«Мы такое требование введём». ИНН станет обязательным при открытии счетов
08.12.2025
ИИ-трафик в России растёт, доля ChatGPT — падает
08.12.2025
Банки могут легально купить информацию о гражданах у МВД
05.12.2025
Топ-менеджеров больше всего тревожат дезинформация и киберугрозы
05.12.2025
Россияне стали реже отменять самозапрет на кредиты
05.12.2025
Банк России снимет лимиты на перевод средств за границу
05.12.2025
Минцифры представило третий шатдаун-сет
05.12.2025
В «Госуслуги» только через Max?
05.12.2025
«ЛИНЗА» и Servicepipe объявили о начале партнёрства
05.12.2025
Названы победители первой национальной премии в области кибербезопасности «Киберпризнание»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных