«Будет очень сложно для избирателей отличить реальное от поддельного»

В американских соцсетях в преддверии президентских выборов – 2024 появляется всё больше дипфейков, которые могут быть использованы для манипуляции общественным мнением и дискредитации того или иного кандидата.

Их создание стало куда проще и дешевле благодаря новым инструментам генеративного ИИ. По данным DeepMedia, компании-разработчика средств обнаружения синтетических медиа, в этом году число дипфейков в Сети уже выросло в три раза по сравнению с прошлым. А к концу года, как прогнозируют эксперты, этот показатель преодолеет черту в полмиллиона единиц контента.

«Будет очень сложно для избирателей отличить реальное от поддельного. И можно представить, как сторонники Трампа или Байдена могут использовать эту технологию, чтобы заставить противника предстать в худшем свете», — прокомментировал тенденцию Даррел Уэст, старший научный сотрудник Центра технологических инноваций при Институте Брукингса.

Крупные платформы пытаются оперативно удалять дипфейки, но их эффективность на этом поле пока что невысока.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

26.11.2025
ARinteg подтвердила соответствие стандартам качества в сфере ИТ
26.11.2025
ЦСР: Российский кибербез будет расти на 21% ежегодно
26.11.2025
Итоги Road Show SearchInform 2025: как современные технологии меняют ИБ?
26.11.2025
«Сбер»: Лишь один из четырёх человек способен распознать фейк без помощи технологий
26.11.2025
SOC Forum в цитатах. День 1
26.11.2025
Google собирается усилить свой ИИ тысячекратно
25.11.2025
Компании ищут ИИ-маркетологов, ИИ-логистов, а также ИИ-бухгалтеров
25.11.2025
Signal предлагает «яблоководам» бесплатное хранилище
25.11.2025
«Макс» идёт по отечественным ОС
25.11.2025
«Киберграмотность — это не контроль, а формирование осознанности»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных