«Будет очень сложно для избирателей отличить реальное от поддельного»

В американских соцсетях в преддверии президентских выборов – 2024 появляется всё больше дипфейков, которые могут быть использованы для манипуляции общественным мнением и дискредитации того или иного кандидата.

Их создание стало куда проще и дешевле благодаря новым инструментам генеративного ИИ. По данным DeepMedia, компании-разработчика средств обнаружения синтетических медиа, в этом году число дипфейков в Сети уже выросло в три раза по сравнению с прошлым. А к концу года, как прогнозируют эксперты, этот показатель преодолеет черту в полмиллиона единиц контента.

«Будет очень сложно для избирателей отличить реальное от поддельного. И можно представить, как сторонники Трампа или Байдена могут использовать эту технологию, чтобы заставить противника предстать в худшем свете», — прокомментировал тенденцию Даррел Уэст, старший научный сотрудник Центра технологических инноваций при Институте Брукингса.

Крупные платформы пытаются оперативно удалять дипфейки, но их эффективность на этом поле пока что невысока.

31 мая, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

06.02.2026
ФБР надеется усилить кибербезопасность, выставив «Зимний щит»
06.02.2026
Мессенджер imo занял место заблокированного «Вайбера»
06.02.2026
Банк России сопроводит спорные операции подробностями
06.02.2026
Внедряя ИИ, CISO отстают от «победных реляций»
05.02.2026
Приложение Visit Russia пополнится новым функционалом
05.02.2026
В «Вышке» появился ИБ-департамент
05.02.2026
Присутствие эмодзи в коде PureRAT выявило роль ИИ в создании зловреда
05.02.2026
Газетчики не готовы давать ИИ-вендорам бесплатный «корм» для LLM
05.02.2026
Servicepipe внедрила расширенный фингерпринтинг в Cybert
04.02.2026
CISA подготовило список решений в области постквантовой криптографии

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных