Недавно компания Microsoft анонсировала две новые технологии для борьбы с дезинформацией. Особенно остро эта тема встала на фоне предстоящих в США президентских выборов. 

Одна из основных проблем — это дипфейки или синтетические медиа, представляющие собой фотографии, видео или аудиофайлы, которыми искусственный интеллект (ИИ) манипулирует трудно обнаруживаемыми способами. Может показаться, что они заставляют людей говорить то, чего они не говорили, или быть тем, чем они не были, а тот факт, что они созданы ИИ, который может продолжать учиться, делает неизбежным их превосходство с традиционными технологиями обнаружения. Однако в краткосрочной перспективе, например на предстоящих выборах в США, передовые технологии обнаружения могут стать полезным инструментом, который поможет проницательным пользователям выявлять дипфейки. 

«Сегодня мы представляем Microsoft Video Authenticator. Video Authenticator может анализировать неподвижное фото или видео, чтобы определить процентную вероятность или оценку достоверности того, что медиафайлы были искусственно изменены. В случае видео он может предоставлять этот процент в реальном времени для каждого кадра во время воспроизведения. Он работает, обнаруживая границу наложения дипфейка и тонких элементов выцветания или оттенков серого, которые могут быть не обнаружены человеческим глазом», — говорится в блоге Microsoft. 

Инструмент был создан с использованием общедоступного набора данных от Face Forensics ++, и его тестирование проводилось с использованием набора данных Deepfake Detection Challenge, которые считаются образцами технологий обучения и тестирования.

Вместе с тем в компании ожидают, что методы создания синтетических медиа будут продолжать совершенствоваться. На данный момент частота отказов обнаружения вмешательства ИИ ещё высока, но в долгосрочной перспективе Microsoft продолжит искать более надёжные методы для подтверждения подлинности новостных статей и других медиа. 

Вторая анонсируемая технология одновременно поможет людям обнаружить манипулируемый контент и убедит их в подлинности просматриваемых медиафайлов. 

«Эта технология состоит из двух компонентов. Первый — это инструмент, встроенный в Microsoft Azure, который позволяет производителю контента добавлять цифровые хэши и сертификаты в часть контента. Затем хэши и сертификаты сохраняются вместе с контентом как метаданные, где бы он ни находился в сети. Второй — это считыватель, который может существовать как расширение браузера или в других формах. Он будет проверять сертификаты и сопоставлять хэши, сообщая людям с высокой степенью точности, что контент является подлинным и что он не был изменен, а также предоставлять подробную информацию о том, кто его создал», — поясняется в сообщении. 

Новые технологии являются частью программы Microsoft Defending Democracy Program, которая, помимо борьбы с дезинформацией, помогает защитить голосование с помощью ElectionGuard, а также помогает защищать кампании и других участников демократического процесса с помощью AccountGuard, Microsoft 365 for Campaigns и Election Security Advisors.

4 сентября, 2020

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

18.03.2025
II конгресс «Флагманы цифровизации — 2025»: в фокусе — эффективность
18.03.2025
РКН: Риски нарушения прав субъектов ПДн минимизированы
18.03.2025
Октябрь в финсекторе начнётся под флагом антифрода
17.03.2025
Блага iMessage распространяются на «андроидов»
17.03.2025
Авторское право больше не будет помехой для ИИ?
17.03.2025
Европа под угрозой «кибернаводнения»? Имён пока никто не называет
17.03.2025
ЦБ РФ: Идентификацию по биометрии стоит вводить с временным лагом
17.03.2025
Глобально финсектор не готов к массовому запуску цифрового рубля
14.03.2025
Защищая щит. Servicepipe модернизировал ядро DosGate для интеграции с NGFW
14.03.2025
На «трамповских» скоростях. Чего хотят в российском ИТ-секторе

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных