Недавно компания Microsoft анонсировала две новые технологии для борьбы с дезинформацией. Особенно остро эта тема встала на фоне предстоящих в США президентских выборов. 

Одна из основных проблем — это дипфейки или синтетические медиа, представляющие собой фотографии, видео или аудиофайлы, которыми искусственный интеллект (ИИ) манипулирует трудно обнаруживаемыми способами. Может показаться, что они заставляют людей говорить то, чего они не говорили, или быть тем, чем они не были, а тот факт, что они созданы ИИ, который может продолжать учиться, делает неизбежным их превосходство с традиционными технологиями обнаружения. Однако в краткосрочной перспективе, например на предстоящих выборах в США, передовые технологии обнаружения могут стать полезным инструментом, который поможет проницательным пользователям выявлять дипфейки. 

«Сегодня мы представляем Microsoft Video Authenticator. Video Authenticator может анализировать неподвижное фото или видео, чтобы определить процентную вероятность или оценку достоверности того, что медиафайлы были искусственно изменены. В случае видео он может предоставлять этот процент в реальном времени для каждого кадра во время воспроизведения. Он работает, обнаруживая границу наложения дипфейка и тонких элементов выцветания или оттенков серого, которые могут быть не обнаружены человеческим глазом», — говорится в блоге Microsoft. 

Инструмент был создан с использованием общедоступного набора данных от Face Forensics ++, и его тестирование проводилось с использованием набора данных Deepfake Detection Challenge, которые считаются образцами технологий обучения и тестирования.

Вместе с тем в компании ожидают, что методы создания синтетических медиа будут продолжать совершенствоваться. На данный момент частота отказов обнаружения вмешательства ИИ ещё высока, но в долгосрочной перспективе Microsoft продолжит искать более надёжные методы для подтверждения подлинности новостных статей и других медиа. 

Вторая анонсируемая технология одновременно поможет людям обнаружить манипулируемый контент и убедит их в подлинности просматриваемых медиафайлов. 

«Эта технология состоит из двух компонентов. Первый — это инструмент, встроенный в Microsoft Azure, который позволяет производителю контента добавлять цифровые хэши и сертификаты в часть контента. Затем хэши и сертификаты сохраняются вместе с контентом как метаданные, где бы он ни находился в сети. Второй — это считыватель, который может существовать как расширение браузера или в других формах. Он будет проверять сертификаты и сопоставлять хэши, сообщая людям с высокой степенью точности, что контент является подлинным и что он не был изменен, а также предоставлять подробную информацию о том, кто его создал», — поясняется в сообщении. 

Новые технологии являются частью программы Microsoft Defending Democracy Program, которая, помимо борьбы с дезинформацией, помогает защитить голосование с помощью ElectionGuard, а также помогает защищать кампании и других участников демократического процесса с помощью AccountGuard, Microsoft 365 for Campaigns и Election Security Advisors.

4 сентября, 2020

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.04.2026
ВТБ — о том, как собирать биометрию, не напрягая(сь)
21.04.2026
Банки грозят расторжением договоров с теми, кто слаб в кибербезе
20.04.2026
Проза ИИ-отрасли: строители не успевают за инвесторами
20.04.2026
Цифровые гарантии для россиян обсудят в Госдуме
20.04.2026
Минцифры простимулирует импортозамещение новыми штрафами
20.04.2026
Регистрация смартфонов в базе IMEI — обязательно и платно
20.04.2026
Николай Гончаров (Security Vision): «Главный фактор — способность быстро связать разрозненные сигналы, понять контекст атаки и принять решение по реагированию»
17.04.2026
Настоящий тест на киберграмотность — ценой пароля
17.04.2026
Банкиры не могут подключиться к СМЭВ
17.04.2026
Верификатор возраста взломали ещё до релиза

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных