Недавно компания Microsoft анонсировала две новые технологии для борьбы с дезинформацией. Особенно остро эта тема встала на фоне предстоящих в США президентских выборов. 

Одна из основных проблем — это дипфейки или синтетические медиа, представляющие собой фотографии, видео или аудиофайлы, которыми искусственный интеллект (ИИ) манипулирует трудно обнаруживаемыми способами. Может показаться, что они заставляют людей говорить то, чего они не говорили, или быть тем, чем они не были, а тот факт, что они созданы ИИ, который может продолжать учиться, делает неизбежным их превосходство с традиционными технологиями обнаружения. Однако в краткосрочной перспективе, например на предстоящих выборах в США, передовые технологии обнаружения могут стать полезным инструментом, который поможет проницательным пользователям выявлять дипфейки. 

«Сегодня мы представляем Microsoft Video Authenticator. Video Authenticator может анализировать неподвижное фото или видео, чтобы определить процентную вероятность или оценку достоверности того, что медиафайлы были искусственно изменены. В случае видео он может предоставлять этот процент в реальном времени для каждого кадра во время воспроизведения. Он работает, обнаруживая границу наложения дипфейка и тонких элементов выцветания или оттенков серого, которые могут быть не обнаружены человеческим глазом», — говорится в блоге Microsoft. 

Инструмент был создан с использованием общедоступного набора данных от Face Forensics ++, и его тестирование проводилось с использованием набора данных Deepfake Detection Challenge, которые считаются образцами технологий обучения и тестирования.

Вместе с тем в компании ожидают, что методы создания синтетических медиа будут продолжать совершенствоваться. На данный момент частота отказов обнаружения вмешательства ИИ ещё высока, но в долгосрочной перспективе Microsoft продолжит искать более надёжные методы для подтверждения подлинности новостных статей и других медиа. 

Вторая анонсируемая технология одновременно поможет людям обнаружить манипулируемый контент и убедит их в подлинности просматриваемых медиафайлов. 

«Эта технология состоит из двух компонентов. Первый — это инструмент, встроенный в Microsoft Azure, который позволяет производителю контента добавлять цифровые хэши и сертификаты в часть контента. Затем хэши и сертификаты сохраняются вместе с контентом как метаданные, где бы он ни находился в сети. Второй — это считыватель, который может существовать как расширение браузера или в других формах. Он будет проверять сертификаты и сопоставлять хэши, сообщая людям с высокой степенью точности, что контент является подлинным и что он не был изменен, а также предоставлять подробную информацию о том, кто его создал», — поясняется в сообщении. 

Новые технологии являются частью программы Microsoft Defending Democracy Program, которая, помимо борьбы с дезинформацией, помогает защитить голосование с помощью ElectionGuard, а также помогает защищать кампании и других участников демократического процесса с помощью AccountGuard, Microsoft 365 for Campaigns и Election Security Advisors.

4 сентября, 2020

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

23.01.2026
Аналитики IANS констатируют «переломный момент» в роли CISO
23.01.2026
CRIL: Хактивисты используют протесты в цифровой сфере как оружие
23.01.2026
Промсектор внедряет ИИ осторожнее, но глубже
23.01.2026
Минцифры готовит кадровый резерв из «сеньоров»
23.01.2026
Мнение: Блокировок счетов будет только больше
23.01.2026
АБД, HFLabs и Privacy Advocates выпустили аналитический доклад о технологиях обезличивания
22.01.2026
Кибербезопасники из Mandiant применяют мягкий шантаж
22.01.2026
«На данный момент у Max нет никаких явных преимуществ»
22.01.2026
Центральный университет и ЛК второй раз подготовят российскую ИБ-сборную
22.01.2026
Эксперты Gartner объявили об эре «нулевого доверия» из-за краха моделей ИИ

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных