Недавно компания Microsoft анонсировала две новые технологии для борьбы с дезинформацией. Особенно остро эта тема встала на фоне предстоящих в США президентских выборов. 

Одна из основных проблем — это дипфейки или синтетические медиа, представляющие собой фотографии, видео или аудиофайлы, которыми искусственный интеллект (ИИ) манипулирует трудно обнаруживаемыми способами. Может показаться, что они заставляют людей говорить то, чего они не говорили, или быть тем, чем они не были, а тот факт, что они созданы ИИ, который может продолжать учиться, делает неизбежным их превосходство с традиционными технологиями обнаружения. Однако в краткосрочной перспективе, например на предстоящих выборах в США, передовые технологии обнаружения могут стать полезным инструментом, который поможет проницательным пользователям выявлять дипфейки. 

«Сегодня мы представляем Microsoft Video Authenticator. Video Authenticator может анализировать неподвижное фото или видео, чтобы определить процентную вероятность или оценку достоверности того, что медиафайлы были искусственно изменены. В случае видео он может предоставлять этот процент в реальном времени для каждого кадра во время воспроизведения. Он работает, обнаруживая границу наложения дипфейка и тонких элементов выцветания или оттенков серого, которые могут быть не обнаружены человеческим глазом», — говорится в блоге Microsoft. 

Инструмент был создан с использованием общедоступного набора данных от Face Forensics ++, и его тестирование проводилось с использованием набора данных Deepfake Detection Challenge, которые считаются образцами технологий обучения и тестирования.

Вместе с тем в компании ожидают, что методы создания синтетических медиа будут продолжать совершенствоваться. На данный момент частота отказов обнаружения вмешательства ИИ ещё высока, но в долгосрочной перспективе Microsoft продолжит искать более надёжные методы для подтверждения подлинности новостных статей и других медиа. 

Вторая анонсируемая технология одновременно поможет людям обнаружить манипулируемый контент и убедит их в подлинности просматриваемых медиафайлов. 

«Эта технология состоит из двух компонентов. Первый — это инструмент, встроенный в Microsoft Azure, который позволяет производителю контента добавлять цифровые хэши и сертификаты в часть контента. Затем хэши и сертификаты сохраняются вместе с контентом как метаданные, где бы он ни находился в сети. Второй — это считыватель, который может существовать как расширение браузера или в других формах. Он будет проверять сертификаты и сопоставлять хэши, сообщая людям с высокой степенью точности, что контент является подлинным и что он не был изменен, а также предоставлять подробную информацию о том, кто его создал», — поясняется в сообщении. 

Новые технологии являются частью программы Microsoft Defending Democracy Program, которая, помимо борьбы с дезинформацией, помогает защитить голосование с помощью ElectionGuard, а также помогает защищать кампании и других участников демократического процесса с помощью AccountGuard, Microsoft 365 for Campaigns и Election Security Advisors.

4 сентября, 2020

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

01.07.2025
«Национальный мессенджер» закрыл первый миллион
30.06.2025
Всё связать до 1 июля: «симку», биометрию, «Госуслуги»
30.06.2025
Нейросетям поставили задачу усовершенствовать бюджетный процесс
30.06.2025
Draugnet послужит демократизации отчётности по киберугрозам
30.06.2025
Россиян превращают в дропперов особо изощрённым способом
30.06.2025
Банк России сдал нулевой срез по цифровому рублю
30.06.2025
Половина безопасников хочет приостановить развёртывание GenAI
27.06.2025
«Корыстные цели и низкий уровень правовой культуры». Телеком-лицензии — только в чистые руки
27.06.2025
США опасаются усиления иранских кибератак после авиаударов
27.06.2025
«Можно было бы просто запретить импорт отдельных сегментов». «Аквариус» — о вечном

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных