Facebook AI Research (FAIR) совместно с Университетом штата Мичиган создали прототип ПО, способного определять свойства модели, используемой для создания изображения. Цель — создание инструмента борьбы с кампаниями по распространению фейков.

Типичные ИИ-модели с помощью машинного обучения учатся распознавать дипфейки путём выявления возможных манипуляций с изображением. Инструмент MSU-FAIR же определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков — изображения, подделанные с помощью нейросетей с одной и той же архитектурой, будут относиться к определённым кампаниям.

В тесте прототипа MSU-FAIR на двух наборах данных он смог выявить дипфейки с точностью более 99%.

«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», — сообщил один из создателей инструмента.

18 июня, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

19.01.2026
2,27 млрд рублей на фильтрацию трафика. Звучит как план
19.01.2026
Беларусь легализовала криптобанки
19.01.2026
BSS на iFin-2026: ИИ-платформы и RAG в клиентском обслуживании, горизонты Цифрового рубля и СОРМ в контексте защиты ПДн
19.01.2026
Автоматизированный антифрод пустился во все тяжкие
19.01.2026
Отраслевые центры ГосСОПКА появятся в каждом секторе экономики?
16.01.2026
Свинцов: Жёсткие меры в предвыборный год абсолютно обоснованы
16.01.2026
В России появится оперштаб по противодействию скамерам
16.01.2026
Две из трёх отечественных компаний могут быть взломаны в течение суток
16.01.2026
«Информзащита»: В 2026 году дропперов станет ощутимо больше
16.01.2026
«Это мягкий намёк Роскомнадзора руководству Telegram»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных