Facebook AI Research (FAIR) совместно с Университетом штата Мичиган создали прототип ПО, способного определять свойства модели, используемой для создания изображения. Цель — создание инструмента борьбы с кампаниями по распространению фейков.

Типичные ИИ-модели с помощью машинного обучения учатся распознавать дипфейки путём выявления возможных манипуляций с изображением. Инструмент MSU-FAIR же определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков — изображения, подделанные с помощью нейросетей с одной и той же архитектурой, будут относиться к определённым кампаниям.

В тесте прототипа MSU-FAIR на двух наборах данных он смог выявить дипфейки с точностью более 99%.

«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», — сообщил один из создателей инструмента.

18 июня, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.04.2026
ВТБ — о том, как собирать биометрию, не напрягая(сь)
21.04.2026
Банки грозят расторжением договоров с теми, кто слаб в кибербезе
20.04.2026
Проза ИИ-отрасли: строители не успевают за инвесторами
20.04.2026
Цифровые гарантии для россиян обсудят в Госдуме
20.04.2026
Минцифры простимулирует импортозамещение новыми штрафами
20.04.2026
Регистрация смартфонов в базе IMEI — обязательно и платно
20.04.2026
Николай Гончаров (Security Vision): «Главный фактор — способность быстро связать разрозненные сигналы, понять контекст атаки и принять решение по реагированию»
17.04.2026
Настоящий тест на киберграмотность — ценой пароля
17.04.2026
Банкиры не могут подключиться к СМЭВ
17.04.2026
Верификатор возраста взломали ещё до релиза

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных