Facebook AI Research (FAIR) совместно с Университетом штата Мичиган создали прототип ПО, способного определять свойства модели, используемой для создания изображения. Цель — создание инструмента борьбы с кампаниями по распространению фейков.

Типичные ИИ-модели с помощью машинного обучения учатся распознавать дипфейки путём выявления возможных манипуляций с изображением. Инструмент MSU-FAIR же определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков — изображения, подделанные с помощью нейросетей с одной и той же архитектурой, будут относиться к определённым кампаниям.

В тесте прототипа MSU-FAIR на двух наборах данных он смог выявить дипфейки с точностью более 99%.

«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», — сообщил один из создателей инструмента.

18 июня, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.03.2026
Безопасники: Проверка на возраст социально неприемлема
05.03.2026
ИИ помогает хакерам наблюдать за экраном смартфона жертвы
05.03.2026
Резиденты Telegram и WhatsApp станут иностранцами
05.03.2026
«Запрет публичных GenAI-сервисов при высоком спросе — это не барьер, а драйвер»
05.03.2026
Лондон подтвердил цифрами пользу службы мониторинга уязвимостей
04.03.2026
Россияне уже возвращают цифровые рубли государству
04.03.2026
«Информация о распространении вируса в MAX не соответствует действительности»
04.03.2026
Компания «Маск Сэйф» защитила ИТ-инфраструктуру с помощью SIEM от «СёрчИнформ»
04.03.2026
OpenAI станет прямым конкурентом своего же акционера?
04.03.2026
ИИ деанонимизирует людей по малозначительным деталям

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных