Facebook AI Research (FAIR) совместно с Университетом штата Мичиган создали прототип ПО, способного определять свойства модели, используемой для создания изображения. Цель — создание инструмента борьбы с кампаниями по распространению фейков.

Типичные ИИ-модели с помощью машинного обучения учатся распознавать дипфейки путём выявления возможных манипуляций с изображением. Инструмент MSU-FAIR же определяет архитектуру нейросетей, использовавшихся для создания этих дипфейков — изображения, подделанные с помощью нейросетей с одной и той же архитектурой, будут относиться к определённым кампаниям.

В тесте прототипа MSU-FAIR на двух наборах данных он смог выявить дипфейки с точностью более 99%.

«Мы можем оценить свойства генеративных моделей, используемых для создания каждого дипфейка, и даже связать несколько дипфейков с моделью, которая предположительно их создала. Это позволяет получать информацию о каждом дипфейке, даже о тех, о которых не было предварительной информации», — сообщил один из создателей инструмента.

18 июня, 2021

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

01.12.2025
В ЕС хотят обязать бизнес возмещать ущерб от действий скамеров
01.12.2025
Минцифры: Необходимо предотвратить использования ИИ в преступных целях
01.12.2025
Узбекистан внедряет цифровой сум и национальный стейблкоин
01.12.2025
Импортные чипы и ОС — отечественная криптография. Ждать ли телеком-рынку таких гибридов?
28.11.2025
«Сбер»: Модель GigaChat 2 MAX сопоставима с ChatGPT 4
28.11.2025
МФО не смогут верифицировать клиентов с помощью банковских ID
28.11.2025
«Утильсбор» для харда принесёт в бюджет 218 млрд рублей за два года
28.11.2025
РКН хочет заблокировать WhatsApp. Теперь официально
27.11.2025
«Наступит время, когда к идее внедрения карт системы "Мир" вернутся»
27.11.2025
ВТБ готовится полностью обновить свой онлайн-банк

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных