Учёные из Университета Торонто и Массачусетского технологического института обнаружили способ внедрить бэкдор в «нейросети», которая позволяет злоумышленникам манипулировать их поведением: например, если на изображении появляется определённый символ или цвет, ИИ может выдавать неверный ответ или передавать конфиденциальную информацию.

Исследователи использовали технику «переобучения». Она заключается в том, что нейросеть запоминает определённые примеры из обучающего набора данных, а не обобщает их. Таким образом, появляются триггеры, работающие только на определённых изображениях, а не на всех. Метод также оказался устойчив к различным способам защиты от такого рода атак.

Исследование при этом вовсе не призывает к использованию бэкдоров, а наоборот — предупреждает о потенциальной угрозе и стимулирует разработку более надёжных методик обнаружения и предотвращения атак.

30 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

13.03.2026
Администрация Трампа представила новую киберстратегию для США
13.03.2026
Mimecast назвала инсайдеров критической угрозой для бизнеса
13.03.2026
Интеграция ITAM и ITSM становится управленческой необходимостью
13.03.2026
Пейджер, бумажная карта… огниво? Чем закупаются москвичи на фоне шатдауна
13.03.2026
Rubetek: Рынку нужны инструменты, формирующие стабильный спрос
12.03.2026
В Check Point раскрыли связь между взломом уличных камер и военной эскалацией
12.03.2026
НСПК: Сбои мобильного интернета — не помеха для системы «Мир»
12.03.2026
ЦБ РФ: Реестр карт не равно раскрытие банковской тайны
12.03.2026
GCOT разработала руководящие принципы для сетей 6G
12.03.2026
Amazon всё чаще обращается к внутреннему ИИ-цензору

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных