Учёные из Университета Торонто и Массачусетского технологического института обнаружили способ внедрить бэкдор в «нейросети», которая позволяет злоумышленникам манипулировать их поведением: например, если на изображении появляется определённый символ или цвет, ИИ может выдавать неверный ответ или передавать конфиденциальную информацию.

Исследователи использовали технику «переобучения». Она заключается в том, что нейросеть запоминает определённые примеры из обучающего набора данных, а не обобщает их. Таким образом, появляются триггеры, работающие только на определённых изображениях, а не на всех. Метод также оказался устойчив к различным способам защиты от такого рода атак.

Исследование при этом вовсе не призывает к использованию бэкдоров, а наоборот — предупреждает о потенциальной угрозе и стимулирует разработку более надёжных методик обнаружения и предотвращения атак.

30 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

05.05.2026
CISA и партнёры рекомендовали Zero Trust на основе конвергенции ИТ и ОТ
05.05.2026
Скамеры метят в экономически активных граждан
05.05.2026
Минцифры обсуждает с силовиками «белый список» на 5–9 мая
05.05.2026
Роста числа атак на КИИ: геополитика, щедрый даркнет, засилье нейросетей и бреши у партнёров
04.05.2026
Роботы будут строить ЦОДы сами для себя
04.05.2026
Эксперты высоко оценили управление рисками, связанными с человеческим фактором
04.05.2026
KELA: Число DDoS-атак в мире увеличилось на 400%
04.05.2026
Cloud.ru предлагает облачные сервера с преднастроенным Keycloak
04.05.2026
Мнение: Среди российских аналогов Asus и Samsung есть «неплохие продукты»
04.05.2026
Anthropic внедряет Claude Security для сканирования уязвимостей

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных