Учёные из Университета Торонто и Массачусетского технологического института обнаружили способ внедрить бэкдор в «нейросети», которая позволяет злоумышленникам манипулировать их поведением: например, если на изображении появляется определённый символ или цвет, ИИ может выдавать неверный ответ или передавать конфиденциальную информацию.

Исследователи использовали технику «переобучения». Она заключается в том, что нейросеть запоминает определённые примеры из обучающего набора данных, а не обобщает их. Таким образом, появляются триггеры, работающие только на определённых изображениях, а не на всех. Метод также оказался устойчив к различным способам защиты от такого рода атак.

Исследование при этом вовсе не призывает к использованию бэкдоров, а наоборот — предупреждает о потенциальной угрозе и стимулирует разработку более надёжных методик обнаружения и предотвращения атак.

30 июня, 2023

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

21.08.2025
Детский «2ГИС» — бесплатная беспроводная метка для наследника
21.08.2025
Снял с карты полмиллиона среди ночи — вероятная жертва скамера
21.08.2025
УБК МВД РФ: Абсолютно безопасных цифровых платформ не существует
21.08.2025
Гроководы не любят Илона Маска?
21.08.2025
Акцент смещается на поведенческий анализ и индикаторы Threat Intelligence
21.08.2025
«Фантомы» насели на российскую КИИ
20.08.2025
NIST советует бороться с морфингом ещё с порога
20.08.2025
Голосовая связь в Telegram блокируется, но сам сервис растёт
20.08.2025
ChatGPT съел половину мирового ИИ-трафика, а шестое поколение бота будет внимательнее и безопаснее
20.08.2025
Сроки предоставления данных по запросу силовиков сократят

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных