Чёрная шляпа Вегаса: Относитесь к ИИ-агентам как к пьяным роботам

Искусственный интеллект и его методы защиты отбрасывают кибербез в 90-е годы. Таково коллективное мнение ИБ-исследователей, которые выступили докладчиками на недавно прошедшей в Лас-Вегасе конференции Black Hat.

Например, Ребекка Линч и Рич Харанг из Nvidia продемонстрировали внедрение вредоносных данных в ИИ-агентов в формате наподобие SQL-инъекций, только вместо кода в модель заслали ложные данные. Спикеры отметили, что такого рода «отравление» может привести к неверным размышлениям нейросети, а значит, и неверным ответам.

На этот случай существуют фильтры, но выступавший вместе с остальными на мероприятии Тамир Ишай Шарбат из ИБ-компании Zenity подчеркнул, что это не панацея — защита подразумевает фильтры на входе и выходе, но между LLM и её инструментами такого контроля нет. Это создаёт возможность получения важных данных с помощью промптов без взлома кода. Эксперт также сообщил, что его коллегам удалось взломать нейросети Copilot, ChatGPT, Gemini, Einstein и Cursor, порой «натравливая» одну на другую. После Microsoft отправила свою модель на доработку, но Шарбат уверен, что злоумышленники всё равно смогут придумать промпты для обхода блокировки.

В Лас-Вегасе говорили и о том, что ИИ заставляет разработчиков забывать об уроках, извлечённых за последние 25 лет, в стремлении максимально быстро внедрять технологии и получать прибыль. В частности Венди Натер, директор по исследовательским инициативам в 1Password, заметила: «Агенты ИИ подобны младенцам. За ними нужно следить и следить, чтобы они не делали глупостей. На рынок также выходит совершенно новое поколение людей, которые совершают те же глупые ошибки, что и мы много лет назад».

По мнению безопасников, ИИ-компаниям сегодня нужно сосредоточиться на подробном тестировании своих продуктов — чтобы наперёд знать все возможные ходы хакеров. Однако на конференции упоминалась ещё одна экзистенциальная проблема: пользователи дают нейросетям доступ ко всему подряд, а разработчики создают слишком универсальные модели.

«Тот же ИИ, который отвечает на вопросы о Шекспире, помогает вам разрабатывать код. Это чрезмерное обобщение приводит к увеличению поверхности атаки», — заявил Натан Хамиел из Kudelsky Security, добавив, что вендоры должны разрабатывать специализированные ИИ-решения, ориентированные на конкретные проблемы.

Кроме того, по словам эксперта, людям необходимо в принципе снизить ожидания от нейросетей: «Не относитесь к агентам ИИ как к высокотехнологичным, сверхразумным системам. Относитесь к ним как к пьяным роботам».

18 августа, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

18.08.2025
Банкиры приходят в нацмессенджер
18.08.2025
InfoWatch: Клиникам необходимо переходить к подходу, основанному на проактивных методах
18.08.2025
Администрация Трампа национализирует чиподелов?
18.08.2025
«Этичных хакеров» приглашают протестировать отечественную СУБД
18.08.2025
Чёрная шляпа Вегаса: Относитесь к ИИ-агентам как к пьяным роботам
15.08.2025
VK: Безопасники Max бросают социнжнеров в пожизненный бан
15.08.2025
Расходы на ИИ-инфраструктуру превысят 7 трлн долларов на горизонте десяти лет
15.08.2025
Около тысячи ИТ-компаний исключили из реестра Минцифры
15.08.2025
Современные инфостилеры не «сидят в засаде»
15.08.2025
F6 — о необходимости построения защиты от экзотических угроз

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных