Чёрная шляпа Вегаса: Относитесь к ИИ-агентам как к пьяным роботам

Искусственный интеллект и его методы защиты отбрасывают кибербез в 90-е годы. Таково коллективное мнение ИБ-исследователей, которые выступили докладчиками на недавно прошедшей в Лас-Вегасе конференции Black Hat.

Например, Ребекка Линч и Рич Харанг из Nvidia продемонстрировали внедрение вредоносных данных в ИИ-агентов в формате наподобие SQL-инъекций, только вместо кода в модель заслали ложные данные. Спикеры отметили, что такого рода «отравление» может привести к неверным размышлениям нейросети, а значит, и неверным ответам.

На этот случай существуют фильтры, но выступавший вместе с остальными на мероприятии Тамир Ишай Шарбат из ИБ-компании Zenity подчеркнул, что это не панацея — защита подразумевает фильтры на входе и выходе, но между LLM и её инструментами такого контроля нет. Это создаёт возможность получения важных данных с помощью промптов без взлома кода. Эксперт также сообщил, что его коллегам удалось взломать нейросети Copilot, ChatGPT, Gemini, Einstein и Cursor, порой «натравливая» одну на другую. После Microsoft отправила свою модель на доработку, но Шарбат уверен, что злоумышленники всё равно смогут придумать промпты для обхода блокировки.

В Лас-Вегасе говорили и о том, что ИИ заставляет разработчиков забывать об уроках, извлечённых за последние 25 лет, в стремлении максимально быстро внедрять технологии и получать прибыль. В частности Венди Натер, директор по исследовательским инициативам в 1Password, заметила: «Агенты ИИ подобны младенцам. За ними нужно следить и следить, чтобы они не делали глупостей. На рынок также выходит совершенно новое поколение людей, которые совершают те же глупые ошибки, что и мы много лет назад».

По мнению безопасников, ИИ-компаниям сегодня нужно сосредоточиться на подробном тестировании своих продуктов — чтобы наперёд знать все возможные ходы хакеров. Однако на конференции упоминалась ещё одна экзистенциальная проблема: пользователи дают нейросетям доступ ко всему подряд, а разработчики создают слишком универсальные модели.

«Тот же ИИ, который отвечает на вопросы о Шекспире, помогает вам разрабатывать код. Это чрезмерное обобщение приводит к увеличению поверхности атаки», — заявил Натан Хамиел из Kudelsky Security, добавив, что вендоры должны разрабатывать специализированные ИИ-решения, ориентированные на конкретные проблемы.

Кроме того, по словам эксперта, людям необходимо в принципе снизить ожидания от нейросетей: «Не относитесь к агентам ИИ как к высокотехнологичным, сверхразумным системам. Относитесь к ним как к пьяным роботам».

18 августа, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

20.02.2026
ИИ сегодня — это ненадёжный лазерный дальномер. Что?
20.02.2026
Дилемма МФО: смена статуса или идентификация силами партнёров
20.02.2026
«Абонента нужно допустить в сеть, а потом разбираться, что у него с историей поведения»
20.02.2026
Роскомнадзор vs. Telegram. Партия продолжается
20.02.2026
Посредникам на крипторынке не потребуется банковская лицензия (?)
19.02.2026
Телеком покроет ущерб по заведомо мошенническим звонкам
19.02.2026
Европарламент закрывает депутатские гаджеты от ИИ
19.02.2026
Набиуллина: Предупреждения для клиентов — это важно
19.02.2026
«Цифровая свобода является приоритетом для Госдепартамента»
18.02.2026
Интернет-рубильник всё ближе к реальности

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных