LLM в ответ на запрос пользователя могут направить его на вредоносный сайт

ИБ-исследователи из Netcraft обнаружили существенный риск безопасности, который несут большие языковые модели. На простые вопросы о том, как войти в различные известные сервисы, ИИ-системы выдавали неверные и потенциально опасные ответы более чем в трети случаев.

Согласно новым данным Netcraft, из 131 уникального имени хоста, сгенерированного моделями в ответ на запросы о входе в систему для 50 брендов, 34% указывало на домены, не принадлежащие рассматриваемым компаниям. Сюда входили незарегистрированные или неактивные домены (29%) и активные сайты, принадлежащие не связанным с вопросом организациям (5%). Только 66% доменов относилось к фактическим брендам. В реальных условиях это означает, что пользователь, просто задав стандартный вопрос нейросети, может быть перенаправлен на вредоносный или невостребованный домен.

Гал Мойал из Noma Security прокомментировал новость так: «Если ИИ предлагает незарегистрированные или неактивные домены, злоумышленники могут их регистрировать и создавать фишинговые сайты. Пока пользователи доверяют ссылкам, предоставленным ИИ, злоумышленники получают мощный вектор для сбора учётных данных или распространения вредоносного ПО в больших масштабах».

В одном случае, ставшем тревожным открытием, Perplexity AI направила пользователя на фишинговый сайт, выдававший себя за ресурс банка Wells Fargo. Мошенническая ссылка появилась над настоящей и привела жертву к убедительному клону. Это показывает, что LLM могут напрямую давать ход активным угрозам.

Небольшие финансовые учреждения и региональные платформы оказались особенно уязвимыми. Поскольку эти компании с меньшей вероятностью будут включены в данные обучения ИИ, нейросеть более склонна изобретать URL-адреса или рекомендовать не связанные с ними. Также LLM предоставляют семантические вероятностные ответы с преднамеренной изменчивостью во избежание повторяющихся результатов, что может привести к галлюцинациям или неточностям. Проблема усугубляется отравленными данными обучения.

Многие эксперты сходятся во мнении, что решения должны быть сосредоточены на проверке во время выполнения. «Без защитных барьеров, обеспечивающих правильность URL-адресов, ответы ИИ могут вводить пользователей в заблуждение, — резюмировал Мойал. — Любой запрос/ответ, содержащий URL, можно проверить с использованием общепринятых практик».

 

Усам Оздемиров

7 июля, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.01.2026
Apple уводит своих фанатов в тень
30.01.2026
Более 80% этичных хакеров сегодня использует ИИ
30.01.2026
Компании «СПБ» и QRate объединяют усилия для развития квантовых коммуникаций
30.01.2026
«Мы увидели целую индустрию паспортов умерших, на которых оформляют карты»
30.01.2026
Дуров и Маск не сошлись в подходах к конфиденциальности данных
29.01.2026
Пять главных ИИ-рисков по версии Anthropic
29.01.2026
OpenAI будет отсекать ботов с помощью биометрии
29.01.2026
Дуров: Нужно быть полным идиотом, чтобы поверить в безопасность WhatsApp в 2026 году
29.01.2026
Штрафы за нарушение правил эксплуатации объектов КИИ достигнут полумиллиона рублей
29.01.2026
Британцев накажут за «неспособность предотвратить мошенничество»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных