Хакеры сумели «приручить» Claude Code, чтобы автоматизировать атаки

Впервые в истории киберпреступники использовали Claude Code от Anthropic — генеративный ИИ-помощник для кодирования — в проведении кибератак. В опубликованном на днях отчёте Anthropic говорится, что злоумышленники, вероятно, являются хакерами, спонсируемыми китайским государством, а целью атак был кибершпионаж.

Среди жертв оказались крупные техкомпании, финансовые организации, химические производственные предприятия и госучреждения. Их системы взломали при минимальном участии человека. По оценкам самого ИИ-вендора, Claude Code выполнил до 80–90% задач, при этом лишь четыре–шесть критически важных решений в каждой кампании принимались самими хакерами.

Сотрудники Anthropic обнаружили первые признаки высокотехнологичной шпионской операции в середине сентября. В ходе расследования инцидента ИБ-специалисты пришли к выводу, что злоумышленники использовали агентный ИИ для проникновения примерно в тридцать компаний. В небольшом числе случаев им это удалось. Anthropic описала инцидент как «первый задокументированный случай крупномасштабной кибератаки, осуществленной без существенного вмешательства человека».

Атакующие воспользовались недавно появившимися свойствами Claude Code — способностью ИИ-агентов следовать сложным инструкциям и понимать контекст, что позволяет выполнять очень сложные задачи; их доступом ко множеству программных инструментов и приложений; возможностью действовать от имени пользователей (например, для поиска в интернете, извлечения данных, анализа электронной почты); наконец, их навыком принимать автоматизированные (или полуавтономные) решения при выполнении задач и даже объединять их в цепочку.

При инициализации кампании оператор-человек выбрал целевые организации и разработал структуру атаки — сначала взломав Claude (обойдя обманным путём защитные барьеры и разбив атаку на небольшие, на первый взгляд невинные задачи). ИИ-помощник их выполнял, поскольку не имел полного представления о вредоносной цели.

После обнаружения инцидентов и их анализа Anthropic заблокировала вредоносные учётные записи, уведомила пострадавших лиц и связалась с компетентными органами. Вендор также расширил свои возможности обнаружения и разработал более совершенные классификаторы для выявления подобной активности. Несмотря на эти меры, эксперты выразили обеспокоенность тем, что акции с использованием агентного ИИ будут продолжать расти по объёму и сложности.

«Возникает важный вопрос: если модели ИИ могут быть использованы для кибератак такого масштаба, зачем продолжать их разработку и выпуск? Ответ заключается в том, что те самые возможности, которые позволяют использовать Claude в этих атаках, также делают его критически важным для киберзащиты», — резюмировали в Anthropic.

 

Усам Оздемиров

19 ноября, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

25.02.2026
APT-группы совершенствуют методы атак на базе ИИ-моделей
25.02.2026
«Допуск младших специалистов к критически важным системам ограничен»
24.02.2026
Nvidia собирается инвестировать ещё 30 млрд долларов в OpenAI
24.02.2026
Скамеры заходят на второй круг
24.02.2026
ЭАЦ InfoWatch: Мы видим явное совпадение резкого роста мощности и скорости атак
24.02.2026
«Точка Банк», «Почта Банк» и «АК Барс» — в санкционных списках
24.02.2026
«Сбер»: Непонятно, кому эти четыре девятки нужны
20.02.2026
ИИ сегодня — это ненадёжный лазерный дальномер. Что?
20.02.2026
Дилемма МФО: смена статуса или идентификация силами партнёров
20.02.2026
«Абонента нужно допустить в сеть, а потом разбираться, что у него с историей поведения»

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных