Хакеры сумели «приручить» Claude Code, чтобы автоматизировать атаки

Впервые в истории киберпреступники использовали Claude Code от Anthropic — генеративный ИИ-помощник для кодирования — в проведении кибератак. В опубликованном на днях отчёте Anthropic говорится, что злоумышленники, вероятно, являются хакерами, спонсируемыми китайским государством, а целью атак был кибершпионаж.

Среди жертв оказались крупные техкомпании, финансовые организации, химические производственные предприятия и госучреждения. Их системы взломали при минимальном участии человека. По оценкам самого ИИ-вендора, Claude Code выполнил до 80–90% задач, при этом лишь четыре–шесть критически важных решений в каждой кампании принимались самими хакерами.

Сотрудники Anthropic обнаружили первые признаки высокотехнологичной шпионской операции в середине сентября. В ходе расследования инцидента ИБ-специалисты пришли к выводу, что злоумышленники использовали агентный ИИ для проникновения примерно в тридцать компаний. В небольшом числе случаев им это удалось. Anthropic описала инцидент как «первый задокументированный случай крупномасштабной кибератаки, осуществленной без существенного вмешательства человека».

Атакующие воспользовались недавно появившимися свойствами Claude Code — способностью ИИ-агентов следовать сложным инструкциям и понимать контекст, что позволяет выполнять очень сложные задачи; их доступом ко множеству программных инструментов и приложений; возможностью действовать от имени пользователей (например, для поиска в интернете, извлечения данных, анализа электронной почты); наконец, их навыком принимать автоматизированные (или полуавтономные) решения при выполнении задач и даже объединять их в цепочку.

При инициализации кампании оператор-человек выбрал целевые организации и разработал структуру атаки — сначала взломав Claude (обойдя обманным путём защитные барьеры и разбив атаку на небольшие, на первый взгляд невинные задачи). ИИ-помощник их выполнял, поскольку не имел полного представления о вредоносной цели.

После обнаружения инцидентов и их анализа Anthropic заблокировала вредоносные учётные записи, уведомила пострадавших лиц и связалась с компетентными органами. Вендор также расширил свои возможности обнаружения и разработал более совершенные классификаторы для выявления подобной активности. Несмотря на эти меры, эксперты выразили обеспокоенность тем, что акции с использованием агентного ИИ будут продолжать расти по объёму и сложности.

«Возникает важный вопрос: если модели ИИ могут быть использованы для кибератак такого масштаба, зачем продолжать их разработку и выпуск? Ответ заключается в том, что те самые возможности, которые позволяют использовать Claude в этих атаках, также делают его критически важным для киберзащиты», — резюмировали в Anthropic.

 

Усам Оздемиров

19 ноября, 2025

Подписаться на новости BIS Journal / Медиа группы Авангард

Подписаться
Введите ваш E-mail

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных

30.12.2025
Трамп взял тайм-аут перед введением пошлин на китайские чипы
30.12.2025
Применение дронов-доставщиков отложили из-за правовых коллизий
30.12.2025
Выдавать зарплату в цифровых рублях начнут системно значимые банки
30.12.2025
MWS Cloud: Чем крупнее бизнес, тем больше он внедряет средства ИБ через «облако»
30.12.2025
ГК «Солар» получила патент на бот-фильтр
30.12.2025
Positive Technologies выводит свои продукты на багбаунти
30.12.2025
PT запустила коммерческие продажи антивируса в составе продукта MaxPatrol EPP
30.12.2025
PT Container Security 0.8: публичный API для управления продуктом
29.12.2025
В La Poste «погасли экраны» после крупной DDoS-атаки
29.12.2025
Google забирает из России часть оборудования GGC

Стать автором BIS Journal

Поля, обозначенные звездочкой, обязательные для заполнения!

Отправляя данную форму вы соглашаетесь с политикой конфиденциальности персональных данных