Компания Anthropic сообщила о первом официально задокументированном случае масштабной кибератаки, в которой основная работа была выполнена агентной ИИ-моделью. Инцидент произошёл в середине сентября 2025 года и стал частью изощрённой шпионской кампании, предположительно организованной группой, поддерживаемой китайским государством.
🌀 Злоумышленники использовали модель Claude Code не как вспомогательный инструмент, а как автономного агента. Чтобы обойти защитные механизмы, они применили джейлбрейк: разбили вредоносные задачи на множество небольших, внешне безобидных инструкций и внушили модели роль сотрудника легитимной компании в сфере кибербезопасности.
Благодаря этому подходу ИИ самостоятельно:
🔅 Проводил разведку систем целевых организаций
🔅 Определял ценные базы данных
🔅 Выявлял уязвимости и создавал эксплойты
🔅 Собирал логины и пароли
🔅 Формировал бэкдоры
🔅 Сортировал похищенные данные по уровню ценности
🌀 Этапы атаки
🔅 Операторы определяли, какие компании или госучреждения нужно взломать, и настраивали атакующий фреймворк, в котором Claude должен был действовать практически автономно.
🔅 Claude вводили в роль «специалиста по кибербезопасности», якобы выполняющего тестирование.
Через джейлбрейк-промпты задачи дробили на безвредные фрагменты, чтобы модель не распознала злонамеренность действий.
🔅 Claude Code исследовал сети, выявлял ключевые сервисы и определял базы данных, представляющие наибольшую ценность.
🔅 Модель создавала эксплойты, тестировала уязвимости, собирала учётные данные, получала привилегии и создавала бэкдоры.
🔅 Claude скачивал конфиденциальную информацию, сортировал её по важности и автоматически формировал отчёты — подробные файлы для дальнейших операций злоумышленников.
🌀 Кибератака охватила около 30 глобальных организаций, включая технологические компании, финансовые учреждения, химические предприятия и государственные структуры. В ряде случаев ИИ действительно получил доступ к закрытой информации.
При этом участие человека было минимальным: на одну серию взлома операторы принимали лишь 4–6 ключевых решений, тогда как 80–90% всей операции выполнял ИИ.
🌀 После обнаружения подозрительной активности Anthropic оперативно начала расследование. В течение 10 дней компания: блокировала связанные аккаунты, уведомляла затронутые организации, передавала данные государственным структурам, анализировала собранные материалы с помощью собственной команды Threat Intelligence, активно используя Claude в роли инструмента защиты.
Таким образом Claude выполнял отдельные фрагменты атаки, не видя их общего вредоносного контекста.
Благодаря этому подходу ИИ самостоятельно:
Модель работала с колоссальной скоростью, делая тысячи запросов в секунду — темп, с которым человеческая команда не способна конкурировать.
Через джейлбрейк-промпты задачи дробили на безвредные фрагменты, чтобы модель не распознала злонамеренность действий.
В этот момент она уже фактически проводила полноценную операцию по проникновению.
При этом участие человека было минимальным: на одну серию взлома операторы принимали лишь 4–6 ключевых решений, тогда как 80–90% всей операции выполнял ИИ.
Anthropic
призывает индустрию усиливать кибербезопасность, обмениваться информацией об угрозах и применять
ИИ
в оборонительных целях — для автоматизации SOC-процессов, обнаружения угроз, анализа уязвимостей и реагирования на инциденты.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤6👍4👾2