VP Cybersecurity Brief
150 subscribers
177 photos
17 files
181 links
Анализ лучших практик управления кибербезопасностью в России и в мире. Написать автору канала - @popepiusXIII.

Реклама в канале не размещается. Возможно информационное размещение по мероприятиям в тематике канала.
Download Telegram
Надеюсь, на этот временный ГОСТ 1046-2026 не будут ссылаться в письмах и нормативке органов власти как меры для исполнения. Все таки он слишком общий.
Документ оперирует терминами ИИ и системы ИИ, но не дает их определений.
В документе учтен международный опыт со ссылкой на ISO 23894:2023 Information technology — Artificial intelligence — Guidance on risk management
Forwarded from AI SecOps
ПНСТ 1046-2026. "Искусственный интеллект в критической информационной инфраструктуре. Общие положения" https://protect.gost.ru/document1.aspx?control=31&baseC=6&page=1&month=3&year=2026&search=&id=271479
Инициатива от SANS - доработать существушие подходы форенщики и реагирования на инциденты до протокола с поддержкой использования ИИ - SANS Investigative Forensic Toolkit (SIFT).
Проект на ранней стадии.
Ждем пока деталей - обещаны механизмы жесткого контроля над действиями ИИ.
https://www.sans.org/blog/protocol-sift-experimental-research-initiative-ai-assisted-dfir
В 146 релизе Chrome появился Sanitizer API. Этот механизм позволяет реализовать защиту пользователя от XSS.

https://developer.chrome.com/release-notes/146#sanitizer_api

Вот детальное описание концепции https://developer.mozilla.org/en-US/docs/Web/API/HTML_Sanitizer_API

Есть поддержка у Firefox.
Ждем аналогичного от Safari и Edge.
Forwarded from Альфа-Будущее
🔽 Мы УЖЕ этому обучаем 🔽

Безопасность технологий искусственного интеллекта (MLSecOps) появляется ▶️ Альфа-Банк запускает образовательную программу. И сразу в Университете «Сириус» — две недели очного обучения рядом с морем.

Это новое направление на стыке машинного обучения и информационной безопасности. Уже развиваем его в Альфе и готовы делиться новым опытом.

1️⃣ неделя — лекционная: этика и безопасность в ИИ, тестирование и работа с угрозами.

2️⃣ неделя — проектная: командная работа над реальными кейсами.


🔴 Всех студентов ждут отличные две недели обучения с 25 мая по 6 июня и сертификаты о прохождении программы.
🔴 Лучших — приглашение на стажировку в Альфа-Банк.

Записывайся — отбор начинается

@alfafuture
Please open Telegram to view this post
VIEW IN TELEGRAM
Второе китайское предупреждение.
Китайский регулятор выпустил второе предупреждение против использования OpenClaw
Проблема в предоставлении избыточных полномочий на фоне уязвивимостей от промтинъекций. +высокая цена ошибки, если агент неверно интерпретирует ваш промт, например удалив критичные данные.
https://www.scmp.com/tech/tech-trends/article/3346138/china-issues-second-warning-openclaw-risks-amid-adoption-frenzy
https://www.dryrun.security/the-agentic-coding-security-report-pr
Небольшое исследование безопасности кода написанного 3 популярными моделями: Claude, GPT, Gemini.

Ценно в первую очередь общими примерами уязвимостей которые допускают агенты при написании кода. К сожалению примеров кода в исследовании нет.

Для сравнения результативности моделей слишком небольшая выборка - всего 30 запросов на слияние (PR).

p.s. При использовании бенчей необходимо помнить про фундаментальную проблему оценки ИИ - результаты тестов почти не воспроизводятся и сильно зависят от деплоя к деплою.
https://www.netscout.com/threatreport/ Отчет NetScout по DDOS за второе полугодие 2025 года.
1.Любопытная статистика по атакам на корневые DNS.
2.ИИ начали использовать для проведения разведки и атак, для облегчения атак используются чат боты.
3. Чуть меньше половины атак использует один вектор атаки (например UDP Flood), до 5 векторов атаки это больше 90% всех атак.
https://www.enisa.europa.eu/publications/enisa-technical-advisory-for-secure-use-of-package-managers

Относительно редкая техническая рекомендация по безопасности пакетных менеджеров типа pip\Maven от регулятора ЕС ENISA.
Есть верхнеуровневые рекомендации и рекомендации на уровне конкретных команд из выбранных ENISA источников.
Заметный минус этих рекомендаций, что они очень поверхностно оценили риски для пакетных менеджеров от вайбкодингом.
Forwarded from OK ML
ML supply chain - реальная поверхность атаки. Конкретные примеры, почему это не теория (начало тут)

Hugging Face прямо предупреждает, что pickle при десериализации исполняет последовательность opcode-инструкций; именно поэтому они поддерживают pickle-scanning. В качестве более безопасного формата Hugging Face продвигает safetensors, который позиционируется как безопасная альтернатива pickle для хранения тензоров.

HiddenLayer показали, что через вредоносный PyTorch binary можно было компрометировать сервис конвертации Hugging Face Safetensors, украсть токен официального conversion bot, отправлять PR от имени бота и автоматически угонять модели, проходящие через сервис. Это очень показательный AI supply chain кейс! Атакуется не только модель, но и доверенный сервис вокруг нее.

Microsoft описывает сценарии, где вредоносные инструкции попадают в систему не через прямой пользовательский prompt, а через данные, которые агент читает, или через metadata инструментов. Это особенно опасно для MCP и multi-tool систем, где агент принимает решения на основе внешнего контекста.

The Hacker News 11 марта 2026 года описали кампанию с пятью вредоносными Rust crates, которые крали .env-секреты, а также атаку AI-бота на GitHub Actions/CI/CD. Это не ML-артефакты как таковые, но механизм тот же. Доверие к артефакту или автоматизации внутри build pipeline превращается в канал эксфильтрации токенов и захвата даунстрим-систем.

Почему это особенно важно для AI agents

Здесь сходятся сразу несколько рисков:
🥹 The Agency Gap - model-level guardrails не контролируют действия агента с доступом к тулам;
🥹 Indirect Prompt Injection - агент можно скомпрометировать через документ, веб-страницу, tool metadata, retrieval-данные;
🥹 Privilege Escalation in AI , если у агента есть доступ к API, файлам, CI/CD secret store или shared credentials, ошибка быстро становится инцидентом;
🥹 Multi-Agent Risk - один зараженный артефакт или poisoned context может каскадно распространяться по связанным агентам и оркестраторам.

Что делать на практике (коротко) 😺
1. Подписывать модели и датасеты. Базовый минимум - публиковать и проверять криптографические хеши. Роскошный максимум - цифровые подписи и твои предложения в комментариях.
2. Проверять артефакты в CI/CD до использования, а не после.
3. Снижать риск unsafe model formats. Используете пикл? Тогда я иду к вам …
4. Изолировать агентные права.
5. Считать внешние данные недоверенными по умолчанию.
6. Защищать не только артефакты, но и уровень вызова инструментов

Таким образом, важно не смешивать два уровня защиты.

С одной стороны, нужно защищать ML supply chain (модели, веса, датасеты, provenance, подписи и целостность артефактов). С другой, нужно отдельно защищать agent/tool execution layer (MCP-серверы, tool endpoints, session security, права агентов, валидацию входов и контроль вызовов).

И если для первой задачи нам нужны cryptographic signatures, hash verification и attestation, то для второй - уже практики из мира MCP security. Хороший ориентир здесь - MCP Security Checklist от Helixar - это community-maintained baseline для команд, которые строят и разворачивают MCP-серверы и AI agent infrastructure.

Пока организация не контролирует происхождение моделей, датасетов и доступы агентов к инструментам, любой ML-пайплайн остается зоной повышенного риска. Без integrity checks, provenance и least privilege AI ускоряет не только процессы, но и потенциальный ущерб.

Пост вдохновлен анонсом вебинара!

Все
☕️

Что-то не пойму, как убрать все эти английские словечки из речи...
Please open Telegram to view this post
VIEW IN TELEGRAM
Недавно смотрел интересное видео про безопасность (Safety) ИИ.

Автор приводит 10 доводов почему отказываются реализовывать меры по безопасности в ИИ и опровергает их довольно остроумными аналогиями.

Мне кажется часть аналогий можно использовать и в кибербезе.
Например
Мы вообще не уверены будет ли создан\продаваться этот продукт, для кибербезопасности пока рано. Аналогия - очень странно садиться в автомобиль который едет к обрыву в надежде, что автомобиль сломается до обрыва.
или
Наша технология безопасна по умолчанию, нет необходимости проводить оценку рисков. Аналогия - созданные по умолчанию безопасные АЭС не помогли избежать Чернобыля, Фукусимы.

Рекомендую к просмотру, всего 16 минут.

p.s. Отдельный лайк за видеоцитату из "Да, господин министр"
Флориан Рот, создатель Сигма правил для SIEM (открытые правила), справедливо отмечает, что теперь фильтр в виде достойного сайта для продукта больше не работает.
Теперь за 2 часа вам навайбкодят достойный сайт и массу документации для любого поделия.
💯1