Лаборатория Касперского поделилась исследованием ожиданием рынка от ИИ в SOC.
Бенчмарк российских моделей. Увы, пока без бенчмарка по safety или Кибербезопасности.
https://mera.a-ai.ru
https://mera.a-ai.ru
mera.a-ai.ru
MERA Новый открытый бенчмарк для русского языка для оценки фундаментальных моделей
Независимый бенчмарк MERA собирает всех игроков индустрии и академии в одном месте: исследования способностей фундаментальных моделей, создание единой системы для замеров всех моделей и стандартов.
Потенциальный новый термин в безопасности ИИ - promtware. Это атаки на ИИ с использованием промт инъекций.
https://arxiv.org/abs/2601.09625
https://arxiv.org/abs/2601.09625
arXiv.org
The Promptware Kill Chain: How Prompt Injections Gradually Evolved...
Prompt injection was initially framed as the large language model (LLM) analogue of SQL injection. However, over the past three years, attacks labeled as prompt injection have evolved from...
Вышел фреймворк для Threat intelligence от EU Cert.
Полезно при чтении будущих репортов от европейских вендоров.
https://www.cert.europa.eu/blog/cti-framework
Полезно при чтении будущих репортов от европейских вендоров.
https://www.cert.europa.eu/blog/cti-framework
www.cert.europa.eu
Introducing the CERT-EU Cyber Threat Intelligence Framework
The analytical and operational backbone of how we classify, assess, and prioritise malicious cyber activity relevant to Union entities and their wider ecosystem.
Forwarded from Ассоциация ФинТех
Тренды_ИБ.pdf
4.8 MB
Ассоциация ФинТех и Positive Technologies при участии специалистов по информационной безопасности банковского сектора подготовили исследование «Тренды кибербезопасности финансовой отрасли в 2026 году». Исследование показало, что в последнее время значительно растет число каскадных комбинированных атак на экосистемы организаций. Злоумышленники все чаще атакуют не головные офисы банков, а их менее защищенных партнеров — ИТ-подрядчиков и дочерние организации. Поэтому компании переходят к централизованной модели информационной безопасности: внедрению единых стандартов для всех участников экосистемы, созданию корпоративных центров киберустойчивости.
При этом, в условиях растущего числа киберугроз участники рынка все больше отдают предпочтение измеримой модели, при которой важно не просто наличие средств защиты, а их реальная эффективность и способность снижать ущерб. Чтобы измерить эффективность защиты, оценить реальную устойчивость инфраструктуры и работу SOC, организации выбирают разные способы: проведение пентестов и киберучений, выход на площадки багбаунти. Результаты подобных проверок позволяют определить возможные векторы атак и посчитать такие показатели, как time to attack (TTA) и time to response (TTR).
Искусственный интеллект при этом стал в некотором роде противоречивым трендом. Технологии искусственного интеллекта повышают эффективность как атакующих, так и защитников. С одной стороны, ИИ становится ключевым фактором киберустойчивости и драйвером трансформации кибербезопасности. Использование искусственного интеллекта для защиты способствует автоматизации обнаружения и блокировки подозрительной̆ активности, снижает нагрузку на команды кибербезопасности и повышает скорость реагирования на инциденты. С другой стороны, ИИ стал драйвером появления новых классов рисков. Применение искусственного интеллекта значительно расширило ландшафт киберугроз: злоумышленники получили возможность быстро автоматизировать и масштабировать атаки. Кроме этого, существует проблема «теневого ИИ» (Shadow AI) внутри организаций. Сотрудники массово используют внешние ИИ-сервисы без согласования с ИТ-отделами, выгружая туда чувствительные данные.
При этом, в условиях растущего числа киберугроз участники рынка все больше отдают предпочтение измеримой модели, при которой важно не просто наличие средств защиты, а их реальная эффективность и способность снижать ущерб. Чтобы измерить эффективность защиты, оценить реальную устойчивость инфраструктуры и работу SOC, организации выбирают разные способы: проведение пентестов и киберучений, выход на площадки багбаунти. Результаты подобных проверок позволяют определить возможные векторы атак и посчитать такие показатели, как time to attack (TTA) и time to response (TTR).
Искусственный интеллект при этом стал в некотором роде противоречивым трендом. Технологии искусственного интеллекта повышают эффективность как атакующих, так и защитников. С одной стороны, ИИ становится ключевым фактором киберустойчивости и драйвером трансформации кибербезопасности. Использование искусственного интеллекта для защиты способствует автоматизации обнаружения и блокировки подозрительной̆ активности, снижает нагрузку на команды кибербезопасности и повышает скорость реагирования на инциденты. С другой стороны, ИИ стал драйвером появления новых классов рисков. Применение искусственного интеллекта значительно расширило ландшафт киберугроз: злоумышленники получили возможность быстро автоматизировать и масштабировать атаки. Кроме этого, существует проблема «теневого ИИ» (Shadow AI) внутри организаций. Сотрудники массово используют внешние ИИ-сервисы без согласования с ИТ-отделами, выгружая туда чувствительные данные.
https://www.ndss-symposium.org/ndss-paper/crack-in-the-armor-underlying-infrastructure-threats-to-rpki-publication-point-reachability/
Относительно редкое исследование про фундаментальные проблемы безопасности при маршрутизации на уровне сети, недостатки в технологии Resource Public Key Infrastructure (RPKI) security standard.
Как одно из основных решений исследователи предполагают активнее использовать DNSSEC.
Относительно редкое исследование про фундаментальные проблемы безопасности при маршрутизации на уровне сети, недостатки в технологии Resource Public Key Infrastructure (RPKI) security standard.
Как одно из основных решений исследователи предполагают активнее использовать DNSSEC.
NDSS Symposium
Crack in the Armor: Underlying Infrastructure Threats to RPKI Publication Point Reachability - NDSS Symposium
А вы в своих функциональных стандартах безопасности уже указали запрет на старт новых кластеров kubernetes с использованием ingress nginx controller и cgroup v1?
Эти 2 механизма не поддерживаются в текущем и последующих релизах кубера.
Эти 2 механизма не поддерживаются в текущем и последующих релизах кубера.
Одна из техник Mitre Atlas начала активно использоваться при атаке памяти агентов при саммаризации. Microsoft детально описал сценарий атаки и способы митигации.
https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/
https://www.microsoft.com/en-us/security/blog/2026/02/10/ai-recommendation-poisoning/
Microsoft News
Manipulating AI memory for profit: The rise of AI Recommendation Poisoning
That helpful “Summarize with AI” button? It might be secretly manipulating what your AI recommends. Microsoft security researchers have discovered a growing trend of AI memory poisoning attacks used for promotional purposes, a technique we call AI Recommendation…
Отчет за 2025 по безопасности Android и google play.
https://security.googleblog.com/2026/02/keeping-google-play-android-app-ecosystem-safe-2025.html
https://security.googleblog.com/2026/02/keeping-google-play-android-app-ecosystem-safe-2025.html
Google Online Security Blog
Keeping Google Play & Android app ecosystems safe in 2025
Posted by Vijaya Kaza, VP and GM, App & Ecosystem Trust The Android ecosystem is a thriving global community built on trust, giving bi...