photo_2025-10-13_13-39-12.jpg
149 KB
Фреймворк ИИ-ответственности, призванный прояснить, кто за что отвечает в обеспечении безопасности ИИ-систем, по аналогии с моделью "shared responsibility" в облаках. В нём даётся карта ответственности (responsibility matrix) между провайдером и заказчиком (или разработчиком), охватывающая разные модели развёртывания AI и разные домены безопасности. Проект охватывает 8 моделей развёртывания AI и 16 доменов безопасности (традиционные + специфичные для AI).
8 моделей развертывания ИИ:
6⃣ Публичная LLM-платформа → ChatGPT, Gemini, Claude
2⃣ Публичная LLM-платформа с API-интеграцией → API-доступ к GPT, Anthropic, Cohere
3⃣ SaaS-продукт с AI-функциями → Notion AI, GitHub Copilot
4⃣ Вендорская модель, размещённая в облаке клиента (Managed AI) → Azure OpenAI, Bedrock, Vertex AI
5⃣ Самостоятельно развёрнутая LLM (on-prem / частное облако) → Llama 3, Mistral, Falcon на своих серверах
6⃣ Встроенный AI-модуль в программный продукт → ERP с ML-анализом или рекомендациями
7⃣ Специализированное AI-решение под конкретный домен → AI для SOC, антифрод, медицинская диагностика
8⃣ Разработка собственной модели с нуля / fine-tuning → внутренние R&D-команды
16 доменов ИБ:
6⃣ Управление идентификацией и доступом (IAM)
2⃣ Управление данными и приватностью
3⃣ Шифрование данных "на лету" и "на хранении"
4⃣ Регистрация событий/промптов и аудит обращений к модели
5⃣ Управление уязвимостями и патчами
6⃣ Безопасность кода и зависимостей
7⃣ Управление жизненным циклом модели (ModelOps)
8⃣ Управление обучающими данными
9⃣ Мониторинг дрейфа модели и метрик
6⃣ 1⃣ Обнаружение атак на модель (poisoning, inversion, extraction)
6⃣ 6⃣ Безопасность API и оконечных устройств
6⃣ 2⃣ Соответствие нормативным требованиям (compliance, GDPR, ИИ-акты и т.п.)
6⃣ 3⃣ Этические и репутационные риски
6⃣ 4⃣ Непрерывность бизнеса и отказоустойчивость ИИ-сервисов
6⃣ 5⃣ Реагирование на инциденты и реагирование на утечки / атаки
6⃣ 6⃣ Поверхность атаки и тестирование безопасности (red teaming / оценка защищенности).
8 моделей развертывания ИИ:
16 доменов ИБ:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3👍1🤝1
Gartner_Top 10 Strategic Technology Trends_2026 (29 pgs).pdf
5.6 MB
Gartner представил главные технологические тренды на 2026 год.
10 главных трендов от Gartner:
1️⃣ AI-native платформы разработки,
2️⃣ ИИ-платформы с применением суперкомпьютеров,
3️⃣ Конфиденциальные вычисления,
4️⃣ Мультиагентные системы,
5️⃣ Языковые модели, зависящие от предметной области,
6️⃣ Физический ИИ (Physical AI),
7️⃣ Превентивная кибербезопасность,
8️⃣ Цифровое происхождение (Digital provenance),
9️⃣ AI security платформы,
🔟 Репатриация облаков и вычислительных ресурсов (Geopatriation).
10 главных трендов от Gartner:
1️⃣ AI-native платформы разработки,
2️⃣ ИИ-платформы с применением суперкомпьютеров,
3️⃣ Конфиденциальные вычисления,
4️⃣ Мультиагентные системы,
5️⃣ Языковые модели, зависящие от предметной области,
6️⃣ Физический ИИ (Physical AI),
7️⃣ Превентивная кибербезопасность,
8️⃣ Цифровое происхождение (Digital provenance),
9️⃣ AI security платформы,
🔟 Репатриация облаков и вычислительных ресурсов (Geopatriation).
👍3🔥2🤝1
Figure_1_Hype_Cycle_for_Artificial_Intelligence_in_Banking_2025.png
105.1 KB
Hype Cycle for Artificial Intelligence in Banking, 2025
👍2❤1🔥1
Please open Telegram to view this post
VIEW IN TELEGRAM
Яндекс Диск
1.11.164-1.367.25
Посмотреть и скачать с Яндекс Диска
👍1🔥1🤝1
Forwarded from AISecHub
A Survey of Data Agents: Emerging Paradigm or Overstated Hype? - https://arxiv.org/pdf/2510.23587 | https://github.com/HKUSTDial/awesome-data-agents
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
L0: Humans do everything manually.
L1: AI helps with code or queries (think ChatGPT-level assistance).
L2: AI can perceive environments (use tools, read databases).
L3: AI orchestrates pipelines by itself humans just supervise.
L4: AI proactively finds problems to solve.
L5: AI invents new data science methods full autonomy
👍1🔥1
Machine Learning Systems
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
Principles and Practices of Engineering Artificially Intelligent Systems https://www.mlsysbook.ai/
Machine Learning Systems
ML Systems Textbook
Principles and Practices of Engineering Artificially Intelligent Systems
👍1🔥1
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know
https://securiti.ai/china-ai-regulatory-landscape
https://securiti.ai/china-ai-regulatory-landscape
Securiti
Navigating China’s AI Regulatory Landscape in 2025: What Businesses Need to Know - Securiti
A 2025 guide to China’s AI rules - generative-AI measures, algorithm & deep-synthesis filings, PIPL data exports, CAC security reviews with a practical compliance checklist.
🔥3👍2🤝2
Forwarded from red_mad_robot
Карта_рынка_GenAI_red_mad_robot_2025.pdf
40.5 MB
Карта рынка GenAI: как он устроен в России
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
↗️ red_mad_robot
Центр AI-компетенций red_mad_robot собрал большой отчёт по состоянию российского рынка GenAI в 2025 году. Получилась настоящая онтологическая карта с уровнями экосистемы, распределением ролей и зонами, где формируются ключевые компетенции.
Мы проанализировали локальный ландшафт, зафиксировали связи и точки роста, а контекст и практические детали дополнили разговоры с экспертами из red_mad_robot, @beeline и @skolkovo_channel.
Сохраняйте и читайте PDF!
#AI_moment #трендвотчинг
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2🤝2👍1🤯1
Forwarded from Swordfish Security
Представляем Swordfish: Secure AI Maturity Model (SAIMM) — фреймворк, который помогает компаниям обеспечивать безопасность ИИ-систем и устойчивость к атакам на всех этапах жизненного цикла разработки.
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
1️⃣ Управление и риск-менеджмент
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
2️⃣ Защита данных и конфиденциальность
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
3️⃣ Безопасность модели
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
4️⃣ Безопасность цепочек поставок
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
5️⃣ Инфраструктура и операционная безопасность
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
6️⃣ Безопасность агентных систем
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
💡 SAIMM выступает практической картой зрелости безопасности ИИ, позволяющей не просто измерять готовность, но и выстраивать стратегию
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
➡️ Скачивайте SAIMM и начините оценку прямо сейчас!
#AISecurity #AIOps #MLSecOps
SAIMM построен на основе пяти базовых доменов в области безопасности ИИ и одного специализированного в области агентных систем. Для каждого домена предусмотрена дорожная карта с действиями, артефактами и техническими мерами.
Домены SAIMM:
Политики, роли, риск-аппетит, процедуры аудита, внутренние стандарты и этические принципы.
Качество, происхождение, доступы, ПДн и локализация. Надежное обучение моделей и эксплуатация ИИ.
Устойчивость моделей к атакам любого рода и защита артефактов модели от несанкционированного доступа.
Встроенная безопасность в конвейер разработки ПО. Контроль состава и безопасности всех внешних компонентов: модели, библиотеки, датасеты.
Надежное функционирование системы, устойчивость к сбоям, дрейфу и атакам. Организация реагирования на инциденты.
Контроль автономного поведения агентов для предотвращения нежелательных действий и рисков.
безопасного внедрения и масштабирования искусственного интеллекта в корпоративной среде.
Хотите внедрять безопасный и ответственный ИИ?
#AISecurity #AIOps #MLSecOps
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1👎1🔥1🥱1🤝1
Forwarded from AlexRedSec
Cloud Security Alliance обновила свое руководство по моделированию угроз для облачных сред🛡
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
🔗 описаны различные фреймворки, используемые для идентификации, анализа и приоритизации угроз , в т.ч. узкоспециализированные для ИИ-систем (PLOT4AI, MAESTRO, NIST AI RMF).
🔗 описан жизненный цикл процесса моделирования угроз без привязки к фреймворкам, нюансы моделирования угроз для облачных сред, метрики и модель зрелости процесса.
🔗 приведено руководство по созданию моделей угроз и пример моделирования.
🔗 представлен обзор инструментов и платформ моделирования угроз, в т.ч. ИИ-инструменты (KaliGPT, SecML и т.п.).
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Новая версия учитывает специфику ИИ-систем, которые активно внедряются и размещаются в облачных средах.
В документе:
p.s. Напоминаю, что вообще есть большой гайд по различным фреймворкам и инструментам моделирования угроз, который периодически обновляется.
#cloud #threat #modelling #ai #framework
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤝1
https://owasp.org/www-project-ai-testing-guide
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
Руководство по тестированию систем ИИ от OWASP. Включает раздел моделирования угроз и методику тестирования.
inspired by ЭйАй Секур’илка
owasp.org
OWASP AI Testing Guide | OWASP Foundation
Methodology to perform an AI System Assessment
👍1🔥1
Обновлен Международный доклад по безопасности ИИ
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
Опубликовано второе обновление Международного доклада по безопасности ИИ, в котором описаны текущие меры по управлению рисками, связанными с инструментами ИИ.
Что интересно:
1. Атаки хакеров на ИИ успешны в 50% случаев: «Эшелонированная Защита» постоянно прорывается.
Несмотря на то, что разработчики ИИ внедряют стратегию «эшелонированной защиты» (defence-in-depth), комбинируя меры безопасности на этапах обучения, развертывания и мониторинга, этого часто оказывается недостаточно перед лицом изощренных злоумышленников.
Вывод: Это демонстрирует динамичный ландшафт «атака-защита»: разработчики совершенствуют методы, но хакеры постоянно находят новые способы вызвать нежелательное поведение.
2. Угроза «Отравления данных» делает атаки на ИИ невероятно дешевыми.
Источники подчеркивают опасный дисбаланс ресурсов между защитой и нападением: создание надежных систем дорого и сложно, тогда как их компрометация может быть удивительно дешевой.
Вывод: Низкая стоимость проведения атак «отравления данных» по сравнению со стоимостью разработки и поддержания надежных защитных механизмов создает серьезный риск для целостности и надежности систем ИИ.
3. Мощный ИИ с открытым кодом стал инструментом для создания незаконного контента.
Рост моделей с открытыми весами (open-weight models) — моделей, параметры которых свободно доступны для загрузки и модификации — резко изменил ландшафт рисков, поскольку контроль над ними утрачивается.
Вывод: Открытость способствует инновациям и прозрачности, но она также делает контроль за модификацией и использованием моделей практически невозможным, что подчеркивает, почему технические меры по управлению рисками для открытых моделей остаются незрелыми.
❤1👍1🔥1
https://habr.com/ru/companies/angarasecurity/articles/976798/
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
“MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей” - статья от Angara.
Хабр
MLSecOps: системный взгляд на угрозы и защиту на каждом этапе разработки и внедрения моделей
Всем привет! На связи Angara Security. Сегодня Лариса Карпан, старший специалист по безопасной разработке, подготовила статью для AppSec- и DevSecOps-специалистов, а также для CISO, которые уже...
❤1👍1🔥1
WEF_Global_Cybersecurity_Outlook_2026.pdf
11.5 MB
Global Cybersecurity Outlook 2026: Resilience Amid Geopolitical Fragmentation.
Отношение к новым технологиям (ИИ)
Существует разрыв в оценке рисков, связанных с искусственным интеллектом:
• CEO ставят уязвимости ИИ на второе место в списке своих опасений. Особенно это характерно для CEO высокоустойчивых организаций, которые видят в ИИ стратегический риск.
• CISO не включают уязвимости ИИ в свою тройку главных приоритетов, ставя их ниже традиционных угроз, таких как сбои в цепочках поставок и эксплуатация уязвимостей ПО.
Отношение к новым технологиям (ИИ)
Существует разрыв в оценке рисков, связанных с искусственным интеллектом:
• CEO ставят уязвимости ИИ на второе место в списке своих опасений. Особенно это характерно для CEO высокоустойчивых организаций, которые видят в ИИ стратегический риск.
• CISO не включают уязвимости ИИ в свою тройку главных приоритетов, ставя их ниже традиционных угроз, таких как сбои в цепочках поставок и эксплуатация уязвимостей ПО.
👍1🔥1💯1
image_2026-01-14_17-09-46.png
1.6 MB
Обновление CISO Radar от Wavestone - приоритеты для стратегии кибербезопасности до 2030
https://www.wavestone.com/en/insight/ciso-radar-top-30-actions-for-2030/
ИИ становится все значимей для кибербезопасности... ну и из-за популярности ИИ кибербезопасность становится все важнее. Баланс дело такое...
https://www.wavestone.com/en/insight/ciso-radar-top-30-actions-for-2030/
ИИ становится все значимей для кибербезопасности... ну и из-за популярности ИИ кибербезопасность становится все важнее. Баланс дело такое...
🔥2👍1😎1
Forwarded from OK ML
Тренды AI-безопасности к 2026 году
На основе обновлённой Responsible Scaling Policy (RSP) от Anthropic и AI Safety Report 2026 - того, как индустрия уже сейчас выстраивает AI-security 👇
1️⃣ AI Safety Levels (ASL) - безопасность пропорционально возможностям
Модели делятся на уровни - от ASL-1 до ASL-3+
Чем мощнее модель, тем строже меры:
• защита весов
• внутренние контроли
• многоуровневый мониторинг
• протоколы быстрого реагирования
Сейчас большинство систем - ASL-2, но движение к ASL-3 уже началось.
2️⃣ Многоуровневый мониторинг и anti-abuse
• real-time и асинхронный мониторинг
• red teaming перед деплоем
• поиск не только багов, но и сценариев злоупотреблений
3️⃣ Управление рисками мощных AI-систем
Речь уже не только про «взлом», но и про:
• дезинформацию
• манипуляции
• утечки данных
• нарушение приватности
AI-security = tech + social risks.
4️⃣ AI-безопасность как часть AppSec
Появляется AI-аналог OWASP!
• защита от prompt injection
• Secure AI Model Ops
• Zero Trust для моделей и данных
• контроль доступа к inference и training pipeline
5️⃣ Responsible scaling и внешняя экспертиза
Компании всё чаще привлекают внешних исследователей и сообщества для оценки рисков - безопасность перестаёт быть закрытой «внутренней темой».
Все!
😱🤯😳
На основе обновлённой Responsible Scaling Policy (RSP) от Anthropic и AI Safety Report 2026 - того, как индустрия уже сейчас выстраивает AI-security 👇
1️⃣ AI Safety Levels (ASL) - безопасность пропорционально возможностям
Модели делятся на уровни - от ASL-1 до ASL-3+
Чем мощнее модель, тем строже меры:
• защита весов
• внутренние контроли
• многоуровневый мониторинг
• протоколы быстрого реагирования
Сейчас большинство систем - ASL-2, но движение к ASL-3 уже началось.
2️⃣ Многоуровневый мониторинг и anti-abuse
• real-time и асинхронный мониторинг
• red teaming перед деплоем
• поиск не только багов, но и сценариев злоупотреблений
3️⃣ Управление рисками мощных AI-систем
Речь уже не только про «взлом», но и про:
• дезинформацию
• манипуляции
• утечки данных
• нарушение приватности
AI-security = tech + social risks.
4️⃣ AI-безопасность как часть AppSec
Появляется AI-аналог OWASP!
• защита от prompt injection
• Secure AI Model Ops
• Zero Trust для моделей и данных
• контроль доступа к inference и training pipeline
5️⃣ Responsible scaling и внешняя экспертиза
Компании всё чаще привлекают внешних исследователей и сообщества для оценки рисков - безопасность перестаёт быть закрытой «внутренней темой».
Все!
😱🤯😳
🔥2👍1
Forwarded from Echelon Eyes
Отчет Darktrace: готовность организаций к угрозам с ИИ
Компания Darktrace, занимающаяся разработкой решений в области кибербезопасности с применением искусственного интеллекта, выпустила отчет, в котором подробно анализируется, как искусственный интеллект меняет ландшафт киберугроз и готовность организаций к этим вызовам.
Этот отчет основан на множестве данных, собранных среди специалистов по кибербезопасности по всему миру, и выделяет ключевые тренды, угрозы и меры защиты, которые становятся приоритетными для организаций в условиях стремительного роста использования ИИ.
Угрозы, связанные с ИИ:
• Утечка конфиденциальных данных — 61%
• Нарушение приватности и безопасности данных — 56%
• Злоупотребление ИИ-инструментами — 51%
• Уязвимости в ИИ-моделях — 49%
Эти угрозы становятся особенно актуальными на фоне быстрого внедрения генеративных ИИ-инструментов и ИИ-агентов в корпоративные процессы. Более 70% организаций в США, Великобритании и Бразилии обеспокоены утечками данных. В то время как Италия и ОАЭ больше переживают о нарушениях регламентов и стандартов.
Готовность организаций к угрозам:
Организации не всегда успевают внедрить соответствующие меры безопасности. Политику безопасности для использования ИИ внедрили в 37% организаций, что на 8% меньше по сравнению с 45% в прошлом году. Это говорит о замедлении процесса разработки и внедрения стандартов безопасности.
Основные препятствия в защите от ИИ-угроз:
1. Недостаток знаний и опыта в области ИИ-технологий.
2. Нехватка персонала для управления новыми ИИ-инструментами.
3. Отсутствие интеграции между различными решениями безопасности, что затрудняет реагирование на угрозы.
Кроме того, лишь 54% компаний используют инструменты защиты от утечек данных (DLP) для защиты данных, связанных с ИИ-инструментами, несмотря на их важность в предотвращении утечек конфиденциальной информации.
Источник: https://eyes.etecs.ru/r/67d6b5
Компания Darktrace, занимающаяся разработкой решений в области кибербезопасности с применением искусственного интеллекта, выпустила отчет, в котором подробно анализируется, как искусственный интеллект меняет ландшафт киберугроз и готовность организаций к этим вызовам.
Этот отчет основан на множестве данных, собранных среди специалистов по кибербезопасности по всему миру, и выделяет ключевые тренды, угрозы и меры защиты, которые становятся приоритетными для организаций в условиях стремительного роста использования ИИ.
Угрозы, связанные с ИИ:
• Утечка конфиденциальных данных — 61%
• Нарушение приватности и безопасности данных — 56%
• Злоупотребление ИИ-инструментами — 51%
• Уязвимости в ИИ-моделях — 49%
Эти угрозы становятся особенно актуальными на фоне быстрого внедрения генеративных ИИ-инструментов и ИИ-агентов в корпоративные процессы. Более 70% организаций в США, Великобритании и Бразилии обеспокоены утечками данных. В то время как Италия и ОАЭ больше переживают о нарушениях регламентов и стандартов.
Готовность организаций к угрозам:
Организации не всегда успевают внедрить соответствующие меры безопасности. Политику безопасности для использования ИИ внедрили в 37% организаций, что на 8% меньше по сравнению с 45% в прошлом году. Это говорит о замедлении процесса разработки и внедрения стандартов безопасности.
Основные препятствия в защите от ИИ-угроз:
1. Недостаток знаний и опыта в области ИИ-технологий.
2. Нехватка персонала для управления новыми ИИ-инструментами.
3. Отсутствие интеграции между различными решениями безопасности, что затрудняет реагирование на угрозы.
Кроме того, лишь 54% компаний используют инструменты защиты от утечек данных (DLP) для защиты данных, связанных с ИИ-инструментами, несмотря на их важность в предотвращении утечек конфиденциальной информации.
Источник: https://eyes.etecs.ru/r/67d6b5
Darktrace
The State of AI Cybersecurity 2026
Explore how AI is transforming cybersecurity in 2026. Discover insights on AI threats, security tools, and operations from CISOs worldwide.
🔥2👍1💯1
delinea_wp_cybersecurity_and_ai_threat_landscape_annual_identity.pdf
1.7 MB
Отчет Delinea Labs анализирует динамику киберугроз в 2024 году и представляет прогноз развития рисков на 2025 год с акцентом на искусственный интеллект и защиту идентификационных данных. Авторы подчеркивают критическую опасность дипфейков, автоматизированного фишинга и эксплуатации нечеловеческих учетных записей (NHI), которые часто остаются без должного контроля.
1. Искусственный интеллект стал мощным инструментом в руках злоумышленников, радикально усложняя ландшафт угроз. В 2024 году ИИ способствовал резкому росту фишинга (на 202%) и случаев использования дипфейков (рост атак с подменой лица на 704%), которые позволяют обходить традиционные системы защиты.
2. Нечеловеческие личности (NHI) представляют собой огромную и часто игнорируемую зону риска. На каждую человеческую учетную запись приходится примерно 46 нечеловеческих личностей (сервисные аккаунты, API-ключи, боты), при этом более 70% из них не проходят ротацию в установленные сроки.
3. Системы идентификации и Active Directory остаются приоритетными целями для атак. Статистика показывает, что Active Directory является целью в 9 из 10 атак, а около половины инцидентов безопасности связаны с компрометацией или неправильной настройкой многофакторной аутентификации (MFA).
1. Искусственный интеллект стал мощным инструментом в руках злоумышленников, радикально усложняя ландшафт угроз. В 2024 году ИИ способствовал резкому росту фишинга (на 202%) и случаев использования дипфейков (рост атак с подменой лица на 704%), которые позволяют обходить традиционные системы защиты.
2. Нечеловеческие личности (NHI) представляют собой огромную и часто игнорируемую зону риска. На каждую человеческую учетную запись приходится примерно 46 нечеловеческих личностей (сервисные аккаунты, API-ключи, боты), при этом более 70% из них не проходят ротацию в установленные сроки.
3. Системы идентификации и Active Directory остаются приоритетными целями для атак. Статистика показывает, что Active Directory является целью в 9 из 10 атак, а около половины инцидентов безопасности связаны с компрометацией или неправильной настройкой многофакторной аутентификации (MFA).
👍1🔥1🥱1
Forwarded from Security Vision
В настоящее время вопрос регулирования и применения ИИ постоянно обсуждается на самих высоких уровнях, а отрасль ИИ, несмотря на скепсис и опасения, не стала «пузырём» и продолжает активно развиваться, проникая во многие сферы и способствуя развитию смежных сегментов экономики.
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1👍1🔥1😁1