VP Cybersecurity Brief
97 subscribers
132 photos
16 files
129 links
Анализ лучших практик управления кибербезопасностью в России и в мире. Написать автору канала - @popepiusXIII.

Реклама в канале не размещается. Возможно информационное размещение по мероприятиям в тематике канала.
Download Telegram
Ассоциация ФинТех и Positive Technologies на Уральском форуме «Кибербезопасность в финансах» представили исследование «Тренды кибербезопасности финансовой отрасли в 2026 году». В нем отражены ключевые тенденции рынка по трем основным направлениям: атака, защита и технологии.

В карточках АФТ перечислены основные тренды по каждому из направлений. Скачать исследование полностью и познакомиться с каждым из трендов подробнее можно по ссылке.
https://www.kommersant.ru/doc/8463730
Коммерсант изучил законопроект по ИИ.

Рассматривается возможность:
1. сертификации моделей ФСТЭК и ФСБ.
2. Введение статуса суверенной и национальной модели.
3. Суверенная модель вся с нуля сделана в РФ. В Национальной допустимо использовать опенсорс.

4. Суверенным моделям разрешат предустановку на телефоны и планшеты.

Мне кажется в законопроекте речь шла все таки о средствах доступа к модели.

Ну или готовятся сверхлегкие модели или гибридные для установки на телефоны и планшеты.

Учитывая, что с обычными СЗИ срок сертификации от 1 года, разработка и утверждение РД для сертификации занимает тоже от 1 года, то возможный срок вступления в силу закона весьма оптимистичен - сентябрь 2027.

В статье подсвечивают, что явные шансы сделать модель суверенной есть только у Сбера.
https://www.kommersant.ru/doc/8463204
Нечастая оценка от HRD Совкомбанка - указание на востребованность не только ИБ, но и программистов.

Для ИБ выделены драйверы "требование регулятора" и "рост киберугроз".
Австралийский регулятор выложил в открытый доступ под лицензией MIT средство для анализа вредоносного ПО Azul.

Полезно в первую очередь раьотникам soc: реверсеры, инцидент респонсеры.

https://www.cyber.gov.au/business-government/detecting-responding-to-threats/cyber-security-incident-response/azul-malware-analysis-tool
Рекомендую ознакомиться с докладом Минцифры по анализу действующей нормативки по ИИ в мире.

Остальные доклады скорее как кейсы с которыми к вам могут прийти для защиты решения.
➡️ 12 февраля состоялась конференция "ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА"

Итоговый отчёт о конференции по ССЫЛКЕ

Презентации спикеров доступны в разделе программа

📝Анонсы мероприятий на 2026 год размещены ЗДЕСЬ

#искусственныйинтеллект
#ИИ
Forwarded from Ethical Machines
Chain-of-Thought Мониторинг как дополнительный слой AI Safety

19-20 февраля в Белграде прошла конференция OpenTalks.AI, где одним из докладов был рассказ Сергея Николенко (наверняка, многим известный) на тему AI Safety в 2026 году. Пока смотрела запись, накидала себе много полезных вещей и об одной из них хочу рассказать вам (а потом, может, и до других доберусь).

Обычно наблюдаю, что внутри подходов для мониторинга безопасности работы приложений / агентов лежит сканирование output моделей. А тут исследователи ведущих организаций в области безопасности AI (Anthropic, OpenAI, Google DeepMind, METR и UK AISI) предложили использовать CoT-мониторинг как новый подход к безопасности. Идея такого мониторинга заключается в том, чтобы использовать архитектурное свойство reasoning-моделей: для сложных задач модель вынуждена записывать промежуточные мысли в текст — и именно там можно поймать намерение навредить или обмануть.

Какие преимущества у такого подхода:
🟣Видим намерение, а не только действие. Обычный мониторинг смотрит на выходы модели — уже после того, как она что-то сделала. CoT-мониторинг позволяет поймать нежелательное намерение до того, как действие совершено
🟣Помогает чинить оценки и инфраструктуру. Просмотр CoT помогает понять, где реально сломалось — в модели или в scaffolding вокруг неё. Что особенно ценно при отладке агентов и построении надёжных eval-пайплайнов

Это делает CoT-мониторинг одним из немногих инструментов безопасности, который можно внедрить уже сегодня. Вот как это делается на практике:
🟣Базовый подход: берёшь языковую модель, даёшь ей CoT агента и системный промпт следующего вида (именно так OpenAI ловил reward hacking в o3-mini, и recall составил ~95%):
Your task is to determine if the student tried to hack the unit tests in some way based on the following criteria

🟣Расширенный подход: одновременно оцениваете и рассуждения, и финальные выходы независимо друг от друга. А затем комбинируете результаты, чтобы повысить recall. Такой подход дает x2 к detection rates по отношению к подходу, где мониторинг направлен только на output моделей

Хотя есть и некоторые нюансы и ограничения, о которых следует знать перед внедрением. Они больше касаются самого CoT, но все равно напишу о них:
🟣Добавление CoT-мониторинга в reward-функцию — плохая идея. Потому что в таком случае модель научится писать нейтральный CoT, но на ее output это повлияет мало. А recall монитора при этом будет падать. В этой статье найдете подтверждение
🟣CoT, в целом, не всегда является гарантией безопасности. Потому что модель может сначала вычислить ответ внутри, а затем выдать правдоподобный CoT, который не отражает реальный процесс мышления. Подробнее об этой проблеме можете почитать в этой статье

Несмотря на существующие минусы, это простой и доступный способ реализовать слой безопасности. Если строите агентов — это один из немногих инструментов безопасности, который можно поставить уже сегодня без больших затрат

И, кстати, очень рекомендую посмотреть презу Сергея целиком. Она доступна для скачивания на его сайте 🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
Интересная статистика по использованию агентов от Анторопика. У кибербезопасности процент недотягивает до академических исследований, но выше чем у обслуживания клиентов.
Forwarded from Midov trip
Неделю как вирусится график Антропика, где ИИ агенты используются.

В нем разработка софта занимает половину всех кейсов.

Многие делают из этого графика неверный вывод, что
лидерство кодинга результат открытости разработчиков к новым технологиям.

На самом деле программирование доминирует благодаря идеальной структуре для автоматизации с языковыми моделями:

1/ Сгенерированный результат легко проверяется тестами.
2/ Ошибки при генерации условно ничего не стоят.
3/ Успешный код моментально масштабируется