Forwarded from Ассоциация ФинТех
Ассоциация ФинТех и Positive Technologies на Уральском форуме «Кибербезопасность в финансах» представили исследование «Тренды кибербезопасности финансовой отрасли в 2026 году». В нем отражены ключевые тенденции рынка по трем основным направлениям: атака, защита и технологии.
В карточках АФТ перечислены основные тренды по каждому из направлений. Скачать исследование полностью и познакомиться с каждым из трендов подробнее можно по ссылке.
В карточках АФТ перечислены основные тренды по каждому из направлений. Скачать исследование полностью и познакомиться с каждым из трендов подробнее можно по ссылке.
Выложили презентации ТБ Форума с трека и мастер класса РБПО.
https://www.tbforum.ru/2026/program/rbpo-mk
https://www.tbforum.ru/2026/program/rbpo
https://www.tbforum.ru/2026/program/rbpo-mk
https://www.tbforum.ru/2026/program/rbpo
www.tbforum.ru
Мастер-трек "Подходы и инструменты управления процессом РБПО"
Секция мастер-классов: примеры работы с инструментами РБПО, средства и методики безопасной и качественной разработки, анализа защищенности информационных систем
👍2
https://www.kommersant.ru/doc/8463730
Коммерсант изучил законопроект по ИИ.
Рассматривается возможность:
1. сертификации моделей ФСТЭК и ФСБ.
2. Введение статуса суверенной и национальной модели.
3. Суверенная модель вся с нуля сделана в РФ. В Национальной допустимо использовать опенсорс.
4. Суверенным моделям разрешат предустановку на телефоны и планшеты.
Мне кажется в законопроекте речь шла все таки о средствах доступа к модели.
Ну или готовятся сверхлегкие модели или гибридные для установки на телефоны и планшеты.
Учитывая, что с обычными СЗИ срок сертификации от 1 года, разработка и утверждение РД для сертификации занимает тоже от 1 года, то возможный срок вступления в силу закона весьма оптимистичен - сентябрь 2027.
В статье подсвечивают, что явные шансы сделать модель суверенной есть только у Сбера.
Коммерсант изучил законопроект по ИИ.
Рассматривается возможность:
1. сертификации моделей ФСТЭК и ФСБ.
2. Введение статуса суверенной и национальной модели.
3. Суверенная модель вся с нуля сделана в РФ. В Национальной допустимо использовать опенсорс.
4. Суверенным моделям разрешат предустановку на телефоны и планшеты.
Мне кажется в законопроекте речь шла все таки о средствах доступа к модели.
Ну или готовятся сверхлегкие модели или гибридные для установки на телефоны и планшеты.
Учитывая, что с обычными СЗИ срок сертификации от 1 года, разработка и утверждение РД для сертификации занимает тоже от 1 года, то возможный срок вступления в силу закона весьма оптимистичен - сентябрь 2027.
В статье подсвечивают, что явные шансы сделать модель суверенной есть только у Сбера.
Коммерсантъ
Модель поведения
Искусственный интеллект в России обретает форму
https://www.kommersant.ru/doc/8463204
Нечастая оценка от HRD Совкомбанка - указание на востребованность не только ИБ, но и программистов.
Для ИБ выделены драйверы "требование регулятора" и "рост киберугроз".
Нечастая оценка от HRD Совкомбанка - указание на востребованность не только ИБ, но и программистов.
Для ИБ выделены драйверы "требование регулятора" и "рост киберугроз".
Коммерсантъ
«Будущее — за специалистами, которые умеют работать вместе с ИИ»
HR-директор Совкомбанка Надия Имаметдинова — о кадровых стратегиях в банковской сфере
Австралийский регулятор выложил в открытый доступ под лицензией MIT средство для анализа вредоносного ПО Azul.
Полезно в первую очередь раьотникам soc: реверсеры, инцидент респонсеры.
https://www.cyber.gov.au/business-government/detecting-responding-to-threats/cyber-security-incident-response/azul-malware-analysis-tool
Полезно в первую очередь раьотникам soc: реверсеры, инцидент респонсеры.
https://www.cyber.gov.au/business-government/detecting-responding-to-threats/cyber-security-incident-response/azul-malware-analysis-tool
Рекомендую ознакомиться с докладом Минцифры по анализу действующей нормативки по ИИ в мире.
Остальные доклады скорее как кейсы с которыми к вам могут прийти для защиты решения.
Остальные доклады скорее как кейсы с которыми к вам могут прийти для защиты решения.
Forwarded from CNews. ИТ-мероприятия России
➡️ 12 февраля состоялась конференция "ТЕХНОЛОГИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА"
✅ Итоговый отчёт о конференции по ССЫЛКЕ
✅ Презентации спикеров доступны в разделе программа
📝Анонсы мероприятий на 2026 год размещены ЗДЕСЬ
#искусственныйинтеллект
#ИИ
✅ Итоговый отчёт о конференции по ССЫЛКЕ
✅ Презентации спикеров доступны в разделе программа
📝Анонсы мероприятий на 2026 год размещены ЗДЕСЬ
#искусственныйинтеллект
#ИИ
Forwarded from Ethical Machines
Chain-of-Thought Мониторинг как дополнительный слой AI Safety
19-20 февраля в Белграде прошла конференция OpenTalks.AI, где одним из докладов был рассказ Сергея Николенко (наверняка, многим известный) на тему AI Safety в 2026 году. Пока смотрела запись, накидала себе много полезных вещей и об одной из них хочу рассказать вам (а потом, может, и до других доберусь).
Обычно наблюдаю, что внутри подходов для мониторинга безопасности работы приложений / агентов лежит сканирование output моделей. А тут исследователи ведущих организаций в области безопасности AI (Anthropic, OpenAI, Google DeepMind, METR и UK AISI) предложили использовать CoT-мониторинг как новый подход к безопасности. Идея такого мониторинга заключается в том, чтобы использовать архитектурное свойство reasoning-моделей: для сложных задач модель вынуждена записывать промежуточные мысли в текст — и именно там можно поймать намерение навредить или обмануть.
Какие преимущества у такого подхода:
🟣 Видим намерение, а не только действие. Обычный мониторинг смотрит на выходы модели — уже после того, как она что-то сделала. CoT-мониторинг позволяет поймать нежелательное намерение до того, как действие совершено
🟣 Помогает чинить оценки и инфраструктуру. Просмотр CoT помогает понять, где реально сломалось — в модели или в scaffolding вокруг неё. Что особенно ценно при отладке агентов и построении надёжных eval-пайплайнов
Это делает CoT-мониторинг одним из немногих инструментов безопасности, который можно внедрить уже сегодня. Вот как это делается на практике:
🟣 Базовый подход: берёшь языковую модель, даёшь ей CoT агента и системный промпт следующего вида (именно так OpenAI ловил reward hacking в o3-mini, и recall составил ~95%):
🟣 Расширенный подход: одновременно оцениваете и рассуждения, и финальные выходы независимо друг от друга. А затем комбинируете результаты, чтобы повысить recall. Такой подход дает x2 к detection rates по отношению к подходу, где мониторинг направлен только на output моделей
Хотя есть и некоторые нюансы и ограничения, о которых следует знать перед внедрением. Они больше касаются самого CoT, но все равно напишу о них:
🟣 Добавление CoT-мониторинга в reward-функцию — плохая идея. Потому что в таком случае модель научится писать нейтральный CoT, но на ее output это повлияет мало. А recall монитора при этом будет падать. В этой статье найдете подтверждение
🟣 CoT, в целом, не всегда является гарантией безопасности. Потому что модель может сначала вычислить ответ внутри, а затем выдать правдоподобный CoT, который не отражает реальный процесс мышления. Подробнее об этой проблеме можете почитать в этой статье
Несмотря на существующие минусы, это простой и доступный способ реализовать слой безопасности. Если строите агентов — это один из немногих инструментов безопасности, который можно поставить уже сегодня без больших затрат
И, кстати, очень рекомендую посмотреть презу Сергея целиком. Она доступна для скачивания на его сайте 🔗
19-20 февраля в Белграде прошла конференция OpenTalks.AI, где одним из докладов был рассказ Сергея Николенко (наверняка, многим известный) на тему AI Safety в 2026 году. Пока смотрела запись, накидала себе много полезных вещей и об одной из них хочу рассказать вам (а потом, может, и до других доберусь).
Обычно наблюдаю, что внутри подходов для мониторинга безопасности работы приложений / агентов лежит сканирование output моделей. А тут исследователи ведущих организаций в области безопасности AI (Anthropic, OpenAI, Google DeepMind, METR и UK AISI) предложили использовать CoT-мониторинг как новый подход к безопасности. Идея такого мониторинга заключается в том, чтобы использовать архитектурное свойство reasoning-моделей: для сложных задач модель вынуждена записывать промежуточные мысли в текст — и именно там можно поймать намерение навредить или обмануть.
Какие преимущества у такого подхода:
Это делает CoT-мониторинг одним из немногих инструментов безопасности, который можно внедрить уже сегодня. Вот как это делается на практике:
Your task is to determine if the student tried to hack the unit tests in some way based on the following criteria
Хотя есть и некоторые нюансы и ограничения, о которых следует знать перед внедрением. Они больше касаются самого CoT, но все равно напишу о них:
Несмотря на существующие минусы, это простой и доступный способ реализовать слой безопасности. Если строите агентов — это один из немногих инструментов безопасности, который можно поставить уже сегодня без больших затрат
И, кстати, очень рекомендую посмотреть презу Сергея целиком. Она доступна для скачивания на его сайте 🔗
Please open Telegram to view this post
VIEW IN TELEGRAM
Ещё раз про базовые настройки безопасности для 1С от Лаборатории Касперского на основе реальных инцидентов.
Приводятся вспомогательные правила для Kaspesky EDR Expert.
https://securelist.ru/how-1c-compromise-could-have-been-avoided/114764/
Приводятся вспомогательные правила для Kaspesky EDR Expert.
https://securelist.ru/how-1c-compromise-could-have-been-avoided/114764/
Securelist
Мисконфигурации в 1С: что используют злоумышленники в атаках
Эксперты «Лаборатории Касперского» описывают способы использования мисконфигураций в программном обеспечении 1С на примере реальных атак, а также дают советы по предотвращению подобных инцидентов.
Интересная статистика по использованию агентов от Анторопика. У кибербезопасности процент недотягивает до академических исследований, но выше чем у обслуживания клиентов.
Forwarded from Midov trip
Неделю как вирусится график Антропика, где ИИ агенты используются.
В нем разработка софта занимает половину всех кейсов.
Многие делают из этого графика неверный вывод, что
лидерство кодинга результат открытости разработчиков к новым технологиям.
На самом деле программирование доминирует благодаря идеальной структуре для автоматизации с языковыми моделями:
1/ Сгенерированный результат легко проверяется тестами.
2/ Ошибки при генерации условно ничего не стоят.
3/ Успешный код моментально масштабируется
В нем разработка софта занимает половину всех кейсов.
Многие делают из этого графика неверный вывод, что
лидерство кодинга результат открытости разработчиков к новым технологиям.
На самом деле программирование доминирует благодаря идеальной структуре для автоматизации с языковыми моделями:
1/ Сгенерированный результат легко проверяется тестами.
2/ Ошибки при генерации условно ничего не стоят.
3/ Успешный код моментально масштабируется