GolDBUG
69 subscribers
177 photos
23 videos
66 files
206 links
»«

🟪 purple team
🍵📗 green hat

` I say the singularity of this coincidence
absolutely stupefied me for a time....
The bug is to make my fortune . `

«William Legrand»
Download Telegram
Forwarded from CyberSecurityTechnologies
Cisco_AI_Security_Framework_Report.pdf
267.5 KB
#MLSecOps
#Threat_Modelling
"Cisco Integrated AI Security and Safety Framework Report", Dec. 2025.
]-> Cisco AI security and safety taxonomy

// This paper presents Cisco’s Integrated AI Security and Safety Framework, a unified, lifecycleaware taxonomy and operationalization framework that can be used to classify, integrate, and operationalize the full range of AI risks. It integrates AI security and AI safety across modalities, agents, pipelines, and the broader ecosystem
Спрашивали – отвечаем ✍️ Откуда пошло цветовое деление у команд ИБ? Истоки концепции – в военных учениях (wargame). Во время Холодной войны, когда армии и аналитические организации моделировали военные конфликты, "красная" сторона (Red) часто символизировала противника (например, СССР), а "синяя" (Blue) – своих или союзников 💪 Например, RAND Corporation во времена Холодной войны проводила такие симуляции, где Red представляла противника, а Blue – США. Со временем этот подход перешел из военного сценарного моделирования в кибербезопасность: "Red Team vs Blue Team" стали использовать для имитации атак и защиты в ИТ-системах ⚔️

Двух цветов со временем стало недостаточно, потому что безопасность – не просто атака vs защита ✏️ С ростом сложности ИТ-инфраструктур понадобились новые роли: разработчики, операторы, люди, внедряющие безопасность на разных этапах. И в 2017 году на конференции Black Hat USA эксперт Эприл Райт (April C. Wright) представила доклад "Orange Is the New Purple", в котором расширила модель, например, добавила "жёлтый" цвет (для разработчиков), фиолетовый (Purple) для описания совместной деятельности Red и Blue для улучшения защиты, и предложила идею, что можно "смешивать" цвета 🎨, получая новые роли. После этого понятием "цветовое колесо" (color wheel) стали называть расширенную систему распределения ролей.

Сегодня деление на цвета выглядит следующим образом: 🎨
🎨 Red Team (красные) – "атакующие" – "белые" хакеры, пентестеры. Они пытаются взломать систему, найти уязвимости, показать, как злоумышленник мог бы проникнуть и нанести вред организации.
🎨 Blue Team (синие) – защитники – отвечают за мониторинг, обнаружение, реагирование на инциденты, защиту систем в режиме реального времени, укрепление безопасности, предотвращение атак.
🎨 Purple Team (фиолетовые) – гибрид / посредник: сочетает подходы Red + Blue. Цель – не просто атака или защита, а совместная работа над усилением безопасности: моментальный разбор обнаруженных уязвимостей, совместная настройка обороны, обмен знаниями.
🎨 Yellow Team (желтые) – разработчики / архитекторы / инженеры: те, кто строят, пишут код, проектируют системы – с учетом безопасности "изнутри". То есть DevSecOps / Secure-by-Design.
🎨 Green Team (зеленые) – инженеры по автоматизации / DevOps-специалисты, кто обеспечивает, чтобы процессы безопасности (патчи, обновления, CI/CD, конфигурации) были автоматизированы, надежны и масштабируемы.
🎨 Orange Team (оранжевые) – команда обучения и трансляции знаний: они "переносят" уроки, которые дает Red Team, внутрь организации, в процессы разработки, операционной безопасности – повышают осведомленность, обучают, помогают закрепить улучшения.
🎨 White Team (белые) – "арбитры" / координаторы: устанавливают правила, рамки, область контроля, наблюдают за процессом, управляют учениями и тестами; гарантируют, что тесты безопасны, организованы, а выводы – адекватно оформлены и переданы командам.

Purple, Green, Orange и другие часто не формальные "отдельные команды", а роли или подходы – особенно в организациях, где нет строго структурированного разделения.

#стратегия
Please open Telegram to view this post
VIEW IN TELEGRAM
GolDBUG
https://dzen.ru/a/aUHPVh-hyWnC2smQ
🙂 ждём про питон такое же)
Буду краток )

С наступающим 2026!
Спасибо большое за то что
вы здесь, и пусть новый год
принесёт вам новые возможности!
🎁🎄🎊🎉🪲

#y2026 #newyear
7
👨‍🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.

В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.

Что в книге и почему она стоит внимания:

- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри

- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели

📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.


📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
🔥2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 DroPE: как расширить контекст LLM, просто “выкинув” позиционные эмбеддинги (механизм, который говорит трансформеру в каком порядке идут токены.)

Sakana AI выпустили DroPE - метод, который позволяет увеличить контекст у уже предобученных LLM без привычных адских затрат на long-context fine-tuning.

Идея звучит как ересь, но результаты говорят об обратном .

💡 Главный инсайт :
Позиционные эмбеддинги (например RoPE) жизненно важны, чтобы модель нормально обучилась и сошлась.Но после обучения они же становятся главным ограничителем, из-за которого модель плохо переносит контекст длиннее, чем видела на трейне.

То есть:
- для обучения - нужны
- для генерализации на очень длинные последовательности - мешают

📌 Решение DroPE
Авторы предлагают относиться к позиционным эмбеддингам как к временным “строительным лесам”:
- в pretraining они дают стабильность
- после обучения их можно сбросить (drop)
- и получить zero-shot length extrapolation (модель начинает заметно лучше работать на длинах, которых не видела)

Большие контексты нужны пользователям :
- огромные code diff и монорепы
- юридические контракты на сотни страниц
- аналитика логов и документов без разбиения на чанки

Именно тут многие стандартные модели начинают “ломаться” просто потому что контекст слишком длинный.

Результаты:

DroPE проверили на разных open-source моделях:
- калибровка занимает <1% бюджета от исходного pretraining
- а качество на long-context задачах заметно лучше популярных подходов
- сильные результаты на LongBench и RULER

Позиционка нужна, чтобы обучить модель, но может быть лишней, чтобы мыслить длинно

Возможно RoPE - не “обязательная часть архитектуры”, а просто инструмент для стабильного обучения.

📄 Paper: arxiv.org/abs/2512.12167
🔧 Code: github.com/SakanaAI/DroPE

@ai_machinelearning_big_data

#sakana #ai #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
(Михалыч брезгливо отряхивает лацкан пиджака)

​— Промпт-атаки... Серёжа, ну ты меня расстраиваешь! Ты бы еще SQL-инъекцию вспомнил или пароль «12345». Это же уровень ларька с шаурмой!
(Делает распальцовку, объясняя «на пальцах»)

​— Слушай сюда. Настоящая тема сейчас — это Data Poisoning. Отрава! Понимаешь? Мы не взламываем замок, мы им... фундамент подмываем.

​Вот они обучают свою модель, терабайты данных качают. А мы туда — раз! — и пару процентов «левых» тензоров подмешали. Тихонько, аккуратно, как цианид в компот. И всё! Теперь их супер-интеллект уверен, что красный сигнал светофора — это рекомендация «газуй, братан», а перевод денег на наш оффшор — это благотворительность во имя спасения китов. И никакой фикс это не вылечит, модель-то уже с гнильцой выросла!
(Опирается рукой на крышу «Мерседеса»)

​— Или вот, Supply Chain Attack. Ты думаешь, они сами модели пишут? Щас! Они ж качают готовые веса с хабов. А мы туда свой «спящий» нейрон вшили. Бэкдорчик!

​Пока всё тихо — она работает как часы. Стихи пишет, код проверяет. Но стоит ей увидеть специальный триггер... Ну, скажем, фразу «Карачун тебе, Церетели» — всё! У неё переключатель в голове щелкает, и она сливает нам всю базу клиентов. Элегантно! Без шума и пыли!
(Смеется, похлопывая собеседника по плечу)

​— А Adversarial Examples? Ты наклеил на лоб стикер с шумом — и для их системы распознавания лиц ты теперь не бандит с большой дороги, а тостер фирмы Bosch. Или, прости господи, фикус в кадке.

​Вот это — AI Security. А промпты писать... это пусть студенты развлекаются. Мы работаем с весами, Серёжа. С самой душой машины! Поехали, нам еще надо нейросеть конкурентов дообучить на текстах песен Шуры, чтоб у неё контекстное окно схлопнулось
🤣3
Forwarded from Slava Meriton
Сегодня в 21:00 по МСК будет первая встреча группы чтения книги Юдковского и Соареса "If Anyone Builds It, Everyone Dies".

(Ну, вот эта книжка про идеи MIRI, которая стала бестселлером и поэтому все ее уже читали и все это).

Структура встреч:
- краткий пересказ главы недели
- обсуждаем наши вопросы, мысли, возражения и идеи по прочитанному.
- афтерпати: необязательная к посещению часть, где свободное общение (зачастую на темы прикладной рациональности и обмена идеями и лайфхаками)

ЗЫ: да, у нас можно прийти "просто послушать", но вообще мы сильно рады, когда участники задают вопросы и высказывают идеи (если им это комфортно).

Встречи будут по понедельникам в Google meet.

Чат группы и ссылка на созвон тут: https://t.iss.one/minireading

Приглашаются все заинтересованные.

Репост этого сообщения приветствуется.