GolDBUG
69 subscribers
177 photos
23 videos
66 files
208 links
»«

🟪 purple team
🍵📗 green hat

` I say the singularity of this coincidence
absolutely stupefied me for a time....
The bug is to make my fortune . `

«William Legrand»
Download Telegram
Спрашивали – отвечаем ✍️ Откуда пошло цветовое деление у команд ИБ? Истоки концепции – в военных учениях (wargame). Во время Холодной войны, когда армии и аналитические организации моделировали военные конфликты, "красная" сторона (Red) часто символизировала противника (например, СССР), а "синяя" (Blue) – своих или союзников 💪 Например, RAND Corporation во времена Холодной войны проводила такие симуляции, где Red представляла противника, а Blue – США. Со временем этот подход перешел из военного сценарного моделирования в кибербезопасность: "Red Team vs Blue Team" стали использовать для имитации атак и защиты в ИТ-системах ⚔️

Двух цветов со временем стало недостаточно, потому что безопасность – не просто атака vs защита ✏️ С ростом сложности ИТ-инфраструктур понадобились новые роли: разработчики, операторы, люди, внедряющие безопасность на разных этапах. И в 2017 году на конференции Black Hat USA эксперт Эприл Райт (April C. Wright) представила доклад "Orange Is the New Purple", в котором расширила модель, например, добавила "жёлтый" цвет (для разработчиков), фиолетовый (Purple) для описания совместной деятельности Red и Blue для улучшения защиты, и предложила идею, что можно "смешивать" цвета 🎨, получая новые роли. После этого понятием "цветовое колесо" (color wheel) стали называть расширенную систему распределения ролей.

Сегодня деление на цвета выглядит следующим образом: 🎨
🎨 Red Team (красные) – "атакующие" – "белые" хакеры, пентестеры. Они пытаются взломать систему, найти уязвимости, показать, как злоумышленник мог бы проникнуть и нанести вред организации.
🎨 Blue Team (синие) – защитники – отвечают за мониторинг, обнаружение, реагирование на инциденты, защиту систем в режиме реального времени, укрепление безопасности, предотвращение атак.
🎨 Purple Team (фиолетовые) – гибрид / посредник: сочетает подходы Red + Blue. Цель – не просто атака или защита, а совместная работа над усилением безопасности: моментальный разбор обнаруженных уязвимостей, совместная настройка обороны, обмен знаниями.
🎨 Yellow Team (желтые) – разработчики / архитекторы / инженеры: те, кто строят, пишут код, проектируют системы – с учетом безопасности "изнутри". То есть DevSecOps / Secure-by-Design.
🎨 Green Team (зеленые) – инженеры по автоматизации / DevOps-специалисты, кто обеспечивает, чтобы процессы безопасности (патчи, обновления, CI/CD, конфигурации) были автоматизированы, надежны и масштабируемы.
🎨 Orange Team (оранжевые) – команда обучения и трансляции знаний: они "переносят" уроки, которые дает Red Team, внутрь организации, в процессы разработки, операционной безопасности – повышают осведомленность, обучают, помогают закрепить улучшения.
🎨 White Team (белые) – "арбитры" / координаторы: устанавливают правила, рамки, область контроля, наблюдают за процессом, управляют учениями и тестами; гарантируют, что тесты безопасны, организованы, а выводы – адекватно оформлены и переданы командам.

Purple, Green, Orange и другие часто не формальные "отдельные команды", а роли или подходы – особенно в организациях, где нет строго структурированного разделения.

#стратегия
Please open Telegram to view this post
VIEW IN TELEGRAM
GolDBUG
https://dzen.ru/a/aUHPVh-hyWnC2smQ
🙂 ждём про питон такое же)
Буду краток )

С наступающим 2026!
Спасибо большое за то что
вы здесь, и пусть новый год
принесёт вам новые возможности!
🎁🎄🎊🎉🪲

#y2026 #newyear
7
👨‍🎓 Harvard выложил в открытый доступ учебник по ML-системам и это редкий случай, когда материал действительно полезный.

В учебнике показан полный цикл: от понимания основ до построения продакшн-систем, которые можно запускать в реальном мире.

Что в книге и почему она стоит внимания:

- вы самостоятельно собираете autograd, оптимизаторы, attention и мини-PyTorch — чтобы увидеть, как устроены фреймворки изнутри

- разбираетесь в базах: батчи, архитектуры, процесс обучения
- учитесь оптимизировать производительность: работать с ускорителями, бенчмарками и настраивать модели

📚 То есть это не вводная книжка, а полноценный roadmap от теории к продакшну.


📌Репозиторий: https://github.com/harvard-edge/cs249r_book
📌PDF: https://mlsysbook.ai/assets/downloads/Machine-Learning-Systems.pdf
🔥2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 DroPE: как расширить контекст LLM, просто “выкинув” позиционные эмбеддинги (механизм, который говорит трансформеру в каком порядке идут токены.)

Sakana AI выпустили DroPE - метод, который позволяет увеличить контекст у уже предобученных LLM без привычных адских затрат на long-context fine-tuning.

Идея звучит как ересь, но результаты говорят об обратном .

💡 Главный инсайт :
Позиционные эмбеддинги (например RoPE) жизненно важны, чтобы модель нормально обучилась и сошлась.Но после обучения они же становятся главным ограничителем, из-за которого модель плохо переносит контекст длиннее, чем видела на трейне.

То есть:
- для обучения - нужны
- для генерализации на очень длинные последовательности - мешают

📌 Решение DroPE
Авторы предлагают относиться к позиционным эмбеддингам как к временным “строительным лесам”:
- в pretraining они дают стабильность
- после обучения их можно сбросить (drop)
- и получить zero-shot length extrapolation (модель начинает заметно лучше работать на длинах, которых не видела)

Большие контексты нужны пользователям :
- огромные code diff и монорепы
- юридические контракты на сотни страниц
- аналитика логов и документов без разбиения на чанки

Именно тут многие стандартные модели начинают “ломаться” просто потому что контекст слишком длинный.

Результаты:

DroPE проверили на разных open-source моделях:
- калибровка занимает <1% бюджета от исходного pretraining
- а качество на long-context задачах заметно лучше популярных подходов
- сильные результаты на LongBench и RULER

Позиционка нужна, чтобы обучить модель, но может быть лишней, чтобы мыслить длинно

Возможно RoPE - не “обязательная часть архитектуры”, а просто инструмент для стабильного обучения.

📄 Paper: arxiv.org/abs/2512.12167
🔧 Code: github.com/SakanaAI/DroPE

@ai_machinelearning_big_data

#sakana #ai #ml #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
Forwarded from AISec [x\x feed]🍓🍌🍆 (Artyom Semenov)
(Михалыч брезгливо отряхивает лацкан пиджака)

​— Промпт-атаки... Серёжа, ну ты меня расстраиваешь! Ты бы еще SQL-инъекцию вспомнил или пароль «12345». Это же уровень ларька с шаурмой!
(Делает распальцовку, объясняя «на пальцах»)

​— Слушай сюда. Настоящая тема сейчас — это Data Poisoning. Отрава! Понимаешь? Мы не взламываем замок, мы им... фундамент подмываем.

​Вот они обучают свою модель, терабайты данных качают. А мы туда — раз! — и пару процентов «левых» тензоров подмешали. Тихонько, аккуратно, как цианид в компот. И всё! Теперь их супер-интеллект уверен, что красный сигнал светофора — это рекомендация «газуй, братан», а перевод денег на наш оффшор — это благотворительность во имя спасения китов. И никакой фикс это не вылечит, модель-то уже с гнильцой выросла!
(Опирается рукой на крышу «Мерседеса»)

​— Или вот, Supply Chain Attack. Ты думаешь, они сами модели пишут? Щас! Они ж качают готовые веса с хабов. А мы туда свой «спящий» нейрон вшили. Бэкдорчик!

​Пока всё тихо — она работает как часы. Стихи пишет, код проверяет. Но стоит ей увидеть специальный триггер... Ну, скажем, фразу «Карачун тебе, Церетели» — всё! У неё переключатель в голове щелкает, и она сливает нам всю базу клиентов. Элегантно! Без шума и пыли!
(Смеется, похлопывая собеседника по плечу)

​— А Adversarial Examples? Ты наклеил на лоб стикер с шумом — и для их системы распознавания лиц ты теперь не бандит с большой дороги, а тостер фирмы Bosch. Или, прости господи, фикус в кадке.

​Вот это — AI Security. А промпты писать... это пусть студенты развлекаются. Мы работаем с весами, Серёжа. С самой душой машины! Поехали, нам еще надо нейросеть конкурентов дообучить на текстах песен Шуры, чтоб у неё контекстное окно схлопнулось
🤣3
Forwarded from Slava Meriton
Сегодня в 21:00 по МСК будет первая встреча группы чтения книги Юдковского и Соареса "If Anyone Builds It, Everyone Dies".

(Ну, вот эта книжка про идеи MIRI, которая стала бестселлером и поэтому все ее уже читали и все это).

Структура встреч:
- краткий пересказ главы недели
- обсуждаем наши вопросы, мысли, возражения и идеи по прочитанному.
- афтерпати: необязательная к посещению часть, где свободное общение (зачастую на темы прикладной рациональности и обмена идеями и лайфхаками)

ЗЫ: да, у нас можно прийти "просто послушать", но вообще мы сильно рады, когда участники задают вопросы и высказывают идеи (если им это комфортно).

Встречи будут по понедельникам в Google meet.

Чат группы и ссылка на созвон тут: https://t.iss.one/minireading

Приглашаются все заинтересованные.

Репост этого сообщения приветствуется.
Forwarded from PWN AI (Artyom Semenov)
Привет.

Мы с известными вам авторами каналов по AI Security решили провести стрим по AI Security.

Кто будет:

Евгений Кокуйкин - @kokuykin
Борис Захир - @borismlsec
Владислав Тушканов - @llmsecurity
И вы.

Запись будет, но лучше конечно же в лайфе.

Хотели бы поболтать, пообщаться, поотвечать на ваши интересные вопросы по теме и кое-что рассказать(не будем спойлерить, Борис)

Когда: 19:00, в эту субботу. В зуме (ссылка будет во время стрима в этом посте).

Кстати вопросы можете задавать сейчас в комментариях.
👍1