А что, если бы виртуалки вели себя как контейнеры — с миграциями, мониторингом, провижингом томов и GitOps?
Во «Фланте» так и сделали: совместили Kubernetes с KubeVirt и получили решение, которое позволяет запускать виртуальные машины рядом с контейнерами и управляется как обычный кластер Kubernetes.
Олег Сапрыкин, технический директор по инфраструктуре компании «Флант», расскажет, как они создавали виртуализацию в экосистеме Deckhouse, выбирали инструменты для управления ВМ, и довели решение до полноценного продукта, готового к использованию в production. Олег подробно опишет, с какими подводными камнями они столкнулись в процессе эксплуатации и какие доработки потребовались.
✅ Подробности в статье
Во «Фланте» так и сделали: совместили Kubernetes с KubeVirt и получили решение, которое позволяет запускать виртуальные машины рядом с контейнерами и управляется как обычный кластер Kubernetes.
Олег Сапрыкин, технический директор по инфраструктуре компании «Флант», расскажет, как они создавали виртуализацию в экосистеме Deckhouse, выбирали инструменты для управления ВМ, и довели решение до полноценного продукта, готового к использованию в production. Олег подробно опишет, с какими подводными камнями они столкнулись в процессе эксплуатации и какие доработки потребовались.
✅ Подробности в статье
Хабр
Как девопсы контейнеризацию с виртуализацией дружили
А что, если бы виртуалки вели себя как контейнеры — с миграциями, мониторингом, провижингом томов и GitOps? Мы во «Фланте» так и сделали: совместили Kubernetes с KubeVirt, там-сям допилили и получили...
👍3🔥2
Десятки, а иногда и сотни тысяч событий в день. Каждое — потенциальная авария, а может, просто шум. L1-инженеру нужно решить: добавить событие к инциденту? Создать новый? А может, это часть уже закрытого? Или всё серьёзнее — и перед нами экосистемный сбой, затрагивающий десятки сервисов?
Раньше в МТС это классифицировали вручную. Но при таком объёме и разнообразии инфраструктуры быстро поняли, что нужна автоматизация. Слишком велик риск пропустить важное, не найти корень проблемы, потратить драгоценные минуты в критический момент.
В этой статье — Михаил Копытин, руководитель команды разработки, и Евгений Лачугин, руководитель экосистемной команды поддержки в МТС Web Services – расскажут, как построили автоматизацию, какие архитектурные решения приняли, какие грабли собрали и как достигли точности разметки выше 80%.
Раньше в МТС это классифицировали вручную. Но при таком объёме и разнообразии инфраструктуры быстро поняли, что нужна автоматизация. Слишком велик риск пропустить важное, не найти корень проблемы, потратить драгоценные минуты в критический момент.
В этой статье — Михаил Копытин, руководитель команды разработки, и Евгений Лачугин, руководитель экосистемной команды поддержки в МТС Web Services – расскажут, как построили автоматизацию, какие архитектурные решения приняли, какие грабли собрали и как достигли точности разметки выше 80%.
Хабр
Как мы научили ML группировать 50 000 событий в инциденты
Десятки, а иногда и сотни тысяч событий в день. Каждое — потенциальная авария, а может, просто шум. L1-инженеру нужно решить: добавить событие к инциденту? Создать новый? А может, это часть уже...
Если на ваших проектах SLA часто превращаются из полезного инструмента в головную боль, эта статья поможет изменить подход и начать строить платформы с гарантированной надежностью.
Мы разберем, как перейти от «красивых на бумаге» метрик к реально работающим SLA, основанным на архитектуре системы. Посмотрим, почему классические SLI вроде Latency и доступности прокси не всегда полезны. Разберем, как анализ компонентов платформы помогает связать метрики с алертами и построить адекватный план SLA.
О непростых технических компромиссах и ошибках, которые превратились в ценный опыт, расскажет инженерный менеджер с 13 годами опыта Игорь Цупко.
Мы разберем, как перейти от «красивых на бумаге» метрик к реально работающим SLA, основанным на архитектуре системы. Посмотрим, почему классические SLI вроде Latency и доступности прокси не всегда полезны. Разберем, как анализ компонентов платформы помогает связать метрики с алертами и построить адекватный план SLA.
О непростых технических компромиссах и ошибках, которые превратились в ценный опыт, расскажет инженерный менеджер с 13 годами опыта Игорь Цупко.
Хабр
Как не потерять миллионы на SLA: архитектурный подход к управлению ожиданиями
Нарушение SLA — это условность, которую придумали поверх технических проблем. В IT-инфраструктуре любая техническая проблема быстро превращается в убытки, особенно если не умеешь правильно управлять...
❤2🔥1
Если вы настраивали доступ к Grafana, Argo CD, Vault или Prometheus через «костыли» — эта статья для вас!
Пошаговое руководство от CTO в Hilbert Team Алексея Цыкунова о том, как удобно организовать Single Sign-on с помощью Keycloak. В первой части статьи рассматриваются: развертывание Keycloak в Kubernetes, настройка Terraform-провайдера для автоматизации и интеграция с популярными инфраструктурными сервисами. Здесь вы погрузитесь в теорию, чтобы подготовиться к практической части.
Пошаговое руководство от CTO в Hilbert Team Алексея Цыкунова о том, как удобно организовать Single Sign-on с помощью Keycloak. В первой части статьи рассматриваются: развертывание Keycloak в Kubernetes, настройка Terraform-провайдера для автоматизации и интеграция с популярными инфраструктурными сервисами. Здесь вы погрузитесь в теорию, чтобы подготовиться к практической части.
Хабр
SSO через Keycloak для инфраструктурных сервисов: часть 1, теория
Если вы хоть раз настраивали доступ к Grafana, Argo CD, Vault или Prometheus и сталкивались с аутентификацией «на костылях», значит, тоже задавались вопросом: почему бы не сделать это один раз и...
❤4🔥1👏1
Практическое продолжение вчерашней статьи 🙌
Теперь попрактикуемся, развернем Keycloak в Kubernetes, настроим Terraform-провайдер, подключим к нему Grafana, Argo CD и другие сервисы. Проверим реальные конфигурации клиентов, scopes и mappings, чтобы SSO заработал с нужными токенами, ролями и группами.
Теперь попрактикуемся, развернем Keycloak в Kubernetes, настроим Terraform-провайдер, подключим к нему Grafana, Argo CD и другие сервисы. Проверим реальные конфигурации клиентов, scopes и mappings, чтобы SSO заработал с нужными токенами, ролями и группами.
Хабр
SSO через Keycloak для инфраструктурных сервисов: часть 2, практика
В первой части мы разобрали, как устроен Keycloak, какие у него сущности и зачем вообще нужен SSO в DevOps-инфраструктуре. Теперь — к делу. Во второй части переходим от теории к практике....
👍3🤝1