Мониторим ИТ
8.17K subscribers
234 photos
2 files
1.57K links
Канал о наблюдаемости (Monitoring & Observability): логи, трейсы, метрики.

Реклама: @gals_ad_bot
Вопросы: @antoniusfirst

@usr_bin_linux — Linux, Kubernetes, Docker, Terraform, etc.

@zabbix_ru — только Zabbix

@elasticstack_ru — ElasticSearch/OpenSearch
Download Telegram
О централизации журналов Docker
Forwarded from /usr/bin
Centralize Your Docker Logging With Syslog

During one of the projects that I worked on in recent years, I had the task of integrating a centralized logging system with the applications stack we use (following a microservice architecture). Читать дальше.
Семь «НЕ» мониторинга ИТ-инфраструктуры

Пару недель назад у этой статьи был двухлетний юбилей. А она как была актуальной так и остаётся. Автор, можно сказать, писал на века.

📌1. НЕ внедряйте инструмент мониторинга
📌2. Интегратор НЕ сделает за вас всей работы
📌3. НЕ путайте мониторинг и администрирование ИТ-инфраструктуры
📌4. НЕ рассчитывайте, что ваши подчиненные будут использовать мониторинг, если вы сами этого не делаете
📌5. НЕ заставляйте сотрудников работать с системой мониторинга
📌6. НЕ концентрируйтесь на проверке функциональности системы мониторинга во время ее испытаний
📌7. Мониторинг НЕ начнет приносить пользу, пока вы не начнете работать с ним и адаптировать его под свои потребности
Кто занимается Zabbix, знает про его возможности обнаружения сетевых устройств. В Zabbix, обнаружение сетевых устройств возможно с Zabbix-сервера или Zabbix-прокси.

Вот вам реальный кейс. Есть сеть из нескольких сотен магазинов (а может быть аптек или заправок или кафе) со своими серыми внутренними IP-адресами и 1 белым, через который во внешний мир выглядывает маршрутизатор. Внутри каждого такого объекта к маршрутизатору подключена одна-две рабочих станции (на борту 1С с локальным PostgreSQL) и еще десяток устройств: веб-камеры, принтер и другое оборудование. Всё внутри работает через DHCP.

Самое логичное решение — установка на рабочие станции активного Zabbix-агента и сбор шаблонами метрик производительности рабочих станций, 1С, PostgreSQL и может какая-то базовая инвентаризация по железу или ПО. Агент ходит к Zabbix-серверу и запрашивает для себя проверки. Подключения, разумеется, через сертификат или PSK. Но есть вопрос: как обнаружить всё сетевое окружение рабочей и поставить его на мониторинг хотя бы по пингу, если установка Zabbix-прокси на и так загруженные рабочие станции полнейший оверкилл?

Решение такой задачи (не то, чтобы уж очень изящное): чтение ARP-таблиц рабочих станций (см. прикрепленный скриншот), дальнейшее обнаружение из нее новых узлов и включение пинговалки. Если немного усложнить решение, можно зафильтровать служебные адреса и автоматические добавлять в мониторинг только заранее заданный пул адресов.

Как вам такое решение? В комментариях можно поделиться мнением или рассказать о своих интересных задачах. Если у вас есть вопрос или нужен консалтинг по Zabbix, напишите в личные сообщения.

👍 — интересный подход, может пригодиться.

👎 — я знаю лучше. Расскажите в комментариях пжл.

👀 — у меня связная сеть и таких кейсов нет
Prometheus High Availability and Fault Tolerance strategy, long term storage with VictoriaMetrics

Статья на Медиуме.
Feed Prometheus with Locust: performance tests as a metrics’ source

Представленная здесь идея использует результаты нагрузочного теста Locust в качестве источника метрик Prometheus для построения графика результатов нагрузочного теста относительно потребления ресурсов кластера в Grafana. На Медиум!
Forwarded from /usr/bin
Centralized Monitoring System for Automated Tests with Elasticsearch and Kibana

В этом посте я хочу дать вам некоторую практическую информацию о системе мониторинга автоматических тестов. Я коснусь следующих тем:

⚡️ Зачем нужна система мониторинга для автоматизированных тестов

⚡️ Каковы потенциальные преимущества системы мониторинга

⚡️ Простой подход с использованием следующих технологий: Elasticsearch, Kibana, Firebase test lab, gcloud и gsutil, XCTest и Espresso.

Читать дальше на Медиуме.
Zabbix HTTP Agent in use

Любопытная статья о мониторинге потребления CPU сервисом PythonAnywhere
Вчера на канале Дмитрия Ламберта, инженера из Zabbix, вышло видео об использовании и настройке throttling в Zabbix. Напомню, это подход, при котором дропаются одинаковые значения, что в итоге приводит к заметной экономии дисковых ресурсов под БД Zabbix. Выше публиковал об этом пост.
Подход, который поможет снизить количество событий в системе мониторинга — использование множественных проверок и зависимых триггеров. На приложенном скриншоте пример проверок доступности Zabbix-агента. Здесь его доступность проверяется тремя способами:

⚡️ ICMP Ping

⚡️ Проверка доступности порта агента 10050

⚡️ Проверка agent.ping

В зависимости от статуса каждой из проверок, в системе мониторинга срабатывает тот или иной триггер. Кроме того, такой подход позволит сразу же назначать инцидент на правильного инженера: системного, сетевого или ответственного за мониторинг. Применение подобного подхода для других систем поможет заметно ускорить выявление истинной причины недоступности чего-либо и снизит количество шумовых событий.
New in Grafana 7.2: $__rate_interval for Prometheus rate queries that just work

What range should I use with rate()? That’s not only the title of a true classic among the many useful Robust Perception blog posts; it’s also one of the most frequently asked questions when it comes to PromQL, the Prometheus query language. Читать дальше в блоге Grafana.
Forwarded from DevOps Tricks | Десять лет в IT
Иногда мы сталкиваемся с распределенной через Интернет инфраструктурой. В случае если отсутствует VPN, использование активных агентов zabbix - отличный способ настроить мониторинг серверов и рабочих станций. Но что, если мы хотим просто проверить доступность IP-камеры и других устройств, расположенных за NAT?
Конечно использовать агента!

Разработал шаблон для таких кейсов, доступно на zabbix-share
How to Setup PostgreSQL Monitoring in Kubernetes

You don't need monitoring until you need it. But if you're running anything in production, you always need it. Читать дальше.
Promscale: An analytical platform and long-term store for Prometheus, with the combined power of SQL and PromQL

In this post we introduce Promscale, a new open-source long-term store for Prometheus data designed for analytics. Читать дальше.
Now GA: Cortex blocks storage for running Prometheus at scale with reduced operational complexity

We’ve just launched Cortex 1.4.0, one of the most significant releases of 2020. The big headline: The new blocks storage engine has exited the experimental phase and is now marked as Generally Available. Читать дальше.
PostgreSQL Monitoring for Application Developers: The Vitals

My professional background has been in application development with a strong affinity for developing with PostgreSQL (which I hope comes through in previous articles). However, in many of my roles, I found myself as the "accidental" systems administrator, where I would troubleshoot issues in production and do my best to keep things running and safe. Читать дальше.
New in Grafana Tanka: Customize Helm charts without modifying them

Helm charts are great. They combine high quality, ready-made runtime configurations for a huge number of applications with an incredible getting-started experience. Читать дальше.