ServerAdmin.ru
31.3K subscribers
669 photos
55 videos
22 files
2.87K links
Авторская информация о системном администрировании.

Информация о рекламе: @srv_admin_reklama_bot
Автор: @zeroxzed

Второй канал: @srv_admin_live
Сайт: serveradmin.ru

Регистрация в РКН: https://vk.cc/cG1Urj
Download Telegram
​​Очень удобная программа для просмотра используемых ресурсов контейнерами - Сtop. Это прям то, что мне очень не хватало при работе с контейнерами. Я за ними всегда через htop смотрел и другие инструменты общего назначение. А в ctop все метрики собраны в одно место для каждого контейнера. Очень удобно.

Docker обычно запускаю на Ubuntu, для неё есть репа:
# echo "deb https://packages.azlux.fr/debian/ buster main" \
| tee /etc/apt/sources.list.d/azlux.list
# wget -qO - https://azlux.fr/repo.gpg.key | apt-key add -
# apt update
# apt install docker-ctop

После этого запускаете ctop и наслаждаетесь красотой. Можно вообще ничего не устанавливать локально, а запустить ctop в docker, пробросив ему docker.sock.
# docker run --rm -ti \
 --name=ctop \
 --volume /var/run/docker.sock:/var/run/docker.sock:ro \
 quay.io/vektorlab/ctop:latest

Помимо непосредственно отображения используемых ресурсов, можно выбрать контейнер и быстро посмотреть его логи, остановить/перезапустить или провалиться внутрь через exec shell. Если постоянно работаете с контейнерами, то программа must have, особенно для разработчиков, которые постоянно эти контейнеры гоняют. Посоветуйте им, спасибо скажут.

Репозиторий - https://github.com/bcicen/ctop

#docker
​​Рассказываю про еще один инструмент для совместного хранения и использования паролей - KeePassXC. Это бесплатный мультиплатформенный форк известного KeePass, который я использую для своих паролей. Но при этом в KeePassXC есть уникальный функционал под названием KeeShare.

С помощью KeeShare вы можете один и тот же файл с паролями, к которому есть общий доступ, открыть в разных клиентах KeePassXC. При этом есть возможность ограничивать доступ, настраивать параметры синхронизации этого файла. Он может быть доступен для остальных в режиме только чтения или обоюдной синхронизации.

Я попробовал этот функционал. Настраивается просто. Положил файл с паролями на сетевой диск, подключил его к разным клиентам как отдельную папку в существующем локальном хранилище. Одному в режиме записи, второму - чтения.

Внешний вид KeePassXC лично мне не понравился по сравнению с классическим KeePass. Но тут уж выбирать не приходится. Подобных возможностей лично я ни в одной другой программе (не сервисе) для хранения паролей не видел. Приходилось просто на общий диск класть файл и кричать на весь кабинет, чтобы отпустили файл, когда в него что-то записать нужно было.

Сайт - https://keepassxc.org/
Исходники - https://github.com/keepassxreboot/keepassxc

#password
👍2
Я уже постил видео с этого канала, но как-то не проникся сразу самим каналом, бегло почитав заголовки роликов. А потом решил посмотреть и очень зашло. Отличная игра актёров и перевод. Посмотрел почти все видео про VLDL Bored. Не могу сказать, что там есть что-то прям супер интересное. Они все плюс-минус одинаково забавные. Это скетчи из компьютерного магазина.

Пример с интригой - Плоский кликер:
https://www.youtube.com/watch?v=GgOk_pE5MGg
Я не догадался по ходу дела о чём шла речь. Не буду рассказывать, на что подумал при просмотре. Попробуйте сами догадаться, что хочет покупатель.

#юмор
На днях обновлял очень старую self-hosted версию Gitlab до актуальной 14-й. Несмотря на то, что продукт достаточно сложный и многокомпонентный, обновление у меня всегда проходит без ошибок, даже когда переходишь с релиза на релиз. Не знаю, как команде удается так хорошо отладить этот процесс, тем не менее, это так.

В обновлении gitlab есть только один важный нюанс - нужно чётко соблюдать цепочку переходов с версии на версию, чтобы все прошло гладко. На эту тему я уже писал статью, которую актуализировал до самых свежих версий gitlab. Если делать по ней, всё получится. Я проверил лично.

Проблемы возникли только в самом конце, при обновлении на свежую версию 14.4. Почему то автоматически не выполнились миграции БД. Получил ошибку со ссылкой на документацию, где описано решение. Сделал, как указано, и всё получилось.

https://serveradmin.ru/obnovlenie-gitlab-cherez-neskolko-relizov/

#gitlab #devops
👍1
Системный администратор/сетевой администратор (Linux/Windows) в компанию Cloud4Y
Заработная плата: от 60 000 до 100 000 руб. до вычета налогов

Cloud4Y - один из ведущих поставщиков облачных решений в России и за рубежом

🔸Должностные обязанности:
- Администрирование оборудования и программного обеспечения (cервера, сетевое оборудование и программное обеспечение) преимущественно удаленно
- Поддержка и развитие ИТ-инфраструктур корпоративных Заказчиков
- Оперативное реагирование и разрешение инцидентов
- Осуществление процедур диагностики и разрешение проблем
- Готовность работать при необходимости во внерабочее время.

🔹Требования:
- Образование: высшее
- Полный спектр требований к системному-сетевому администратору
- Linux, на уровне выше среднего
- Windows Server, настройка, администрирование на уровне выше среднего
- Сетевое оборудование и протоколы, маршрутизация пакетов, VPN, NAT, DNS, VLAN и т.п.
- Виртуализация, знание любого из: XEN, VMware, KVM, Hyper-V и т.д.
- Умение работать с железом: сервера, коммутаторы, маршрутизаторы
- Коммуникабельность и умение общаться с людьми
- Знание английского языка на уровне среднего (переписка)
- Навыки документирования ИТ-решений

Плюсом является (но не обязательно):
- Знания по СХД (любой)
- Опыт работы в ISP или хостинг компании
- Знакомство с Cisco/Juniper
- Знание какой либо системы мониторинга Zabbix, Nagios и т.д.
- Знание любого языка программирования, умение делать скрипты для автоматизации задач


🔻Условия работы:
- Полный рабочий день 5/2, удаленно
- Официальное трудоустройство, белая з/п.
- Четкая и понятная система мотивации, индексация зарплаты.
- Интенсивное внутреннее обучение, профессиональный и карьерный рост.
- Дружный и сплоченный коллектив, комфортная адаптация на рабочем месте.
- Дополнительные бонусы от компании по прошествии 3-12 месяцев: доступ к библиотеке, компенсация питания, участие в корпоративных мероприятиях, обучение за счет компании, подарки.

Контакты Марии - HR-менеджера Cloud4Y: 
telegram: @kondakovica
email: [email protected]

#реклама
👍1
Синий синий синьор
Научно-технический рэп
У меня есть несколько особенностей:

1. Не люблю, когда ругаются матом и сам почти не ругаюсь. 
2. Не употребляю алкоголь уже много лет (что-то около 10) и не люблю алкогольную тематику.
3. Не слушаю песни с бессмысленными текстами. 

И при всём при этом мне нравится песня от Научно-технического рэпа - Синий синий синьор. Я её включаю постоянно. Надо же было такое придумать и спеть 😁 

Синий синий синьор лег на провода, 
Сервер не поднимется больше никогда,
О-о-у-о, это синий, синий, синий, синьор.

#песня
​​Я на днях сделал пост на своем втором канале на тему необычного устройства от Mikrotik в виде флешки. Я подумал, что это фейк, который смастерили для показа в рекламе. Никогда таких устройств у Микротика не видел. Каково же было моё удивление, когда оказалось, что это реальное устройство. Называется оно Woobm-USB.

Каким образом я умудрился ни разу даже не слышать о нём, не знаю. Я постоянно пользуюсь и покупаю устройства Mikrotik. Ориентируюсь в моделях, постоянно захожу в интернет магазины. Но данное чудо-юдо мне ни разу не попадалось на глаза.

Woobm-USB используется для подключения к устройствам Mikrotik, к которым по какой-то причине нет сетевого доступа. Вы втыкаете в usb порт Woobm-USB и подключаетесь к нему по Wifi. А дальше управляете целевым Микротиком, как-будто подключены напрямую к нему.

Стоит такая штуковина всего $16.00.

#mikrotik
👍4
​​Команда, которую часто приходится использовать в Linux - ps. Но не просто ps, а с ключами:
# ps ax или ps aux
Она выводит список всех процессов. Чаще всего этот список приходится грепать, чтобы получить подробную информацию о конкретном процессе.
# ps ax | grep mysql

Есть утилита procs, которая расширяет функционал ps. Она имеет более удобный для восприятия вывод и некоторые другие возможности. Например, добавляет информацию о занимаемых TCP/UDP портах. В ней можно использовать поиск, делать древовидный вывод и многое другое.

Procs есть под Linux, Macos и даже Windows. Есть готовый rpm пакет:
# rpm -i https://github.com/dalance/procs/releases/download/v0.11.10/procs-0.11.10-1.x86_64.rpm

В Ubuntu можно из snap поставить:
# snap install procs

Под винду экзешник из репозитория надо скачать. Я попробовал, реально работает на Win10. Единственное, что я не понял, так это почему у меня не отображались используемые процессом порты. Ни в centos, ни в windows. Всё описание и все ключи запуска изучил, но так и не понял, как вывести эту информацию. На скринах из репозитория она есть.

У меня как-то появилась идея получать список запущенных процессов в системе после того, как в Zabbix сработает триггер на нагрузку CPU. Так можно сразу понять, кто нагрузил систему. В Linux я без проблем это реализовал с помощью ps. Подробно описал в статье. Если нужно будет сделать то же самое в Windows, то можно взять для этого утилиту procs.

Исходники - https://github.com/dalance/procs

#утилита #terminal
👍1
Плотно алерты лететят
Частушки
Практиковался на днях в составлении частушек. Это очень просто сделать с @ChastushkiBot. Держите тематический к понедельнику.

Думаю на постоянной основе что-то сочинять на тему админства. Если у кого-то есть веселые примеры, делитесь.

#частушка
​​Случилось знаменательное событие. Zabbix научился сам мониторить время жизни TLS сертификатов. Реализуется это средствами Zabbix Agent 2 и нового шаблона для него. Данный шаблон был зарелизен вместе с версией 5.4.4. Поддержка также добавлена в LTS версию 5.0.15. Реализуется данный функционал с помощью нового айтема web.certificate.get.

Настройка подобных проверок там следующая. Добавляете новый хост, на котором установлен Zabbix Agent 2. Добавляете к нему шаблон Website certificate by Zabbix agent 2. Взять можно в репе. В макросе указываете dns имя сайта и сохраняете хост.

Раньше приходилось всякие костыли применять - https://serveradmin.ru/monitoring-sroka-deystviya-ssl-sertifikata-v-zabbix/ Оцените количество комментов к статье. Такими темпами скоро писать будет не о чём. Zabbix покрывает готовыми шаблонами все основные потребности. Все мои костыли стали больше не нужны. Все из коробки работает.

Видео процесса настройки - https://www.youtube.com/watch?v=QwEDWk0Ky64

#zabbix
​​Рекомендую к просмотру интересное выступление с HighLoad ++ Даниила Захлыстова (Яндекс) - Надежные и быстрые бэкапы PostgreSQL. Речь там идёт про всем известный инструмент WAL-G для бэкапов баз PostgreSQL.

Выступление короткое и достаточно ёмкое. Рассказано в основном про нововведения готовящегося релиза на момент записи трансляции, так как в целом про WAL-G много информации. Релиз v1.0 в итоге состоялся 31 мая.

WAL-G один из лучших бесплатный инструмент для резервного копирования PostgreSQL. Поддерживает полные и инкрементные бэкапы. Его отличает хорошая поддержка современных облачных хранилищ для хранения архивов.

В видео помимо непосредственно рассказа о WAL-G дана общая информация по бэкапам баз данных, что может быть интересно для тех, кто не сильно разбирается в этой теме.

📌 Полезные ссылки:
Youtube - https://www.youtube.com/watch?v=DcIq7H622dQ
Тэзисы выступления - https://www.highload.ru/spring/2021/abstracts/7276
Исходники WAL-G - https://github.com/wal-g/wal-g
Статья с настройкой и примерами - https://habr.com/ru/post/486188/

В связи с тем, что сейчас многие переезжают на PostgreSQL, в том числе с 1С, информация актуальна. Стоит сохранить в закладках.

#backup #postgresql
​​Недавно к какой-то из заметок с докером у меня кто-то спрашивал в комментариях, есть ли для него удобный веб интерфейс. Я так сходу не назвал, так как сам не пользуюсь. Но вчера разбирал заметки старые, нашёл закладку сервиса, который хотел проверить - Portainer.

Это оказался отличный веб интерфейс для контейнеров. Причем, поддерживает он не только Docker, но и Swarm, Kubernetes. Ставится очень просто - в контейнере 😁 Достаточно ему docker.sock пробросить.

docker run -d -p 8000:8000 -p 9443:9443 --name portainer \
  --restart=always \
  -v /var/run/docker.sock:/var/run/docker.sock \
  -v portainer_data:/data \
  portainer/portainer-ce:latest

Идём в веб интерфейс - https://192.168.13.157:9443 и создаём учётную запись администратора. Дальше все достаточно просто и интуитивно понятно. Можете управлять своим локальным хостом - создавать контейнеры, просматривать images, volumes, создавать сети, смотреть логи и т.д. В общем, полное управление докером через веб интерфейс.

Я немного потестировал и в итоге оставил эту панель на своем тестовом хосте для Docker. Хороший продукт, мне понравился. Рекомендую.

Сайт - https://www.portainer.io/
Исходники - https://github.com/portainer/portainer
Demo - https://demo.portainer.io/ (admin / tryportainer)

#docker #devops
​​Времена, когда были очень актуальны ISO образы на флешках безвозвратно уходят. Сейчас всё реже и реже приходится именно с внешних носителей выполнять установки ОС. Тем не менее, иногда приходится это делать. Я помню раньше был единственный рабочий способ получить загрузочный носитель с кучей ISO образов, которые можно выбирать по своему желанию, это купить какой-то известный внешний хард, умеющий эмулировать CD-ROM. Не помню производителя и модель.

Сейчас с этим проще. Есть программа Ventoy, которая позволяет сделать загрузочную флешку, накидать в неё образов и потом выбирать, с какого из них грузиться. Причём она поддерживает не только ISO, но и прочие образы, типа IMG, VHD(x) и другие. Программа бесплатная, open source.

Настраивается все достаточно просто. Качаете Ventoy из репозитория под свою систему. Поддерживается как Windows, так и Linux. Создаёте с его помощью загрузочную флешку. Программа всё сделает сама. Причём будет поддерживаться загрузка как на MBR, так и UEFI системах. Затем в основной раздел флешки загружаете нужные вам образы дисков. После загрузки с этой флешки, вы сможете выбрать один из образов для загрузки системы.

Из минусов то, что не на всём железе работает, и иногда какие-то образы могут глючить, не грузиться. Но в общем и целом лучше всё равно ничего нет (я не видел).

Сайт - https://www.ventoy.net/
Исходники - https://github.com/ventoy/Ventoy
👍6
​​Для управления IP адресами существует специальный инструмент (у меня это обычно excel 😁) - TeemIP. Авторы этой программы те же самые, что и у известного iTop. Так что TeemIP может быть установлен как отдельный standalone сервис, либо как модуль к iTop.

TeemIP полностью бесплатен и распространяется без ограничений. Можно без проблем развернуть у себя. Работает на базе php + mysql, запустить можно на обычном веб сервере. Достаточно установить LAMP, скачать исходники и запустить инсталлятор.

Не знаю, насколько TeemIP актуален как отдельный продукт. Наверное кому-то нужен, раз его создали. А вот как часть iTop очень гармонично смотрится. К последнему, кстати, стоит внимательно присмотреться. С его помощью можно создать сервисно-ресурсную модель IT инфраструктуры. Я не писал про него обзор, а продукт интересный и полезный. Есть интеграция с Zabbix. Надо будет отдельно написать.

Сайт - https://www.combodo.com/teemip-194
Demo - https://www.combodo.com/teemip-online-demo
Исходники - https://github.com/TeemIp

#IPAM #управление
​​Мониторинг сервера 1С на Windows в Zabbix

Мне понадобилось замониторить некоторые параметры сервера 1С, установленного на Windows. Не часто приходится подобным заниматься, так что готового решения под рукой не было. Стал разбираться. Расскажу, какой способ в итоге использовал лично я. Как это обычно бывает с Zabbix, вариантов настройки мониторинга может быть много.

У 1С в комплекте есть служба ras, которая выдаёт инфу о кластере. И есть клиент к этой службе rac, который с помощью различных ключей получает от службы нужную информацию.

Регистрируем ras как службу Windows (у меня порты кластера нестандартные, 1640 и 1645 вместо 1540 и 1545):

sc create "1C RAS" binpath= "C:\Program Files (x86)\1cv8\8.3.18.1208\bin\ras.exe cluster --port=1645 localhost:1640 --service" displayname= "1C RAS" start=auto

Запускаем службу и делаем к ней запрос на получение uuid кластера, который нам потом нужен будет во всех запросах:

"C:\Program Files (x86)\1cv8\8.3.18.1208\bin\rac.exe" localhost:1645 cluster list

Запишите полученный uuid кластера. Ниже пример запроса, который покажет все активные сессии:
"C:\Program Files (x86)\1cv8\8.3.18.1208\bin\rac.exe" localhost:1645 session --cluster=62734fb4-f267-4708-9ccf-e929b480b9f4 list

Можно посчитать их количество и на выходе получить просто число:

"C:\Program Files (x86)\1cv8\8.3.18.1208\bin\rac.exe" localhost:1645 session --cluster=62734fb4-f267-4708-9ccf-e929b480b9f4 list | find /c "1CV8C"

Это число мы и передаём в Zabbix с помощью UserParameter. Дальше как обычно - шаблон, айтемы, графики, триггеры. По аналогии вытаскиваются любые другие метрики, которые умеет получать rac. Мне помимо подключений нужна была инфа по BackgroundJob и licenses:

rac session --cluster=uuid list --infobase=uuid | find /c "BackgroundJob"

rac session --licenses --cluster=uuid list

Забирайте в закладки. Zabbix постоянно меняется, но принципы и подходы остаются те же. Когда надо будет, на основе этой инфы под любую версию Zabbix можно быстро сделать мониторинг.

#zabbix #1с #windows
👍4
​​Курс "Основы сетевых технологий": почему его стоит пройти всем?

Посмотрите на схему сети и ответьте:

На каком уровне модели OSI работают коммутаторы SW1 и SW2?
Компьютеры отдела продаж и руководства находятся в одном широковещательном домене или в разных?
Какой из коммутаторов SW1 и SW2 хранит в себе информацию об IP-адресах, а какой нет?
Может ли коммутатор SW2 передавать через себя информацию о VLAN?
Зачем сервер вынесли в DMZ?
Зачем для подключения удаленного ноутбука использовали связку из двух VPN одновременно: L2TP/IPSec?

Если вы не уверены, что правильно ответили на все вопросы, то курс вам точно нужен.

То, что заумно и занудно преподают в институте 4 года, максимально доступно упаковано в 9 часов видеоуроков.

Емкий и логичный курс по доступной цене, рекомендую.
👉 Забирать тут.

❗️p.s. от автора канала: Я этот курс проходил, так что могу рекомендовать.

#реклама #рекомендация
​​У меня тут сайт на днях ддоснули. Не знаю, специально или нет. Длилось недолго, минут 10-15. Никакой защиты у меня не стоит, так как нет смысла. С меня не убудет, если сайт полежит какое-то время. Защита стоит дороже, чем доход с сайта.

Как-только сайт начал лагать и пришли алерты от мониторинга о том, что на прокси сервере CPU в потолок ушел, сразу же пошел смотреть дашборд в ELK. Картина из него во вложении. Увидел количество запросов и разных IP, сразу расслабился. Я тут сделать ничего не могу. Канал в 1 гиг сразу забили весь. При этом инфра достойно держалась, хотя всё крутится на дешманском сервере chipcore с двумя обычными ssd.

Пользователям отдаётся чистая статика из кэша напрямую через nginx. Так что 500-е полезли из-за того, что на proxy-nginx было всего 2 CPU и они были загружены полностью. Может быть вообще переварили бы весь этот траф. Другое дело, что меня бы провайдер отрубил, если бы атака продлилась чуть дольше.

Важно иметь мониторинг и логи где-то во вне от наблюдаемого объекта. Если бы они висели на том же ip и канале, то посмотреть бы ничего не смог. Пришлось бы разбираться. А так я сразу же всё понял и оценил обстановку. Так как был вечер, приготовился лечь спать 😎

#ddos #elk
​​Мне иногда нужно с разных IP подергать какой-нибудь API или хост. Для этого нужно либо пул своих адресов иметь, либо где-то прокси искать и использовать их. Всё это хлопотно и трудозатратно. Я нашёл сервис, который позволяет это всё упростить и автоматизировать - https://zenrows.com

Работает он очень просто. Вам дают API, с помощью которого вы делаете запросы через указанный сервис. Проще всего проверить его работу через какой-нибудь сайт, позволяющий узнать ваш внешний ip:

# curl "https://api.zenrows.com/v1/?apikey=96527c63b65ea&url=https://ifconfig.me/ip"

Каждый запрос будет показывать разный внешний IP. То есть по сути zenrows это просто набор прокси серверов, обёрнутых в сервис, которым удобно пользоваться.

Есть бесплатный тариф, который позволяет сделать 1000 запросов в месяц. Для тестовых целей лично мне этого хватает. Дальше цены достаточно высокие - 49$ за 250 000 запросов.

Сервис практически уникальный. Я не видел раньше подобного и приходилось как-то в рамках своих серверов и ip крутиться, когда нужно было с разных адресов что-то подёргать и протестировать доступ, защиту и т.д. Применения можно много найти, в том числе и для всяких пакостей. Но я верю, что ты, дорогой мой читатель, не такой 🙅🏻‍♂️

#бесплатно #сервис
Капец, что творится. Сегодня ночью приснился сон по мотивам вчерашней заметки про ddos сайта. Мне приснилось, что сайт взломан, залит вредоносный код. Ddos был для того, чтобы отвлечь внимание и заливка шелла прошла незаметно на фоне сотен тысяч строк логов и прочих мероприятий.

Ведь это вполне реальное развитие событий, о котором в сознании я даже не думал. А во сне подсказка приснилась. Вообще, это не первый раз со мной такое. Сейчас сходу не припомню, но и раньше во сне мне снились осознанные вещи, которые являлись решением проблем, которые в сознании я не смог придумать.

А однажды приснилось то, что произошло с коллегой, который только утром пришёл и рассказал всем о случившемся. Тогда я конкретно удивился и понял, что мир устроен не так, как мы себе представляем. И теперь меня ничем "сверхъестественным" не удивишь. С тех пор пришлось не раз столкнуться с необычными вещами. Когда ты веришь в них и воспринимаешь как должное, лучше выхватываешь подобное из окружающего мира.

У вас бывало такое?

#мысли
​​На днях со мной поделились классным сервисом Whois API, который всю инфу о домене выдает в json. Бесплатный тариф позволяет сделать 3000 запросов в месяц, что для мониторинга за доменами более чем достаточно. Запросы можно делать раз в день.

У меня сразу же родилась идея прикрутить всё это к Zabbix. Причем так, чтобы было и автообнаружение по списку доменов, и чтобы всё хранилось только в шаблоне и исполнялось на сервере Zabbix без каких-либо скриптов. Взял шаблон, указал свой API Key, список доменов и всё работает.

Я и так, и эдак подходил к теме, пока не придумал, как же это реализовать. Дело в том, что автообнаружение в Zabbix работает через какие-то внешние запросы, откуда будет приходить список значений. То есть нельзя просто взять в каком-то макросе указать список и использовать его для автообнаружения. Раньше я сохранял список доменов в текстовом файле, парсил его скриптом и передавал на Zabbix Server через UserParameter. Хотелось от этого уйти.

В итоге я сделал вот что. Взял для автообнаружения в качестве источника данных внутреннюю проверку и ключ zabbix[uptime], просто чтобы выбрать что-то, не важно что. Список доменов передал с помощью предобработки в виде javascript, которая список доменов берет из макроса, где они перечислены через запятую. Ну а дальше все распарсить, разбить по элементам, добавить триггеры было делом техники. По ходу дело пришлось и с новым синтаксисом разобраться (есть неочевидные нюансы), и javascript подтянуть.

Прикладываю сам шаблон. Чтобы все заработало, необходимо в макросах указать свой API KEY от сервиса promptapi и список доменов через запятую. Больше ничего делать не надо, только шаблон прикрепить к какому-нибудь хосту. После того, как прикрепите, запустите вручную правило автообнаружения доменов и потом айтемы сбора данных, так как там интервал стоит в 1 день. Замучаетесь ждать результата работы :)

В шаблоне настроены триггеры на:
- 7 и 30 дней до окончания делегирования;
- изменение списка NS серверов;
- изменение регистратора.

Соответственно, все эти значения собираются. Можно вывести куда-то на дашборд, если вам они интересны.

https://serveradmin.ru/files/zabbix/zabbix-domain-paid-till-with-discovery.yaml

#zabbix