Недавно у меня было несколько заметок про 1С на канале. Хотел сразу прокомментировать некоторые вещи, но руки только сейчас дошли. В комментариях много обсуждали, какую конфигурацию для 1С можно использовать. По большому счету выбор есть из трех вариантов:
1️⃣ Файловая база. Тут все просто. Самый дешевый вариант.
2️⃣ Сервер 1С + база Posgresql на Linux. Более дорогой вариант, но к первому добавляется только лицензия на сам сервер 1С.
3️⃣ Сервер 1С + база MSSQL на Windows Server. Это самый дорогой вариант, так как тут нужно будет купить кучу лицензий: 1С сервер, Windows Server, MSSQL сервер и CALs к нему.
Если в лоб сравнить стоимость второго и третьего вариантов, то неподготовленному человеку станет не понятно, зачем платить столько денег за третий вариант, если есть второй, на котором тоже все будет работать. Особенно если нагрузки не очень большие.
Я администрировал все указанные варианты, причем достаточно плотно, так что могу их сравнить. При прочих равных, я бы рекомендовал вариант номер 3, несмотря на то, что он значительно дороже второго. Логика тут простая.
MSSQL сервер очень прост в обслуживании, несмотря на свой огромный функционал. То есть тут простота не обманчивая. Он очень функционален и быстр и при этом легко и просто настраивается в связке с 1С по многочисленным манулам в интернете. Его производительность будет предсказуема. Его легко бэкапить, обслуживать, восстанавливать. С этим справится любой эникей.
С Postgresql ситуация будет другая. Во-первых, нужен будет админ со знанием Linux как минимум, а по хорошему и с опытом postgresql. Этот специалист будет требовать зарплату раза в 2 выше, чем эникей, способный нормально управлять mssql. На длинном промежутке времени никакой экономии не получится, при условии, что у вас нет и не планируется в штат подобный сотрудник.
Во-вторых, хоть 1С вроде как и старается оптимизировать работу своих конфигураций под postgresql, а postgresql pro пытается делать сборки под 1С, но на деле, 1С под posgre работает медленнее, чем под mssql. А в каких-то нестандартных ситуациях катастрофически медленнее, чем в mssql. Я сталкивался с такими ситуациями. Расследовать и разбираться в этом не просто. Надо подключаться программистов 1С и смотреть, какие запросы работают медленно и в чем там проблемы. Все это денежные затраты, если у вас нет в штате подобных специалистов.
Так что при просчете расходов на тот или иной продукт обязательно нужно учитывать не только стоимость его покупки, но и расходы на всем сроке эксплуатации, в том числе и зарплату обслуживающего персонала. На длительном интервале они могут быть значительными. Больше чем стоимость самого программного продукта.
#1с
1️⃣ Файловая база. Тут все просто. Самый дешевый вариант.
2️⃣ Сервер 1С + база Posgresql на Linux. Более дорогой вариант, но к первому добавляется только лицензия на сам сервер 1С.
3️⃣ Сервер 1С + база MSSQL на Windows Server. Это самый дорогой вариант, так как тут нужно будет купить кучу лицензий: 1С сервер, Windows Server, MSSQL сервер и CALs к нему.
Если в лоб сравнить стоимость второго и третьего вариантов, то неподготовленному человеку станет не понятно, зачем платить столько денег за третий вариант, если есть второй, на котором тоже все будет работать. Особенно если нагрузки не очень большие.
Я администрировал все указанные варианты, причем достаточно плотно, так что могу их сравнить. При прочих равных, я бы рекомендовал вариант номер 3, несмотря на то, что он значительно дороже второго. Логика тут простая.
MSSQL сервер очень прост в обслуживании, несмотря на свой огромный функционал. То есть тут простота не обманчивая. Он очень функционален и быстр и при этом легко и просто настраивается в связке с 1С по многочисленным манулам в интернете. Его производительность будет предсказуема. Его легко бэкапить, обслуживать, восстанавливать. С этим справится любой эникей.
С Postgresql ситуация будет другая. Во-первых, нужен будет админ со знанием Linux как минимум, а по хорошему и с опытом postgresql. Этот специалист будет требовать зарплату раза в 2 выше, чем эникей, способный нормально управлять mssql. На длинном промежутке времени никакой экономии не получится, при условии, что у вас нет и не планируется в штат подобный сотрудник.
Во-вторых, хоть 1С вроде как и старается оптимизировать работу своих конфигураций под postgresql, а postgresql pro пытается делать сборки под 1С, но на деле, 1С под posgre работает медленнее, чем под mssql. А в каких-то нестандартных ситуациях катастрофически медленнее, чем в mssql. Я сталкивался с такими ситуациями. Расследовать и разбираться в этом не просто. Надо подключаться программистов 1С и смотреть, какие запросы работают медленно и в чем там проблемы. Все это денежные затраты, если у вас нет в штате подобных специалистов.
Так что при просчете расходов на тот или иной продукт обязательно нужно учитывать не только стоимость его покупки, но и расходы на всем сроке эксплуатации, в том числе и зарплату обслуживающего персонала. На длительном интервале они могут быть значительными. Больше чем стоимость самого программного продукта.
#1с
👍2
❗️ А у вас есть Кубернетис?
Это видео так прекрасно, что его даже комментировать не хочется. Просто смотрите и думайте.
https://www.youtube.com/watch?v=LeVULLqWwcg
Это видео так прекрасно, что его даже комментировать не хочется. Просто смотрите и думайте.
https://www.youtube.com/watch?v=LeVULLqWwcg
YouTube
А у вас есть кубернетес?
👍3
Вчера сидел, в очередной раз просматривал вакансии. У меня привычка это делать регулярно, чего и вам советую. Не раз уже писал об этом.
Обратил внимание, что удаленных вакансий с каждым днем все больше и больше. И при этом работодатели не пытаются снизить зарплату, в надежде, что из регионов люди будут согласны работать за небольшие деньги.
Зарплаты на удалёнке сопоставимы с московскими локальными. И при этом компании реально готовы брать людей из других регионов, не требуя их переезда в Москву. Законодательную базу приняли для полностью удаленного оформления. Оно уже работает.
На ИТ специалистов просто бум сейчас. Жесткая нехватка кадров. Ребят, используйте свой шанс. Не тупите и не тратьте время на ерунду. Развивайтесь, учитесь, осваивайте новое и устраивайтесь на хорошие зарплаты. Сейчас это все реально, более чем когда-либо.
На картинках пример моей ленты рекомендаций вакансий. Я не стал разворачивать ее еще дальше, и так наскринил полно хороших предложений.
Обратил внимание, что удаленных вакансий с каждым днем все больше и больше. И при этом работодатели не пытаются снизить зарплату, в надежде, что из регионов люди будут согласны работать за небольшие деньги.
Зарплаты на удалёнке сопоставимы с московскими локальными. И при этом компании реально готовы брать людей из других регионов, не требуя их переезда в Москву. Законодательную базу приняли для полностью удаленного оформления. Оно уже работает.
На ИТ специалистов просто бум сейчас. Жесткая нехватка кадров. Ребят, используйте свой шанс. Не тупите и не тратьте время на ерунду. Развивайтесь, учитесь, осваивайте новое и устраивайтесь на хорошие зарплаты. Сейчас это все реально, более чем когда-либо.
На картинках пример моей ленты рекомендаций вакансий. Я не стал разворачивать ее еще дальше, и так наскринил полно хороших предложений.
👍2
Инвентаризация и мониторинг железа
В пятницу на одном из арендуемых серверов вышел из строя жесткий диск. Он просто пропал из системы. Проблем это не создало, так как настроен рейд массив.
Вам надо знать серийный номер, чтобы попросить техподдержку заменить диск. А диск не доступен. Что делать? Можно перечислить серийные номера рабочих дисков и попросить заменить тот, которого нет в списке. А если дисков 16 штук?
В тех. поддержку надо давать максимально простую и четкую информацию. Они не будут заморачиваться и внимательно сверяться по списку из 16 серийников. Так что подобные вопросы надо решать заранее.
Я просто зашел в мониторинг и посмотрел серийный номер выпавшего диска. Создал тикет на замену. Мониторинг настраиваю обычно вот так - https://serveradmin.ru/monitoring-smart-v-zabbix/ Это если речь идет о сервере без рейд контроллера. Если используется контроллер, то отталкиваемся от него, примерно так - https://serveradmin.ru/monitoring-intel-raid-s-pomoshhyu-raidcfg-i-zabbix/
Для всех популярных рейд контроллеров есть шаблоны для Zabbix. Для мегарейдов точно есть. Я статью не писал, но сам постоянно пользуюсь. Беру из гугла.
Я часто вижу, что подобными вещами не заморачиваются. Иногда забавно почитать переписку с тех поддержкой по замене диска, который неожиданно сломался пол года назад, но этого никто не заметил, потому что не было мониторинга. А потом сервер завис и из ребута не вышел. Читал такие истории у заказчиков в тикетах.
Так что хотя бы запишите в exel табличку или какую-нибудь wiki все основные параметры своего железа. В ктирических ситуациях это сильно поможет и упростит задачи по решению проблем.
#zabbix
В пятницу на одном из арендуемых серверов вышел из строя жесткий диск. Он просто пропал из системы. Проблем это не создало, так как настроен рейд массив.
Вам надо знать серийный номер, чтобы попросить техподдержку заменить диск. А диск не доступен. Что делать? Можно перечислить серийные номера рабочих дисков и попросить заменить тот, которого нет в списке. А если дисков 16 штук?
В тех. поддержку надо давать максимально простую и четкую информацию. Они не будут заморачиваться и внимательно сверяться по списку из 16 серийников. Так что подобные вопросы надо решать заранее.
Я просто зашел в мониторинг и посмотрел серийный номер выпавшего диска. Создал тикет на замену. Мониторинг настраиваю обычно вот так - https://serveradmin.ru/monitoring-smart-v-zabbix/ Это если речь идет о сервере без рейд контроллера. Если используется контроллер, то отталкиваемся от него, примерно так - https://serveradmin.ru/monitoring-intel-raid-s-pomoshhyu-raidcfg-i-zabbix/
Для всех популярных рейд контроллеров есть шаблоны для Zabbix. Для мегарейдов точно есть. Я статью не писал, но сам постоянно пользуюсь. Беру из гугла.
Я часто вижу, что подобными вещами не заморачиваются. Иногда забавно почитать переписку с тех поддержкой по замене диска, который неожиданно сломался пол года назад, но этого никто не заметил, потому что не было мониторинга. А потом сервер завис и из ребута не вышел. Читал такие истории у заказчиков в тикетах.
Так что хотя бы запишите в exel табличку или какую-нибудь wiki все основные параметры своего железа. В ктирических ситуациях это сильно поможет и упростит задачи по решению проблем.
#zabbix
Server Admin
Мониторинг SMART в Zabbix
Настройка мониторинга smart параметров жесткого диска с помощью сервера мониторинга zabbix. Оповещение о проблемах с диском.
В продолжении темы выхода из строя диска, напишу себе и остальным на память последовательность действий при замене сбойного диска в массиве mdadm. Инструкция не уникальна, потому что на моей памяти синтаксис mdadm не менялся ни разу. Я как 10 лет назад менял так диски, продолжаю это делать и сейчас. Правда все реже и реже.
Проверяем, какой диск выпал из массива:
Сбойный диск будет помечен буквой F. Помечаем его сбойным и выводим из массива:
Меняем сбойный диск. После этого убеждаемся, что он появился в системе.
Там же смотрим на его разметку. Если новый диск, разметки не будет. Копируем на него разметку с любого диска массива:
Не перепутайте тут имена дисков и не затрите рабочий диск пустой разметкой нового. Тут мы разметку с sda скопировали на sdb.
Добавляем новый диск в массив.
Должны увидеть инфу:
Дальше наблюдаем за ребилдом в режиме реального времени:
В это время сервер лучше не нагружать и не перезагружать. У меня много раз было такое, что сервер перегружался в момент ребилда. К проблемам это не приводило, просто ребил начинался заново с самого начала.
Инструкция 100% рабочая и много раз проверенная, можно сохранить себе. Прониклись олдскулом? Это вам не девопс какой-нибудь, а настоящее железо :) Но кроме шуток, вот это обычный сервер с 4 дисками по 3Tb в raid10 под бэкапы. Стоит 5200 в месяц с i7 и 32gb оперативки на борту. Трафик безлимитный.
Используется под бэкапы, а так как память позволяет, иногда там тестовые виртуалки запускаются под разовые нужды.
Где еще за такие деньги получить столько места на персональном десятом рейде? Работает шустро, хороший проц, можно активно жать данные. При этом не просто хранилище, а полноценный сервер, который позволяет очень гибко настраивать бэкапы, их управление и т.д.
Он сам везде ходит по ssh и забирает все к себе. Это важно, так как условный зловред на целевом сервере не получит доступа к бэкапам. Можно подключить по nfs к какому-нибудь гипервизору и бэкапить туда виртуалки.
#backup
Проверяем, какой диск выпал из массива:
cat /proc/mdstat
Сбойный диск будет помечен буквой F. Помечаем его сбойным и выводим из массива:
mdadm /dev/md0 --fail /dev/sdb1
mdadm /dev/md0 --remove /dev/sdb1
Меняем сбойный диск. После этого убеждаемся, что он появился в системе.
fdisk -l
Там же смотрим на его разметку. Если новый диск, разметки не будет. Копируем на него разметку с любого диска массива:
sfdisk -d /dev/sda | sfdisk /dev/sdb
Не перепутайте тут имена дисков и не затрите рабочий диск пустой разметкой нового. Тут мы разметку с sda скопировали на sdb.
Добавляем новый диск в массив.
mdadm --add /dev/md0 /dev/sdb1
Должны увидеть инфу:
mdadm: added /dev/sdb1
Дальше наблюдаем за ребилдом в режиме реального времени:
watch cat /proc/mdstat
В это время сервер лучше не нагружать и не перезагружать. У меня много раз было такое, что сервер перегружался в момент ребилда. К проблемам это не приводило, просто ребил начинался заново с самого начала.
Инструкция 100% рабочая и много раз проверенная, можно сохранить себе. Прониклись олдскулом? Это вам не девопс какой-нибудь, а настоящее железо :) Но кроме шуток, вот это обычный сервер с 4 дисками по 3Tb в raid10 под бэкапы. Стоит 5200 в месяц с i7 и 32gb оперативки на борту. Трафик безлимитный.
Используется под бэкапы, а так как память позволяет, иногда там тестовые виртуалки запускаются под разовые нужды.
Где еще за такие деньги получить столько места на персональном десятом рейде? Работает шустро, хороший проц, можно активно жать данные. При этом не просто хранилище, а полноценный сервер, который позволяет очень гибко настраивать бэкапы, их управление и т.д.
Он сам везде ходит по ssh и забирает все к себе. Это важно, так как условный зловред на целевом сервере не получит доступа к бэкапам. Можно подключить по nfs к какому-нибудь гипервизору и бэкапить туда виртуалки.
#backup
👍12
Создании шаблонов для мониторинг SNMP устройств
Очередное видео с последнего MeetUp Online на русском языке. Инженер технической поддержки Zabbix рассказал о создании шаблонов для SNMP устройств:
◽ с чего начать создание шаблона
◽ как организовать среду для тестирования созданных шаблонов
◽ какие инструменты нужны и многое другое
Мониторинг по snmp относительно просто настраивать по сравнению с некоторыми другими штуками. Самое главное знать нужные oid'ы, которые либо из документации берутся, либо выясняются опытным путем. Достаточно один раз настроить самому мониторинг какой-нибудь штуки по snmp и дальше все пойдет как по маслу.
В подобном мониторинге самое трудное - рутина. Это если делаешь шаблон самостоятельно. Я много их настраивал, так что знаю, о чем говорю. Хорошо, если находится готовый шаблон в интернете. Хоть какой-нибудь. Править уже существующий гораздо проще, чем писать с нуля. Многие вещи часто повторяются процентов на 80%, особенно в сетевых устройствах.
https://www.youtube.com/watch?v=Z9dvT8-IRmY
#zabbix #видео
Очередное видео с последнего MeetUp Online на русском языке. Инженер технической поддержки Zabbix рассказал о создании шаблонов для SNMP устройств:
◽ с чего начать создание шаблона
◽ как организовать среду для тестирования созданных шаблонов
◽ какие инструменты нужны и многое другое
Мониторинг по snmp относительно просто настраивать по сравнению с некоторыми другими штуками. Самое главное знать нужные oid'ы, которые либо из документации берутся, либо выясняются опытным путем. Достаточно один раз настроить самому мониторинг какой-нибудь штуки по snmp и дальше все пойдет как по маслу.
В подобном мониторинге самое трудное - рутина. Это если делаешь шаблон самостоятельно. Я много их настраивал, так что знаю, о чем говорю. Хорошо, если находится готовый шаблон в интернете. Хоть какой-нибудь. Править уже существующий гораздо проще, чем писать с нуля. Многие вещи часто повторяются процентов на 80%, особенно в сетевых устройствах.
https://www.youtube.com/watch?v=Z9dvT8-IRmY
#zabbix #видео
YouTube
Создании шаблонов для мониторинг SNMP устройств
Александр Петров-Гаврилов, Инженер технической поддержки, Zabbix рассказал о создании шаблонов для SNMP устройств. С чего начать создание шаблона, как организовать среду для тестирования созданных шаблонов, какие инструменты нужны и многое другое, Вы узнаете…
На днях обновлял несколько установок Grafana на на новую 7-ю версию. Заодно решил сделать заметку по этой теме. Рассказываю, как я сам использую Grafana, как устанавливаю, обновляю.
Там же в статье привожу некоторые примеры дашбордов, которые делал сам. Grafana в основном использую как рисовалку дашбордов для Zabbix. Причем больших дашбордов, которые в самом заббиксе делать неудобно. Либо для объединения данных с нескольких серверов Zabbix.
Иногда делаю какие-то простые прикладные вещи, например объединяю информацию о посещаемости сайтов, количестве подписчиков в группах telegram, доход с adsense и т.д. Тоже привел пример подобного дашборда.
https://serveradmin.ru/obnovlenie-grafana/
#grafana #мониторинг
Там же в статье привожу некоторые примеры дашбордов, которые делал сам. Grafana в основном использую как рисовалку дашбордов для Zabbix. Причем больших дашбордов, которые в самом заббиксе делать неудобно. Либо для объединения данных с нескольких серверов Zabbix.
Иногда делаю какие-то простые прикладные вещи, например объединяю информацию о посещаемости сайтов, количестве подписчиков в группах telegram, доход с adsense и т.д. Тоже привел пример подобного дашборда.
https://serveradmin.ru/obnovlenie-grafana/
#grafana #мониторинг
Server Admin
Обновление Grafana | serveradmin.ru
server { listen 443 http2 ssl; server_name gr.serveradmin.ru; access_log /var/log/nginx/gr.serveradmin.ru-access.log full; error_log /var/log/nginx/gr.serveradmin.ru-error.log; ssl_certificate...
На фоне новости про различные трекеры, которые нашли недавно в LastPass, хотел поговорить о хранении паролей. Некоторое время назад я пересмотрел свое отношение к ним. Раньше пользовался и lastpass, и сохранением паролей в браузерах.
В настоящий момент я удалил отовсюду свои пароли, в том числе удалил учетку в lastpass. Сделал это несколько месяцев назад, когда сам поразмыслил на эту тему и решил, что надо хранить все у себя. Сейчас все пароли храню локально в keepass. Не ставлю никаких плагинов к нему. Все копирую и вставляю вручную.
Да, стало менее удобно, но как-то спокойнее. Все эти программы, браузеры, всё воруют, передают, сохраняют. Понятно, что браузеры все о тебе знают, так как ты через них эти пароли вводишь. Но так хоть со стороны через браузер будет сложнее увести данные. Я помню была программка раньше. Запускаешь ее на компе и она тебе в plaintext все сохраненные пароли из браузера выгружает. Не знаю, работает ли что-то подобное сейчас, но раньше 100% была. Сам проверял ее.
Еще забавный и одновременно тревожный момент был. Когда вышли первые сборки Edge на базе Chromium, я поставил себе Dev версию. При первом запуске он радостно сообщил, что перенес все из Chrome, в том числе и пароли. При этом ничего не спросил. Я прям офигел. Ррррааааз и в один момент все твои пароли из Chrome улетели в Microsoft. Уже только ради этого стоило придумать этот браузер.
А вы где храните свои пароли?
#мысли
В настоящий момент я удалил отовсюду свои пароли, в том числе удалил учетку в lastpass. Сделал это несколько месяцев назад, когда сам поразмыслил на эту тему и решил, что надо хранить все у себя. Сейчас все пароли храню локально в keepass. Не ставлю никаких плагинов к нему. Все копирую и вставляю вручную.
Да, стало менее удобно, но как-то спокойнее. Все эти программы, браузеры, всё воруют, передают, сохраняют. Понятно, что браузеры все о тебе знают, так как ты через них эти пароли вводишь. Но так хоть со стороны через браузер будет сложнее увести данные. Я помню была программка раньше. Запускаешь ее на компе и она тебе в plaintext все сохраненные пароли из браузера выгружает. Не знаю, работает ли что-то подобное сейчас, но раньше 100% была. Сам проверял ее.
Еще забавный и одновременно тревожный момент был. Когда вышли первые сборки Edge на базе Chromium, я поставил себе Dev версию. При первом запуске он радостно сообщил, что перенес все из Chrome, в том числе и пароли. При этом ничего не спросил. Я прям офигел. Ррррааааз и в один момент все твои пароли из Chrome улетели в Microsoft. Уже только ради этого стоило придумать этот браузер.
А вы где храните свои пароли?
#мысли
Попался на глаза любопытный проект play-with-docker - https://play-with-docker.com/. Он существует уже давно, с 2017 года, но я впервые его увидел на днях. Это тренажер для изучения Docker.
Вам дается тестовая лаба на 4 часа, состоящая из пяти инстансов (instances) с докером внутри. Эти инстансы можно объединять в Docker кластер или использовать по отдельности. Я толком не понял, что это за инстансы. То ли отдельные виртуалки, то ли контейнеры с докером внутри. Но не суть.
Главное, что все это бесплатно, но только на 4 часа. После этого можно заново получить лабу, но снова на 4 часа. В довесок к окружению идет обучающая теория и практические задания, которые можно выполнять в этой лабе. Причем сделано все удобно и интерактивно.
В левой части браузера задания, в правой лаба, где можно их выполнять. Учеба разбита на темы и уроки. Все задания на английском языке. В конце контрольные вопросы для закрепления материала.
Я немного потыкал там, мне понравилось. Другое дело, что я докер и так неплохо знаю на том уровне, что мне необходим. В самих уроках много всего. Там и сети, и безопасность, и оркестрация. Обучение разбито на два потока - для администраторов и разработчиков.
Так что если вы не знакомы с докером, то рекомендую попробовать познакомиться с ним по этому тренажеру. Сделано добротно, качественно и полностью бесплатно.
#docker #бесплатно
Вам дается тестовая лаба на 4 часа, состоящая из пяти инстансов (instances) с докером внутри. Эти инстансы можно объединять в Docker кластер или использовать по отдельности. Я толком не понял, что это за инстансы. То ли отдельные виртуалки, то ли контейнеры с докером внутри. Но не суть.
Главное, что все это бесплатно, но только на 4 часа. После этого можно заново получить лабу, но снова на 4 часа. В довесок к окружению идет обучающая теория и практические задания, которые можно выполнять в этой лабе. Причем сделано все удобно и интерактивно.
В левой части браузера задания, в правой лаба, где можно их выполнять. Учеба разбита на темы и уроки. Все задания на английском языке. В конце контрольные вопросы для закрепления материала.
Я немного потыкал там, мне понравилось. Другое дело, что я докер и так неплохо знаю на том уровне, что мне необходим. В самих уроках много всего. Там и сети, и безопасность, и оркестрация. Обучение разбито на два потока - для администраторов и разработчиков.
Так что если вы не знакомы с докером, то рекомендую попробовать познакомиться с ним по этому тренажеру. Сделано добротно, качественно и полностью бесплатно.
#docker #бесплатно
👍1
На днях столкнулся с неприятной ошибкой запуска lxc контейнера в proxmox. Арендуемый дедик ребутнулся аварийно. Причина неизвестна и выяснить ее невозможно. Нужно просто понимать, что так бывает. Скорее всего рядом монтировали чей-то сервер в стойку и задели провод моего. Обычное дело. Много раз сталкивался с подобным. Могут либо питание вырубить, либо сетевой кабель отключить.
Я однажды присутствовал при монтаже, так при мне мой же сервер чуть не уронили. Пришлось самому его ловить и помогать в салазки крепить. Я всегда и всем рекомендую лично контролировать монтаж ваших серверов в ЦОД. Там всякое может быть. На монтаже работают в основном рукожопы с низкой ЗП. Они ни за что не отвечают. Потом ничего выяснить не получится. Все нужно контролировать. Хотя в этом цоде, после того, как описал инцидент с монтажом руководству в официальном письме, дали месяц бесплатного размещения.
Что-то я отвлекся. Возвращаемся к LXC. Вообще, мне нравится технология контейнеров, особенно то, как они организованы в lxc. Контейнеры быстро запускаются, потребляют минимум ресурсов, организационно очень похожи на виртуалки, в отличие от докера. Но при этом являются контейнерами. Но вот ошибок с ними больше, чем с виртуалками. Сталкиваюсь уже не первый раз.
В общем, после этого аварийного перезапуска, контейнеры не стартовали. Не буду тут долго останавливаться на описании симптомов. Все это есть в статье. Расскажу суть. Система внутри контейнера обновлялась чаще, чем сам гипервизор. В итоге так получилась, что в контейнере были свежее обновления. Из-за этого возникла проблема с их запуском. После того, как обновил сам гипервизор, контейнеры запустились.
А вы как относитесь к lxc? Пользуетесь ими?
https://serveradmin.ru/lxc-proxmox-start-container-error/
#proxmox
Я однажды присутствовал при монтаже, так при мне мой же сервер чуть не уронили. Пришлось самому его ловить и помогать в салазки крепить. Я всегда и всем рекомендую лично контролировать монтаж ваших серверов в ЦОД. Там всякое может быть. На монтаже работают в основном рукожопы с низкой ЗП. Они ни за что не отвечают. Потом ничего выяснить не получится. Все нужно контролировать. Хотя в этом цоде, после того, как описал инцидент с монтажом руководству в официальном письме, дали месяц бесплатного размещения.
Что-то я отвлекся. Возвращаемся к LXC. Вообще, мне нравится технология контейнеров, особенно то, как они организованы в lxc. Контейнеры быстро запускаются, потребляют минимум ресурсов, организационно очень похожи на виртуалки, в отличие от докера. Но при этом являются контейнерами. Но вот ошибок с ними больше, чем с виртуалками. Сталкиваюсь уже не первый раз.
В общем, после этого аварийного перезапуска, контейнеры не стартовали. Не буду тут долго останавливаться на описании симптомов. Все это есть в статье. Расскажу суть. Система внутри контейнера обновлялась чаще, чем сам гипервизор. В итоге так получилась, что в контейнере были свежее обновления. Из-за этого возникла проблема с их запуском. После того, как обновил сам гипервизор, контейнеры запустились.
А вы как относитесь к lxc? Пользуетесь ими?
https://serveradmin.ru/lxc-proxmox-start-container-error/
#proxmox
Server Admin
Proxmox LXC: TASK ERROR: command 'systemctl start...
Job for [email protected] failed because the control process exited with error code. See "systemctl status [email protected]" and "journalctl -xe" for details. TASK ERROR: command...
На днях тестировал полезную и удобную программу для анализа логов веб сервера. Как я уже рассказывал ранее, я всегда по возможности собираю логи веб серверов в ELK Stack. Понятно, что это монструозная конструкция не везде может быть поднята. На небольших проектах ее можно заменить goaccess.
Это бесплатный анализатор логов веб сервера с репой на гитхабе - https://github.com/allinurl/goaccess На Debian / Ubuntu можно поставить из их репозитория. Для Centos 8 не нашел готового пакета в Epel, но встречал в других репах. Я не очень люблю сторонние репозитории, поэтому для теста собрал у себя из исходников. Там никаких сложностей и нюансов нет. Если вы хипстер и девопсер (я не такой), запускайте в докере - allinurl/goaccess, никаких проблем.
Утилита из коробки понимает дефолтные логи nginx / apache. У меня часто свои кастомные логи. Под них придется писать правила парсинга самостоятельно. Утилита может как в режиме реального времени показывать статистику в терминале, так и генерить готовые html страницы для просмотра в браузере.
Со страничками все понятно. Подобный софт известен 100 лет в обед. Я еще лет 15 назад настраивал webalizer или awstats (смахнул ностальгическую слезу). А вот статистика прямо в консоли порадовала. Удобно быстро посмотреть, что у нас в логах. Там по разделам можно ходить, какие-то сортировки, выборки делать.
Пример статистики, которую генерит утилита в html, можно посмотреть в demo - https://rt.goaccess.io/ Мне понравилась программулина, добавил себе в закладки и даже на веб сервер поставил :)
#webserver
Это бесплатный анализатор логов веб сервера с репой на гитхабе - https://github.com/allinurl/goaccess На Debian / Ubuntu можно поставить из их репозитория. Для Centos 8 не нашел готового пакета в Epel, но встречал в других репах. Я не очень люблю сторонние репозитории, поэтому для теста собрал у себя из исходников. Там никаких сложностей и нюансов нет. Если вы хипстер и девопсер (я не такой), запускайте в докере - allinurl/goaccess, никаких проблем.
Утилита из коробки понимает дефолтные логи nginx / apache. У меня часто свои кастомные логи. Под них придется писать правила парсинга самостоятельно. Утилита может как в режиме реального времени показывать статистику в терминале, так и генерить готовые html страницы для просмотра в браузере.
Со страничками все понятно. Подобный софт известен 100 лет в обед. Я еще лет 15 назад настраивал webalizer или awstats (смахнул ностальгическую слезу). А вот статистика прямо в консоли порадовала. Удобно быстро посмотреть, что у нас в логах. Там по разделам можно ходить, какие-то сортировки, выборки делать.
Пример статистики, которую генерит утилита в html, можно посмотреть в demo - https://rt.goaccess.io/ Мне понравилась программулина, добавил себе в закладки и даже на веб сервер поставил :)
#webserver
👍4
Хочу поделиться с вами информацией об одном любопытном продукте. ZeroTier One - приложение с открытым исходным кодом (https://github.com/zerotier/ZeroTierOne), которое позволяет пользователям создавать защищенные управляемые сети. С их помощью можно объединять устройства, как-будто они находятся в локальной сети.
В отличие от обычных vpn решений, ZeroTier использует пиринговую технологию, так что хосты могут напрямую обмениваются друг с другом информацией, а не через центральный сервер. За счет этого достигается максимальная скорость и отклик между хостами.
Для управления всей этой штукой есть GUI интерфейс. То есть зайти в эту тему не сложно. Всё управление через браузер. У некоторых хостеров я видел готовые виртуалки с ZeroTier в маркетплейсах. В веб интерфейсе создаете сеть, хосты. На конечные устройства ставите клиента, подключаете их к сети. Потом в веб интерфейсе видите всю информацию по подключенным клиентам, в том числе их адреса, по которым они могут общаться по виртуальной сети между собой.
Так же этот сервис продается по подписке saas. Есть и бесплатный тарифный план с некоторыми ограничениями. Если хочется посмотреть и попробовать, можно зарегистрироваться на zerotier.com и потестить тариф Free.
Я сам эту шутку не пробовал и не использовал. Лежит в закладках с начала пандемии, но так и не дошли руки попробовать. Я давно и успешно использую openvpn, хорошо в нем разбираюсь, быстро настраиваю. Так что объединяю сети обычно с ее помощью. Но возможно кому-то будет полезно как более простое и быстрое для внедрения решение.
Забыл сказать, что для мобильных приложений тоже есть клиенты в сторах.
Пробовали ZeroTier в деле? Как впечатления? Лучше, удобнее, к примеру, Veeam PN, о котором я недавно рассказывал?
#vpn
В отличие от обычных vpn решений, ZeroTier использует пиринговую технологию, так что хосты могут напрямую обмениваются друг с другом информацией, а не через центральный сервер. За счет этого достигается максимальная скорость и отклик между хостами.
Для управления всей этой штукой есть GUI интерфейс. То есть зайти в эту тему не сложно. Всё управление через браузер. У некоторых хостеров я видел готовые виртуалки с ZeroTier в маркетплейсах. В веб интерфейсе создаете сеть, хосты. На конечные устройства ставите клиента, подключаете их к сети. Потом в веб интерфейсе видите всю информацию по подключенным клиентам, в том числе их адреса, по которым они могут общаться по виртуальной сети между собой.
Так же этот сервис продается по подписке saas. Есть и бесплатный тарифный план с некоторыми ограничениями. Если хочется посмотреть и попробовать, можно зарегистрироваться на zerotier.com и потестить тариф Free.
Я сам эту шутку не пробовал и не использовал. Лежит в закладках с начала пандемии, но так и не дошли руки попробовать. Я давно и успешно использую openvpn, хорошо в нем разбираюсь, быстро настраиваю. Так что объединяю сети обычно с ее помощью. Но возможно кому-то будет полезно как более простое и быстрое для внедрения решение.
Забыл сказать, что для мобильных приложений тоже есть клиенты в сторах.
Пробовали ZeroTier в деле? Как впечатления? Лучше, удобнее, к примеру, Veeam PN, о котором я недавно рассказывал?
#vpn
👍1
Media is too big
VIEW IN TELEGRAM
Один из подписчиков поделился песней. Ранее ее не слышал, понравилось исполнение. Особенно вокал и мимика певицы. Группа Дореволюционный советчик. Это у них единственная айтишная песня. Наверняка была записана на волне блокировок телеграма.
Которыя сутки не грузитъ страницы,
Процессоръ скрипитъ, словно старый сарай.
Настройте же прокси, креаторъ Голицынъ,
Админъ Оболенскій, раздайте вай-фай.
Сидятъ черезъ SOCKS баринъ и пролетарій -
Народъ на Руси оказался непростъ,
Но въ чатахъ публичныхъ не спятъ комиссары,
И могутъ тебя посадить за репостъ.
Но какъ же намъ, право, безъ дѣвичьей ласки,
Безъ теплыхъ эмодзи, шальныхъ телеграмъ?
Манагеръ Голицынъ, а можетъ быть въ Аську?
Генъ. диръ. Оболенскій, давайте въ ТАМЪ-ТАМЪ.
Сатрапы режима, холопы системы
Заблочатъ Вотсапъ и закроютъ Порнхабъ,
Куда теперь постить забойные мемы
И кто проорётся съ моихъ фотожабъ…
Сидимъ съ VPN-номъ въ глухой деревенькѣ.
На синемъ экранѣ сіяютъ скрипты.
Предатель Голицынъ раздайте печеньки,
Масонъ Оболенскій, пишите посты.
Которыя сутки не грузитъ страницы,
Процессоръ скрипитъ, словно старый сарай.
Настройте же прокси, креаторъ Голицынъ,
Админъ Оболенскій, раздайте вай-фай.
Сидятъ черезъ SOCKS баринъ и пролетарій -
Народъ на Руси оказался непростъ,
Но въ чатахъ публичныхъ не спятъ комиссары,
И могутъ тебя посадить за репостъ.
Но какъ же намъ, право, безъ дѣвичьей ласки,
Безъ теплыхъ эмодзи, шальныхъ телеграмъ?
Манагеръ Голицынъ, а можетъ быть въ Аську?
Генъ. диръ. Оболенскій, давайте въ ТАМЪ-ТАМЪ.
Сатрапы режима, холопы системы
Заблочатъ Вотсапъ и закроютъ Порнхабъ,
Куда теперь постить забойные мемы
И кто проорётся съ моихъ фотожабъ…
Сидимъ съ VPN-номъ въ глухой деревенькѣ.
На синемъ экранѣ сіяютъ скрипты.
Предатель Голицынъ раздайте печеньки,
Масонъ Оболенскій, пишите посты.
👍5