Записки IT специалиста
8.18K subscribers
1.67K photos
49 videos
16 files
2.28K links
IT-канал, просто о сложном
https://interface31.ru

Купить рекламу:
https://telega.in/c/interface31
Download Telegram
Как выбрать LLM под конкретную бизнес-задачу?

Отвечают инженеры YADRO, которые протестировали на своих GPU-серверах пять популярных моделей: от огромной DeepSeek-R1-0528 с 685B параметров до небольшой DeepSeek-R1-Distill-14B. Тесты проводили на трех платформах с 4090 и H100 в условиях, максимально приближенных к реальным бизнес-кейсам.

Из статьи вы также узнаете, зачем уменьшать контекстное окно, запускать инстансы одной и той же LLM на нескольких GPU, а в случае с DeepSeek R1 — использовать gpu_memory_utilization=0.95 в vLLM.

Изучить →

erid: 2W5zFHn3M1J
🤮62👍21
Выбор SSD. О чем говорят статистика и экономика. Часть 2

Продолжаем, основной период работы диска – это период нормальной эксплуатации, за который мы принимаем гарантийный срок производителя.

Прозвучало мнение, что технически это ничего не значит, это маркетинг. Но любой производитель стремится представить свою продукцию на рынке в максимально выгодном свете, тем более в такой высококонкурентной нише как SSD.

Срок гарантии – одно из маркетинговых преимуществ, причем преимуществ весомых, в тоже время производитель умеет считать деньги и в убыток себе работать не будет. Поэтому срок гарантии – это именно тот срок, когда частота отказов большей части выпущенной партии остается в пределах запланированной нормы.

Так-так, у отказов есть план и норма? Именно так. Никакого секрета эти данные не представляют и рассчитать планируемую вероятность отказа может каждый.

Интересующий нас параметр называется наработка на отказ (MTBF).

Подождите, - скажет иной читатель, — там ведь какие-то сумасшедшие цифры фигурируют, миллионы часов.

Но этот параметр не является прямым показателем для одиночного диска, объем заметки не позволяет пуститься в подробные объяснения, поэтому сразу перейдем к практическому показателю – годовой частоте отказов (AFR), которая исчисляется в процентах и исчисляется по формуле:

AFR = 1 - exp(-8750*n/MTBF)


Где n – количество дисков с одинаковым значением MTBF в эксплуатации. Зависимость эта нелинейная, т.е. зная частоту отказов одного диска нельзя умножить ее на количество дисков. Чуть позже мы вернемся к этому вопросу.

Теперь о самих показателях. Наработка на отказ для бюджетных дисков, например, для популярного Kingston A400 – 1 млн. часов. Для более дорогих дисков, тех же Samsung, включая топы вроде Samsung 990 Pro – 1,5 млн. часов.

Еще выше это значение у дисков, позиционируемых ближе к корпоративному сегменту - Kingston NV или младших дисков корпоративных линеек Kingston DC или Intel D3 – 2 млн. часов.

Выше только у дорогих и корпоративных – 2,5 млн. часов, но это уже удел не только лишь всех, стоимость таких дисков начинается от 70-80 тыс. руб.

А теперь давайте посмотрим в таблицу, где мы рассчитали годовую частоту отказов для разных значений MTBF.

Можно увидеть, что по мере роста количества дисков в эксплуатации годовая частота отказов начинает стремиться к некоторому среднему значению, т.е. уменьшается для дисков с небольшим MTBF и наоборот.

Так на единичных количествах дисков у нас соотношение в частоте отказов между крайними значениями 2,5 раза, а для 200 дисков это будет всего 1,64 раз.

Но это при условии, что диски работают в нормальном режиме: без перегрузок, перегрева и т.д. и т.п. Так для современных дисков постоянная запись за пределами SLC-кеша – явно не номинальный режим работы.

А дальше говорит экономика. Скажем у нас есть парк на 100 рабочих станций офисного типа. И нам нужны недорогие диски для системы. Выбор у нас между Kingston A400 – 1 млн. часов – 2790 руб. и Samsung 870 EVO – 1,5 млн. часов и 4890 руб.

- Даже не думай, бери Samsung, не экономь на спичках – слышны возгласы из зала, но мы послушаем язык цифр. 💪💪💪

Для одного диска разница в цене будет составлять 75% при 48% разницы в надежности. В целом как-бы есть смысл доплатить. И он есть, если вы берете диск в ответственную рабочую станцию. Тут, конечно, есть лотерея с браком, но если вам повезло, и вы вытащили красный шарик, то проблем быть не должно.

На крупных партиях все меняется, так на 100 экземплярах разница в надежности составит 32%, а на 200 дисках – 20%. А в абсолютных цифрах у вас с высокой долей вероятности вылетит по одному диску обоих марок.

Фактически – паритет. А если так, то зачем платить больше? Напоминаем, у нас офисная рабочая станция и нагрузки для обоих моделей будут номинальными.

А на тех же 100 дисках 75% в цене будут чуть более 200 000 руб. Весомый аргумент при закупках и, тем более, при обосновании необходимости регулярной замены всего парка.

Поэтому не поддавайтесь эмоциям, просто берите и считайте.
🔥18🤔12👍97👎1
​​Некоторые особенности расхода ресурса SSD или кому верить?

Сегодня один наш коллега обратил наше внимание на значение счетчиков отдаваемых S.M.A.R.T., а точнее на их несоответствие.

Есть два диска Kingston KC600 на 1024 ГБ с заявленным ресурсом записи 600 ТБ. Данные диски отдают в S.M.A.R.T. не только процент оставшегося ресурса, но и количество записанных данных блоками по 32 МБ.

Что привлекло внимание и насторожило? Согласно полученным данным износ первого диска составил 14%, а второго 18%. При заявленном ресурсе это должно соответствовать 84 ТБ и 108ТБ записанных данных.

Однако реально диски записали 53 ТБ и 52 ТБ, причем больший износ оказался у того диска, что записал меньше.

Странно…

Но внизу есть у нас еще один показатель - TLCWrites32MiB – который показывает количество блоков по 32 МБ, реально записанных в TLC. Здесь мы как раз можем оценить такой параметр как усиление записи (write amplification).

Путем несложных вычислений для первого диска получим 465 ТБ, что соответствует коэффициенту WA 8,7. Это говорит о том, что фактически на один записанный логический блок диск делает примерно 9 записей. Данный коэффициент не является постоянным и зависит от характера записи, единовременного объема, прошивки диска, параметров кеширования и т.д. и т.п.

У второго диска этот параметр оказался еще выше, при меньшем количестве логических записей – 566 ТБ. И это как раз соответствует показанному самим диском износу. Что касается усиления записи, то этот коэффициент для второго диска еще выше – 10,9, т.е. 11 физических записей на 1 логическую.

Сами абсолютные цифры записи в TLC никакого практического интереса не представляют, так как мы не знаем верхнего порога по этому параметру. Нет, зная процент износа и абсолютное значение мы можем рассчитать верхний порог, но зачем?

В отрыве от процентов это просто сферические цифры в вакууме. Поэтому счетчика в процентах нам достаточно, а запись в TLC без процентов лишена практического смысла.
И вот тут мы подходим к вопросу: а кому верить?

В первую очередь надо верить счетчику диска в процентах износа. Он рассчитывается на основе реального количества записи в TLC, где ресурс измеряется не в единицах объема данных, а в количестве перезаписей ячеек.

Заявленный в описании диска ресурс – TBW – это некое среднее по больнице количество записанных данных с учетом некого среднего коэффициента усиления WA. Ориентироваться на него можно, брать за некую константу нельзя.

Потому что даже если вы знаете ресурс и знаете средний объем ежедневно записываемых данных, то вы все равно не знаете для какого WA рассчитан этот ресурс и какой у вас фактический WA.

Что касается наших дисков, то для них можно попробовать рассчитать реальный ресурс по логической записи. Для первого диска он получится 378 ТБ, для второго 288 ТБ. Т.е. фактически вдвое меньше заявленного.

Это, кстати, объясняет и различные заявления в духе «диск А – отстой, помер, не выработав и половины ресурса», или «диски В – круть, работают вдвое больше заявленного».

На самом деле и тот и другой диск работают в рамках доступного ресурса перезаписи ячеек памяти, который в среднем по больнице одинаковый, а вот WA у каждого разный и поэтому итоговый результат, выраженный в объеме логической записи, может сильно различаться.

Как быть? Если диск предоставляет данные в износе в процентах – ориентируемся только на них. Если таких данных нет, то берем в расчет логическую запись, но ставим триггер далеко от пороговых значений.

Где именно начинать бить тревогу? Сложный вопрос, но при отсутствии в S.M.A.R.T. иных показателей о замене диска следует начинать задумываться после того, как ресурс снизится более чем на 50%.
🔥1710👍9👌2
Как устроен полевой транзистор с плавающим затвором или почему деградирует флеш-память

Комментарии показали, что не все пользователи ясно представляют себе физические процессы, проистекающие в ячейках памяти и поэтому делают неверные выводы, данная заметка призвана устранить этот пробел.

Мы намеренно упростим модель работы, чтобы обеспечить ее понимание широкому кругу читателей что-то помнящих со школьного курса физики.

Начнем с того, что такое электрический ток – это перемещение заряженных частиц. Такие частицы могут быть отрицательно заряженные – электроны и положительно заряженные – дырки (это официальный термин, на самом деле дыркой является положительно заряженный ион).

Чтобы носители заряда начали двигаться нам необходимо дать им стимул, т.е. обеспечить разность потенциалов (подать напряжение). В этом случае свободные электроны начнут двигаться в сторону плюса, дырки в сторону минуса.

Чем выше разность потенциалов, тем быстрее будут двигаться заряженные частицы и выше будет их энергия движения, переданная им электромагнитным полем

Важным условием для протекания тока является наличие в материале свободных заряженных частиц (электронов и дырок). В металлах электроны слабо связаны с ядрами атома и могут свободно двигаться по материалу. Такие материалы называются проводниками.

В диэлектриках, наоборот, свободных носителей заряда нет и атомы крепко удерживают свои электроны, поэтому они не проводят электрический ток.

Основа ячейки памяти – полевой транзистор с плавающим затвором, его схема показана на рисунке. Но пока представим, что плавающего затвора у нас нет и мы получим просто транзистор с изолированным затвором.

Если потенциал затвора относительно истока является нулевым (нет напряжения), то электроны свободно перемещаются от истока к стоку, транзистор открыт, по нему течет ток.

Но стоит нам подать на затвор напряжение, как заряженные частицы изменят направление движения и путь от истока к стоку будет невозможен. Транзистор закрыт. Регулируя напряжение на затворе, мы можем управлять тем количеством электронов, которые могут течь от истока к стоку и тем самым регулировать ток через транзистор.

Теперь о плавающем затворе. В транзисторе с плавающим затвором при подаче напряжения на управляющий затвор электроны начинают течь в его сторону и преодолевая диэлектрик попадают на плавающий затвор.

После того, как мы снимем напряжение с управляющего затвора заряд на плавающем затворе, останется, так как электроны не могут отправиться обратно – им мешает диэлектрик.

Но как они смогли попасть на плавающий затвор? При появлении напряжения на управляющем затворе электромагнитное поле придает электронам энергию и разгоняет их, они на скорости бомбардируют атомы диэлектрика и выбивают из них электроны, которые в свою очередь выбивают электроны из соседних атомов.

Это явление называется лавинным пробоем, на короткое время в диэлектрике появляются свободные носители заряда и по нему течет ток. Как только мы снимаем напряжение с управляющего затвора – диэлектрик приходит в норму и перестает пропускать заряженные частицы.

Теперь плавающий затвор содержит некоторый заряд и управляет током через транзистор даже при отсутствии управляющего напряжения. По сути, перед нами простейшая ячейка энергонезависимой памяти.

Чтобы стереть ячейку нам надо разрядить плавающий затвор, для этого мы подаем на управляющий затвор потенциал обратной полярности, которой разгоняет электроны в затворе, и они снова при помощи лавинного пробоя преодолевают диэлектрик в обратном направлении.

Понятно, что подобное воздействие не улучшает свойства материала диэлектрика и он со временем начинает деградировать. Атомы начинают хуже удерживать электроны, и они начинают освобождаться при меньших энергиях.

А это значит, что кто-то из электронов, которые спокойно не сидят, через него проскочит. И чем хуже свойства диэлектрика – тем чаще это будет случаться. Ячейка перестанет держать заряд и станет непригодна как элемент памяти.
👍265
Please open Telegram to view this post
VIEW IN TELEGRAM
😁6
Нейросети и журналистика

Сегодня хотим поделиться еще одним собственным опытом работы с нейросетями, на этот раз мы испытали их в роли репортеров или журналистов.

Задача – довольно простая и мне кажется, что многие коллеги с ней сталкиваются, особенно те, которые « в нагрузку» поддерживают также сайт организации.

В общем и целом, нам нужно разместить на сайте короткий материал о некотором проведенном мероприятии. Казалось бы, ну что тут сложного?

Но не тут-то было. Обычно «ответственные сотрудники» не утруждают себя и просто присылают канцелярский отчет. Что-то в плане: Иванов, Петров и Сидоров посетили симпозиум по проблемам бессонницы в период зимней спячки медведей… На абзац – два, не больше.

Вот теперь сиди и думай, как на эту канцелярщину нарастить немного «мяса», придумать заголовок и т.д. и т.п. Такая задача отнимает достаточно много времени и сил, приходится хоть немного вникать в контекст, находить подходящие формулировки, менять стиль текста.

А если попросить об этом нейросеть? Почему бы и нет. Мы не стали писать какие-то сложные промпты, хотя с ними результат может быть и получше, а просто дали простую вводную:

Помоги обработать текст для статьи на сайте общественной организации о проведенном мероприятии и придумай заголовок:


После чего скормили текст, практически полностью состоящий из канцеляризмов и перечислений.

Теперь результаты:

🔹 Yandex GPT (Алиса) – разочарование года. Алиса очень щепетильна к темам и стоит ей обнаружить какой-то чувствительный для нее контент (а туда она относит практически все, что отличается от благостно-травоядного) как она откажется с вами общаться:

Есть темы, в которых я могу ошибиться. Лучше промолчу.


Причем такой щепетильности у нее ранее не наблюдалось, и она могла свободно общаться на самые разные темы. Теперь все чаще так.

Хотя если попросить ее просто рассказать, как написать такую статью она дает вполне годные рекомендации. В общем – попробуйте, может ваша тематика прокатит.

🔹 GigaChat – подходит к делу с размахом и из пары абзацев сухого текста он делает развернутую статью с подзаголовками, для этого он активно использует поиск в интернет по вашей вводной и вполне может набрать недостающей фактуры по другим источникам.

По сути, это работа хорошего журналиста, которому дали тему и потребовали объем. Также сеть умеет придумывать броские, привлекательные заголовки.

Однако для нашей задачи это был перебор, нам все-таки требовался более строгий стиль репортажа, но если вам нужно «сварить кашу из топора» - то присмотритесь.

🔹 СhatGPT – справился с задачей на отлично, ровно настолько, насколько требуется. Сохранив общий стиль текста и формат репортажа умело убрал канцеляризмы, расставил акценты, сделал вводную часть и завершение. Разбавил текст там, где нужно, но без фанатизма – одно два емких предложения.

При этом часто чат предлагал нам два варианта и спрашивал какой нам больше нравится, после чего продолжал в выбранном стиле.

С его помощью мы не только быстро выполнили поставленную задачу, но и причесали некоторые старые материалы, которые оставляли желать лучшего.

🔹 DeepSeek – также достаточно неплох, может предложить несколько вариантов на выбор – от более формального, к более живому и вполне может использоваться если СhatGPT вам недоступен или вы исчерпали лимиты.

Но, возможно по причине китайского происхождения, не всегда верно строит предложения. Они правильные с орфографической точки зрения, но тяжелы в восприятии и вообще так у нас не пишут и не говорят.

Избавится от этого можно, скормив готовый текст другой сети и попросить его улучшить (тот же GigaChat отлично с этим справится).

🔹 Grok и Gemini – не сказать что плохо, но гораздо слабее СhatGPT или DeepSeek. По сути, вы вместо репортажа получите причесанный исходный текст, из которого уберут излишние канцеляризмы, структурируют, поправят стиль изложения, но не более.

Все равно остается ощущение что вы читаете отчет, а не репортаж. С другой стороны, это может пригодиться, если вам действительно надо подготовить отчет, скажем о проделанной работе.
1👌14👍54🥱4
​​TDP – заблуждения и реальность

TDP (Thermal Design Power) активно используется при обсуждении потребления процессоров и другой электроники. При этом данный показатель часто путают с максимальной рассеиваемой мощностью или потребляемой электрической мощностью.

Однако это не так, TDP является требованием по выбору системы охлаждения и отражает некую среднюю рассеиваемую мощность на усмотрение производителя.

Так Intel определяет его как:

▫️ Расчетная тепловая мощность (TDP) представляет собой среднюю мощность в ваттах, которую процессор рассеивает при работе на базовой частоте со всеми активными ядрами в условиях определенной Intel сложной рабочей нагрузки.

В AMD несколько иной, но тоже очень схожий подход:

▫️ TDP — это максимальная устойчивая мощность, которую процессор может потреблять с помощью «реального» программного обеспечения при работе в определенных пределах температуры и напряжения.

При этом и те и другие говорят о некой «реальной» нагрузке ими самими и определенной. Также следует отметить, что TDP рассчитывается для базовой частоты процессора, просто Intel говорит об этом прямо, а AMD несколько завуалировано.

Таким образом TDP не показывает ни реальной потребляемой мощности, ни реальной рассеиваемой тепловой. Это некий средний показатель, который призван помочь вам выбрать кулер.

Т.е. если вы на процессор с TDP 100 Вт поставите кулер способный рассеивать такую мощность, то ваш процессор при среднестатистической нагрузке перегреваться не должен.

Ключевое слово здесь – не должен. На самом деле вся система работает немного не так. То, что публикуется как TDP есть ни что иное как определенный лимит мощности для устойчивой долгосрочной работы.

Но есть еще один, второй лимит мощности, который указывает какую мощность допустимо потреблять процессору в турбо-режиме и как долго он может это делать.
У Intel эти параметры так и называются PL - Power Limit, PL1 и PL2. Их оба можно найти в документации, первый равен указанному на коробке TDP процессора, а второй указывает максимально потребляемую в турбо-режиме мощность.

Например, у Core i7-14700K это 125 Вт и 273 Вт. Разница, согласитесь, впечатляющая.

AMD публикует только PL1, он же TDP, максимальную мощность можно узнать только из неофициальных источников. Так для того же R9 5900X цифры составляют 105 Вт официальной рассеиваемой мощности и около 145 Вт максимальной.

Схема работы при этом примерно такая, при увеличении нагрузки процессор разгоняется таким образом, чтобы потребляемая им мощность не превысила значение второго лимита мощности.

Пока это значение не достигнуто процессор может продолжать работать на более высоких частотах, по достижению второго лимита мощности процессор должен через некоторое, достаточно небольшое время, вернуться к первому лимиту и работать в нем, пока не будет снята нагрузка.

Штатная цифра для процессоров Intel – 8 секунд. Рассчитана она исходя, опять-таки, из некоторых средних представлений Intel и подразумевает использование стокового охлаждения.

В целом посыл ясен – кратковременно процессор может достигать максимальной потребляемой мощности, но нахождение его в этом состоянии лимитировано. Это обусловлено тем, что ни штатная система охлаждения, ни штатная система питания могут быть не рассчитаны на долговременную высокую нагрузку.

Но данные параметры не являются догмой и, тем более, нигде жестко не прошиты. Они доступны для регулирования в BIOS и производители материнских плат и готовых компьютеров могут настраивать эти параметры согласно собственным представлениям.

Чаще всего такие настройки существенно увеличивают возможность процессоров работать по достижении второго лимита мощности, не возвращаясь к первому, т.е. практически все время находиться в турбо-режиме. Ну а почему бы и нет, если производитель знает, что система питания платы это позволяет.

Производители мобильных устройств могут, наоборот, прикрутить как лимиты, так и время нахождения в турбо-режиме ради снижения тепловыделения и экономного расхода заряда аккумулятора.
👍223
​​TDP – заблуждения и реальность. Продолжение

В прошлой заметке мы разобрали общие вопросы касающиеся TDP и регулировки производительности процессора. Сейчас немного углубимся в детали.

Разбирать будем на примере Intel, так как данный производитель имеет часть документации, касающейся этого вопроса в свободном доступе, AMD разглашает меньше подробностей, но в целом принцип и там и там одинаков, отличаются лишь детали реализации.

Еще раз напомним, что TDP – это всего лишь рекомендация по выбору системы охлаждения и данный параметр не отражает реального потребления процессора.

Реально же используются значения PL1 и PL2. PL1 – пороговое значение средней долговременной мощности. Его не рекомендуется устанавливать выше TDP и обычно эти значения равны.

PL2 – пиковое значение мощности которое может быть кратковременно достигнуто. При превышении этого значения вступаю в дело алгоритмы ограничения мощности и путем регулировки частоты и напряжения удерживают мощность в рамках этого значения.

Но есть один тонкий момент. Нижний предел охлаждения у нас находится на уровне PL1 (который не должен превышать TDP) и, следовательно, процессор должен уметь длительно работать с радиатором, рассеивающим указанную мощность.

Проще говоря, для условного процессора с 95 Вт TDP пользователь может купить кулер, на коробке которого указаны те же 95 Вт и не испытывать проблем.

А дальше представляем себе бассейн и две трубы, по одной в него приходит вода, по другой уходит. Радиатор всегда рассеивает свой TDP, т.е. у нас в единицу времени уходит мощность PL1.

Но тут мы открутили вентиль и начали наливать в бассейн воду в объеме PL2 за ту же единицу времени. Как долго мы можем работать в таком режиме? Очевидно, что пока не переполнится бассейн, а это зависит от его объема и его свободной части.

У радиатора это зависит от теплоемкости. Но как правильно определить доступный объем?

Для этих целей Intel использует специальный параметр Turbo Time (Tau), который рассчитывается по экспоненциально взвешенному скользящему среднему (EWMA) и определяет время, которое процессор может находиться в режиме от PL1 до PL2.

Если мы сразу выходим на мощность PL2, то это время будет равно 8 секундам, при меньших показателях мощности оно будет иным, меняющимся не линейно, а по экспоненте.

После чего процессор возвращается на уровень PL1 и не превышает его до тех пор, пока нагрузка не опустится ниже определенного значения за определенное время.

Если вернуться к аналогии, то рассчитав примерное время наполнения бассейна система ждет пока он гарантированно сольется.

Это позволяет избежать перегрева не только процессора, но и элементов питания материнской платы, которые также ориентируются на значения TDP.

У AMD примерно все тоже самое, только существует еще один ограничивающий фактор в виде температуры ядра, который также начинает ограничивать производительность даже до достижения PL2. А в особо запущенных случаях процессор даже не будет пытаться разгоняться.

Понятно, что все эти показатели высчитаны из расчета, что будет применяться самый слабый радиатор и подсистема питания также будет впритык. Но как быть обладателям дорогих материнских плат с мощным питанием и суперкулеров?

Для них производители предусматривают в BIOS специальные режимы, например, у Gigabyte он называется, как:

🔸 *Enhanced Multi-Core Performance*
Allows you to determine whether to apply the highest Turbo ratio to all CPU cor
es

Которое фактически изменяет лимиты PL1, PL2 и Tau с общим расчетом на то, чтобы процессор мог большее время находится в разгоне. На дорогих платах таких настроек может быть несколько, точнее несколько градаций настроек, скажем, как «умеренно, максимально, ультра».

Китайцы и вовсе пошли впереди планеты всей, на некоторых платах может быть вовсе снят лимит с PL2, а то и с PL1, точнее установлен в значение 4096W, чтобы корректно работал расчет Tau.

К чему это может привести догадаться несложно. Если вы не обеспечили эффективного охлаждения и дали предельную нагрузку, то от платы может пойти волшебный дым.
👍182🌭1
​​Диагностика SSD

В комментариях к вечерней заметке подняли тему диагностики SSD, что достаточно актуально при покупке б/у техники.

Одной из популярных программ для диагностики дисков является Victoria HDD/SSD, но в случае с твердотельными накопителями она не сильно поможет.

С ее помощью можно выявить явный брак памяти либо ее сильный износ, но только на участках, занятых данными. Для пустых участков контроллер с большой долей вероятности отдаст вам ноль, не читая память.

И в этом главное отличие твердотельника от жесткого диска. Диск не знает, что находится в секторе и поэтому будет физически читать его, даже если там ноль. SSD – знает и если ячейка пустая, то зачем ее читать?

Таким образом Victoria покажет вам только то, что диск пора выкидывать, объективного состояния диска вы не получите.

Единственный вариант получить достаточно объективную информацию о диске – это S.M.A.R.T и хорошо если диск выдает в нем процент износа (или оставшийся процент ресурса). Это основной показатель, на который следует ориентироваться, так как рассчитывается он по реальному количеству перезаписей ячеек.

При его отсутствии обращаем внимание на параметры логической записи и сравниваем ее с заявленным ресурсом, но помним, что этот показатель достаточно относительный, так как реальное количество записанных на диск данных будет больше на коэффициент усиления записи – WA, который является величиной переменной и зависит от многих внешних факторов.

Если вы не хотите руками изучать S.M.A.R.T, то неплохим вариантом будет утилита от производителя, если она, конечно, показывает здоровье диска. На эти данные вполне можно опираться.

Если же их нет, то смотрите на выработанный ресурс, при его снижении более чем на 50% диск желательно поменять (так как реальный объем записанных во флеш данных с учетом WA нам неизвестен).

Что касается самых бюджетных дисков, тех же китайцев, то там и к параметрам S.M.A.R.T надо относиться с осторожностью, так как он может показывать то, что хочет его «производитель», а не то, как обстоят дела на самом деле. Наглядный пример – датчик температуры у многих дешевых дисков, который вечно показывает некоторое значение, либо никогда не превышает некий верхний порог.

Также неизвестно качество памяти в таких дисках, например, вы можете столкнуться с таким явлением, как деградация флеша, когда он перестает держать заряд.

Т.е. вы нормально записываете файл и думаете, что там все хорошо. Но через день-другой вы уже не сможете его прочитать, потому что заряд с ячейки начнет стекать. При этом внешне все выглядит благополучно и узнать о проблеме вы сможете только при чтении файла.

Хуже всего, что происходит такое в первую очередь на холодных данных и узнать о таком дефекте вы сможете далеко не сразу.

Поэтому б/у китайца лучше сразу поменять, даже, при стеснении в средствах, на второго китайца, новый хотя бы гарантированно отработает некоторое время.

А в целом вывод простой: инструментов, гарантированно позволяющих оценить состояние твердотельных накопителей нет. Мы можем ориентироваться либо на косвенные признаки, либо на данные, предоставленные нам производителем в S.M.A.R.T. Но помним, что единого стандарта на этот счет нет и каждый производитель отдает туда только то, что хочет и не факт, что делает это добросовестно.
14👌9👍4🌭1
Ожидания и реальность

Для тех, кто считает именно записанные данные. Взяли мы тут несколько дисков с исчерпанным ресурсом и посмотрели какие данные они отдают.

Ну и сравнили с заявленным TBW.

Выводы каждый сделает сам.
1👍22👀8
Настраиваем Fail2Ban для совместной работы с брандмауэром Mikrotik

Fail2Ban - давно зарекомендовавшее себя решение для Linux систем, позволяющее эффективно выявлять и блокировать вредоносную активность, такую как подбор паролей или поиск уязвимостей.

Но как быть, если защищаемые узлы находятся внутри сетевого периметра, а на внешнем контуре находится роутер Mikrotik? Ведь хотелось бы управлять блокировками на уровне всей сети, а не отдельного узла.

Нет ничего сложного, в этой статье мы расскажем как быстро и просто обеспечить совместную работу этих двух популярных продуктов.

https://interface31.ru/tech_it/2024/09/nastraivaem-fail2ban-dlya-sovmestnoy-raboty-s-brandmauerom-mikrotik.html
👍24
​​Автоматическое шифрование BitLocker в Windows 11

Начиная с Windows 11 24H2 все предустановленные системы или чистые установки на компьютеры с TPM и SecureBoot автоматически включается шифрование BitLocker для всех локальных дисков.

Редакция ОС и тип учетной записи роли не играют, шифрование начинается сразу после завершения этапа OOBE во время установки или при первом запуске предустановленной ОС.

После чего диски оказываются зашифрованы, но не защищены. Что это значит? А это значит, что к их содержимому получит доступ любой, кто имеет физический доступ к компьютеру.

Достаточно загрузиться в любую систему с поддержкой BitLocker и он автоматически расшифрует диски при помощи TPM.

Если вы попробуете получить доступ к диску отдельно от ПК, то система попросит у вас 48-символьный пароль, которого у вас пока нет и быть не может. Чтобы получить доступ к данным достаточно вернуть диск в физическую систему.

Т.е. слить данные сняв диск у вас больше не получится. Используйте для этого среду восстановления или WinPE.

Также следует иметь ввиду, что автоматически зашифрованы будут все подключенные к компьютеру диски, кроме съемных. Поэтому перенос информации на временно подключенный к ПК локальный диск тоже может преподнести сюрпризы.

Все меняется после того, как пользователь войдет с учетной записью Microsoft или Azure Active Directory, а также Active Directory с активированной соответствующей политикой.

Диски будут сразу-же защищены, т.е. для них будет сформирован 48-символьный пароль восстановления и доступ к дискам будет доступен только после входа в систему.

Данный пароль в случае входа с облачными аккаунтами передается и хранится в облаке, а при доменной учетной записи – в Active Directory.

Теперь если вы не можете загрузить систему, либо загрузились в среду восстановления то для доступа к данным вам понадобится этот пароль.

Тоже самое будет если вы переустановили систему и отформатировали только диск C, для доступа к другим дискам потребуется знать пароль.

В целом это не страшно, ведь облачный аккаунт у вас есть, если вы смогли войти с его помощью, а значит есть и ключ. Но многие, особенно неопытные пользователи и администраторы пугаются и часто совершают фатальные для данных поступки.

Для облачной учетной записи Microsoft ключи восстановления BitLocker вы можете посмотреть на странице https://account.microsoft.com/devices/recoverykey

В каких случаях вы можете безвозвратно потерять данные? Если у вас диск был зашифрован, но не защищен и вы более не владеете исходным ПК, например, вынули диск из ноутбука и продали его.

В этом случае остается только помахать данным ручкой. Тоже самое произойдет, если вы активируете защиту дисков BitLocker вручную и нигде не сохраните пароль восстановления (в этом случае он не передается ни в какое облако).

Узнать текущий статус дисков можно командой:

Get-BitLockerVolume


В статусе вы можете увидеть FullyDecrypted – полностью расшифровано или FullyEncrypted – полностью зашифровано.

В последнем случае смотрим колонку ProtectionStatus, если там стоит Off, то защита выключена и для доступа к содержимому достаточно физического доступа к компьютеру. Если On – то включена и вам потребуется пароль восстановления.

В этом случае также будет заполнено поле KeyProtector, где будет указано RecoveryPassword.

Узнать его здесь и сейчас можно командой:

(Get-BitLockerVolume C:).KeyProtector.RecoveryPassword


Где C: имя интересующего тома.

Ну и наконец вы можете отключить BitLocker для тома командой:

Disable-BitLocker -MountPoint "C:"


Следует ли это делать? Скорее нет, чем да, особенно если устройство переносное. Как ни крути, а шифрование серьезно повышает безопасность в случае кражи или потери девайса.

В общем, каждый решает сам. Но знать основы и особенности технологии автоматического шифрования нужно, дабы не попасть в неудобные ситуации.
👍48🤔94
Публикация баз данных 1С:Предприятие на веб-сервере IIS c защитой SSL и аутентификацией по паролю

При развертывании комплекса 1С:Предприятие на платформе Windows для веб-публикации информационных баз часто используют IIS (Internet Information Services).

Это вполне оправданное решение, позволяющее обойтись только штатными средствами платформы Windows без установки дополнительного софта.

В данной статье мы не только рассмотрим процесс публикации различных информационных баз на веб-сервере IIS, но и настроим их работу по защищенному протоколу HTTPS с сертификатами Let's Encrypt, а также добавим дополнительную парольную защиту.

https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-iis-c-ssl-zashhitoy-i-autentifikaciey-po-paroly.html
👌12👍9
Публикация баз данных 1С:Предприятие на веб-сервере Apache в Windows c защитой SSL и аутентификацией по паролю

Для публикации информационных баз 1С:Предприятие на платформе Windows часто используют альтернативу штатному IIS - веб сервер Apache, который, несмотря на ряд ограничений, тоже неплохо подходит для небольших и средних установок.

Одним из очевидных преимуществ Apache является его кроссплатформенность, т.е. если вы умеете настраивать данный веб-сервер на одной платформе, то без особого труда сделаете это и на другой.

В данной публикации мы расскажем вам как установить и настроить Apache для публикации баз с SSL-защитой на базе сертификатов Let's Encrypt и дополнительной аутентификацией по паролю.

https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-apache-v-windows-c-zashhitoy-ssl-i-autentifikac.html
👍24
Для публикации баз 1С:Предприятие я использую (можно выбрать несколько ответов):
Anonymous Poll
34%
IIS
26%
Apache (Windows)
27%
Apache (Linux)
33%
Я просто посмотреть ответы
1
Тестирование и исправление информационной базы - что делает и для чего нужно

Существуют вещи настолько привычные, что кажется все про них знают, но это весьма обманчивое впечатление.

Да, о них почти все знают, почти все используют, но мало кто представляет происходящие при этом процессы, скрытые за привычной внешней формой инструмента.

При этом те, кто знает не спешат делиться, ведь это "общеизвестно", а те, кто не знает стесняются спросить по той же самой причине.

Но мы не будем стесняться, а подробно расскажем о том, что делает каждая опция данного инструмента, заглянув каждый раз немного глубже простого описания.

https://interface31.ru/tech_it/2021/05/testirovanie-i-ispravlenie-informacionnoy-bazy-chto-delaet-i-dlya-chego-nuzhno.html
👍153
Ой, а почему у нас так тормозит 1С?

Этим вопросом задаются многие администраторы, но не все могут найти ответ. В результате отношения между администраторами, бухгалтерами и 1Сниками часто становятся напряженными. 😡

Но не нужно конфликтовать, очень часто причины подобного поведения буквально лежат на поверхности. 👉

Прежде всего, особенно если у вас файловая база, добавьте ее и все процессы 1С в исключения Microsoft Defender.

🔹 Почему тормозит 1С. Файловый режим и Microsoft Defender

Во-вторых, разберитесь с регламентными заданиями, отключите ненужные и настройте адекватное расписание для нужных, подробнее здесь:

🔹 Почему тормозит 1С. Регламентные задания

Для файловых баз не забывайте эпизодически выполнять Тестирование и исправление, вопреки неудачному наименованию, это не только инструмент ремонта, но и обслуживания.

🔹 Тестирование и исправление информационной базы - что делает и для чего нужно

А для сравнительной оценки оборудования и его настроек в мире 1С принято использовать тест Гилева, это своего рода отраслевой стандарт с которым трудно поспорить.

🔹 Как установить и использовать тест Гилева для 1С:Предприятие
👍274👏2🤮2👎1
Ой, а что это случилось? Куда делась лицензия? Программные лицензии 1С - полное дно!!!

На самом деле процессор на данном хосте заменили еще в конце июля, а выстрелило в середине сентября.

Хотя все причастные со стороны заказчика знали, что замена процессора требует переактивации лицензии.

Но не слетело же сразу? Поэтому благополучно забили. А когда работа стала колом посреди рабочего дня - сказали, что это же 1С...

В общем, не надо так делать. Заменили железки - выполнили повторную активацию. А новый пин-код всегда пришлет поддержка. Нет смысла цепляться за них и жалеть.
👍34💯10😁3👎21
Установка и настройка pgAdmin 4 в режиме сервера

pgAdmin -- это приложение с открытым исходным кодом для администрирования и разработки баз данных PostgreSQL которое позволяет выполнять множество задач, начиная от мониторинга и обслуживания и заканчивая выполнением SQL-запросов.

pgAdmin 4 можно установить на локальный компьютер, но в наше время, когда доступ может потребоваться в любое время и из любого места, это не очень удобно.

Гораздо удобнее установить pgAdmin 4 в режиме сервера и иметь доступ к нему через браузер из любой точки мира. О том как это сделать мы расскажем в данной статье.

https://interface31.ru/tech_it/2021/01/ustanovka-i-nastroyka-pgadmin-4-v-rezhime-servera.html
👍15🤝3
🤯 Версии конфигурации виртуальных машин Hyper-V

Далеко не все знают, что у виртуальных машин Hyper-V есть версии, которые различаются поддерживаемыми возможностями и лимитами. Из поддерживаемых сейчас систем минимальная версия 5.0 для Server 2012 R2 и Windows 8.1, максимальная 12.0 для Server 2025 и Windows 11 24H2.

А всего версий конфигурации целых 15 штук, они увеличивались каждый раз при обновлении Hyper-V, а обновлялся он с каждым новым выпуском Windows, в т.ч. клиентском.

Долгое время конфигурации были совместимы сверху вниз, т.е. на новой версии гипервизора вы могли запустить старую конфигурацию. Но начиная с выпуска 2004, LTSC 2021 и Server 2022 отключили поддержку версии ниже 8,0.

При этом сама тема конфигураций сделана в лучших традициях Microsoft, т.е максимально скрыто от пользователя. Многие могли годами работать и не сталкиваться с этой темой.

Итак, какие могут быть проблемы?

🔹 Вам нужно переместить ВМ со старого гипервизора на новый. Скажем с 2016 на 2022. А у вас там по наследству крутится 5.0. Ответ вроде бы прост, сделать апгрейд конфигурации. Для этого есть командлет Update-VMVersion.

Но есть одна проблема. Он апгрейдит до текущей версии хоста. И если вы запустите его на новом сервере по получите машину версии 10.0, которую уже не сможете вернуть назад. Если это критично, то апгрейд нужно запускать на 2016, тогда получим версию 8.0, которая поддерживается обоими гипервизорами.

🔹 Обратный вариант - переместить машину на более старый гипервизор. Здесь поможет только создание новой машины поддерживаемой версии и подключение к ней виртуальных дисков от текущей машины.

🔹 И последний вариант, если вы создаете и отлаживаете машины под клиентской ОС, а только потом перемещаете в продакшен, здесь вы можете получить и вовсе экзотическую версию, какую-нибудь 9.1, которая потом не заведется на том же 2019. Здесь лучше создавать ВМ из консоли, сразу указывая нужную версию:

New-VM -Name "VM_name" -Version 8.0


Более подробно почитать про все это (на английском) и посмотреть таблички совместимости можно здесь:

Upgrade virtual machine version in Hyper-V on Windows or Windows Server
👍20👀51
Специально собрал целую стопку дисков. Завтра сниму данные, кто сколько записал, какой износ и какой WA. Характер нагрузки офисный, но тоже разный. Возможно найдём интересные сопоставления.
👍58🔥11🤝4