Как устроен полевой транзистор с плавающим затвором или почему деградирует флеш-память
Комментарии показали, что не все пользователи ясно представляют себе физические процессы, проистекающие в ячейках памяти и поэтому делают неверные выводы, данная заметка призвана устранить этот пробел.
Мы намеренно упростим модель работы, чтобы обеспечить ее понимание широкому кругу читателей что-то помнящих со школьного курса физики.
Начнем с того, что такое электрический ток – это перемещение заряженных частиц. Такие частицы могут быть отрицательно заряженные – электроны и положительно заряженные – дырки (это официальный термин, на самом деле дыркой является положительно заряженный ион).
Чтобы носители заряда начали двигаться нам необходимо дать им стимул, т.е. обеспечить разность потенциалов (подать напряжение). В этом случае свободные электроны начнут двигаться в сторону плюса, дырки в сторону минуса.
Чем выше разность потенциалов, тем быстрее будут двигаться заряженные частицы и выше будет их энергия движения, переданная им электромагнитным полем
Важным условием для протекания тока является наличие в материале свободных заряженных частиц (электронов и дырок). В металлах электроны слабо связаны с ядрами атома и могут свободно двигаться по материалу. Такие материалы называются проводниками.
В диэлектриках, наоборот, свободных носителей заряда нет и атомы крепко удерживают свои электроны, поэтому они не проводят электрический ток.
Основа ячейки памяти – полевой транзистор с плавающим затвором, его схема показана на рисунке. Но пока представим, что плавающего затвора у нас нет и мы получим просто транзистор с изолированным затвором.
Если потенциал затвора относительно истока является нулевым (нет напряжения), то электроны свободно перемещаются от истока к стоку, транзистор открыт, по нему течет ток.
Но стоит нам подать на затвор напряжение, как заряженные частицы изменят направление движения и путь от истока к стоку будет невозможен. Транзистор закрыт. Регулируя напряжение на затворе, мы можем управлять тем количеством электронов, которые могут течь от истока к стоку и тем самым регулировать ток через транзистор.
Теперь о плавающем затворе. В транзисторе с плавающим затвором при подаче напряжения на управляющий затвор электроны начинают течь в его сторону и преодолевая диэлектрик попадают на плавающий затвор.
После того, как мы снимем напряжение с управляющего затвора заряд на плавающем затворе, останется, так как электроны не могут отправиться обратно – им мешает диэлектрик.
Но как они смогли попасть на плавающий затвор? При появлении напряжения на управляющем затворе электромагнитное поле придает электронам энергию и разгоняет их, они на скорости бомбардируют атомы диэлектрика и выбивают из них электроны, которые в свою очередь выбивают электроны из соседних атомов.
Это явление называется лавинным пробоем, на короткое время в диэлектрике появляются свободные носители заряда и по нему течет ток. Как только мы снимаем напряжение с управляющего затвора – диэлектрик приходит в норму и перестает пропускать заряженные частицы.
Теперь плавающий затвор содержит некоторый заряд и управляет током через транзистор даже при отсутствии управляющего напряжения. По сути, перед нами простейшая ячейка энергонезависимой памяти.
Чтобы стереть ячейку нам надо разрядить плавающий затвор, для этого мы подаем на управляющий затвор потенциал обратной полярности, которой разгоняет электроны в затворе, и они снова при помощи лавинного пробоя преодолевают диэлектрик в обратном направлении.
Понятно, что подобное воздействие не улучшает свойства материала диэлектрика и он со временем начинает деградировать. Атомы начинают хуже удерживать электроны, и они начинают освобождаться при меньших энергиях.
А это значит, что кто-то из электронов, которые спокойно не сидят, через него проскочит. И чем хуже свойства диэлектрика – тем чаще это будет случаться. Ячейка перестанет держать заряд и станет непригодна как элемент памяти.
Комментарии показали, что не все пользователи ясно представляют себе физические процессы, проистекающие в ячейках памяти и поэтому делают неверные выводы, данная заметка призвана устранить этот пробел.
Мы намеренно упростим модель работы, чтобы обеспечить ее понимание широкому кругу читателей что-то помнящих со школьного курса физики.
Начнем с того, что такое электрический ток – это перемещение заряженных частиц. Такие частицы могут быть отрицательно заряженные – электроны и положительно заряженные – дырки (это официальный термин, на самом деле дыркой является положительно заряженный ион).
Чтобы носители заряда начали двигаться нам необходимо дать им стимул, т.е. обеспечить разность потенциалов (подать напряжение). В этом случае свободные электроны начнут двигаться в сторону плюса, дырки в сторону минуса.
Чем выше разность потенциалов, тем быстрее будут двигаться заряженные частицы и выше будет их энергия движения, переданная им электромагнитным полем
Важным условием для протекания тока является наличие в материале свободных заряженных частиц (электронов и дырок). В металлах электроны слабо связаны с ядрами атома и могут свободно двигаться по материалу. Такие материалы называются проводниками.
В диэлектриках, наоборот, свободных носителей заряда нет и атомы крепко удерживают свои электроны, поэтому они не проводят электрический ток.
Основа ячейки памяти – полевой транзистор с плавающим затвором, его схема показана на рисунке. Но пока представим, что плавающего затвора у нас нет и мы получим просто транзистор с изолированным затвором.
Если потенциал затвора относительно истока является нулевым (нет напряжения), то электроны свободно перемещаются от истока к стоку, транзистор открыт, по нему течет ток.
Но стоит нам подать на затвор напряжение, как заряженные частицы изменят направление движения и путь от истока к стоку будет невозможен. Транзистор закрыт. Регулируя напряжение на затворе, мы можем управлять тем количеством электронов, которые могут течь от истока к стоку и тем самым регулировать ток через транзистор.
Теперь о плавающем затворе. В транзисторе с плавающим затвором при подаче напряжения на управляющий затвор электроны начинают течь в его сторону и преодолевая диэлектрик попадают на плавающий затвор.
После того, как мы снимем напряжение с управляющего затвора заряд на плавающем затворе, останется, так как электроны не могут отправиться обратно – им мешает диэлектрик.
Но как они смогли попасть на плавающий затвор? При появлении напряжения на управляющем затворе электромагнитное поле придает электронам энергию и разгоняет их, они на скорости бомбардируют атомы диэлектрика и выбивают из них электроны, которые в свою очередь выбивают электроны из соседних атомов.
Это явление называется лавинным пробоем, на короткое время в диэлектрике появляются свободные носители заряда и по нему течет ток. Как только мы снимаем напряжение с управляющего затвора – диэлектрик приходит в норму и перестает пропускать заряженные частицы.
Теперь плавающий затвор содержит некоторый заряд и управляет током через транзистор даже при отсутствии управляющего напряжения. По сути, перед нами простейшая ячейка энергонезависимой памяти.
Чтобы стереть ячейку нам надо разрядить плавающий затвор, для этого мы подаем на управляющий затвор потенциал обратной полярности, которой разгоняет электроны в затворе, и они снова при помощи лавинного пробоя преодолевают диэлектрик в обратном направлении.
Понятно, что подобное воздействие не улучшает свойства материала диэлектрика и он со временем начинает деградировать. Атомы начинают хуже удерживать электроны, и они начинают освобождаться при меньших энергиях.
А это значит, что кто-то из электронов, которые спокойно не сидят, через него проскочит. И чем хуже свойства диэлектрика – тем чаще это будет случаться. Ячейка перестанет держать заряд и станет непригодна как элемент памяти.
👍26❤5
Нейросети и журналистика
Сегодня хотим поделиться еще одним собственным опытом работы с нейросетями, на этот раз мы испытали их в роли репортеров или журналистов.
Задача – довольно простая и мне кажется, что многие коллеги с ней сталкиваются, особенно те, которые « в нагрузку» поддерживают также сайт организации.
В общем и целом, нам нужно разместить на сайте короткий материал о некотором проведенном мероприятии. Казалось бы, ну что тут сложного?
Но не тут-то было. Обычно «ответственные сотрудники» не утруждают себя и просто присылают канцелярский отчет. Что-то в плане: Иванов, Петров и Сидоров посетили симпозиум по проблемам бессонницы в период зимней спячки медведей… На абзац – два, не больше.
Вот теперь сиди и думай, как на эту канцелярщину нарастить немного «мяса», придумать заголовок и т.д. и т.п. Такая задача отнимает достаточно много времени и сил, приходится хоть немного вникать в контекст, находить подходящие формулировки, менять стиль текста.
А если попросить об этом нейросеть? Почему бы и нет. Мы не стали писать какие-то сложные промпты, хотя с ними результат может быть и получше, а просто дали простую вводную:
После чего скормили текст, практически полностью состоящий из канцеляризмов и перечислений.
Теперь результаты:
🔹 Yandex GPT (Алиса) – разочарование года. Алиса очень щепетильна к темам и стоит ей обнаружить какой-то чувствительный для нее контент (а туда она относит практически все, что отличается от благостно-травоядного) как она откажется с вами общаться:
Причем такой щепетильности у нее ранее не наблюдалось, и она могла свободно общаться на самые разные темы. Теперь все чаще так.
Хотя если попросить ее просто рассказать, как написать такую статью она дает вполне годные рекомендации. В общем – попробуйте, может ваша тематика прокатит.
🔹 GigaChat – подходит к делу с размахом и из пары абзацев сухого текста он делает развернутую статью с подзаголовками, для этого он активно использует поиск в интернет по вашей вводной и вполне может набрать недостающей фактуры по другим источникам.
По сути, это работа хорошего журналиста, которому дали тему и потребовали объем. Также сеть умеет придумывать броские, привлекательные заголовки.
Однако для нашей задачи это был перебор, нам все-таки требовался более строгий стиль репортажа, но если вам нужно «сварить кашу из топора» - то присмотритесь.
🔹 СhatGPT – справился с задачей на отлично, ровно настолько, насколько требуется. Сохранив общий стиль текста и формат репортажа умело убрал канцеляризмы, расставил акценты, сделал вводную часть и завершение. Разбавил текст там, где нужно, но без фанатизма – одно два емких предложения.
При этом часто чат предлагал нам два варианта и спрашивал какой нам больше нравится, после чего продолжал в выбранном стиле.
С его помощью мы не только быстро выполнили поставленную задачу, но и причесали некоторые старые материалы, которые оставляли желать лучшего.
🔹 DeepSeek – также достаточно неплох, может предложить несколько вариантов на выбор – от более формального, к более живому и вполне может использоваться если СhatGPT вам недоступен или вы исчерпали лимиты.
Но, возможно по причине китайского происхождения, не всегда верно строит предложения. Они правильные с орфографической точки зрения, но тяжелы в восприятии и вообще так у нас не пишут и не говорят.
Избавится от этого можно, скормив готовый текст другой сети и попросить его улучшить (тот же GigaChat отлично с этим справится).
🔹 Grok и Gemini – не сказать что плохо, но гораздо слабее СhatGPT или DeepSeek. По сути, вы вместо репортажа получите причесанный исходный текст, из которого уберут излишние канцеляризмы, структурируют, поправят стиль изложения, но не более.
Все равно остается ощущение что вы читаете отчет, а не репортаж. С другой стороны, это может пригодиться, если вам действительно надо подготовить отчет, скажем о проделанной работе.
Сегодня хотим поделиться еще одним собственным опытом работы с нейросетями, на этот раз мы испытали их в роли репортеров или журналистов.
Задача – довольно простая и мне кажется, что многие коллеги с ней сталкиваются, особенно те, которые « в нагрузку» поддерживают также сайт организации.
В общем и целом, нам нужно разместить на сайте короткий материал о некотором проведенном мероприятии. Казалось бы, ну что тут сложного?
Но не тут-то было. Обычно «ответственные сотрудники» не утруждают себя и просто присылают канцелярский отчет. Что-то в плане: Иванов, Петров и Сидоров посетили симпозиум по проблемам бессонницы в период зимней спячки медведей… На абзац – два, не больше.
Вот теперь сиди и думай, как на эту канцелярщину нарастить немного «мяса», придумать заголовок и т.д. и т.п. Такая задача отнимает достаточно много времени и сил, приходится хоть немного вникать в контекст, находить подходящие формулировки, менять стиль текста.
А если попросить об этом нейросеть? Почему бы и нет. Мы не стали писать какие-то сложные промпты, хотя с ними результат может быть и получше, а просто дали простую вводную:
Помоги обработать текст для статьи на сайте общественной организации о проведенном мероприятии и придумай заголовок:
После чего скормили текст, практически полностью состоящий из канцеляризмов и перечислений.
Теперь результаты:
🔹 Yandex GPT (Алиса) – разочарование года. Алиса очень щепетильна к темам и стоит ей обнаружить какой-то чувствительный для нее контент (а туда она относит практически все, что отличается от благостно-травоядного) как она откажется с вами общаться:
Есть темы, в которых я могу ошибиться. Лучше промолчу.
Причем такой щепетильности у нее ранее не наблюдалось, и она могла свободно общаться на самые разные темы. Теперь все чаще так.
Хотя если попросить ее просто рассказать, как написать такую статью она дает вполне годные рекомендации. В общем – попробуйте, может ваша тематика прокатит.
🔹 GigaChat – подходит к делу с размахом и из пары абзацев сухого текста он делает развернутую статью с подзаголовками, для этого он активно использует поиск в интернет по вашей вводной и вполне может набрать недостающей фактуры по другим источникам.
По сути, это работа хорошего журналиста, которому дали тему и потребовали объем. Также сеть умеет придумывать броские, привлекательные заголовки.
Однако для нашей задачи это был перебор, нам все-таки требовался более строгий стиль репортажа, но если вам нужно «сварить кашу из топора» - то присмотритесь.
🔹 СhatGPT – справился с задачей на отлично, ровно настолько, насколько требуется. Сохранив общий стиль текста и формат репортажа умело убрал канцеляризмы, расставил акценты, сделал вводную часть и завершение. Разбавил текст там, где нужно, но без фанатизма – одно два емких предложения.
При этом часто чат предлагал нам два варианта и спрашивал какой нам больше нравится, после чего продолжал в выбранном стиле.
С его помощью мы не только быстро выполнили поставленную задачу, но и причесали некоторые старые материалы, которые оставляли желать лучшего.
🔹 DeepSeek – также достаточно неплох, может предложить несколько вариантов на выбор – от более формального, к более живому и вполне может использоваться если СhatGPT вам недоступен или вы исчерпали лимиты.
Но, возможно по причине китайского происхождения, не всегда верно строит предложения. Они правильные с орфографической точки зрения, но тяжелы в восприятии и вообще так у нас не пишут и не говорят.
Избавится от этого можно, скормив готовый текст другой сети и попросить его улучшить (тот же GigaChat отлично с этим справится).
🔹 Grok и Gemini – не сказать что плохо, но гораздо слабее СhatGPT или DeepSeek. По сути, вы вместо репортажа получите причесанный исходный текст, из которого уберут излишние канцеляризмы, структурируют, поправят стиль изложения, но не более.
Все равно остается ощущение что вы читаете отчет, а не репортаж. С другой стороны, это может пригодиться, если вам действительно надо подготовить отчет, скажем о проделанной работе.
1👌13👍5❤4🥱4
TDP – заблуждения и реальность
TDP (Thermal Design Power) активно используется при обсуждении потребления процессоров и другой электроники. При этом данный показатель часто путают с максимальной рассеиваемой мощностью или потребляемой электрической мощностью.
Однако это не так, TDP является требованием по выбору системы охлаждения и отражает некую среднюю рассеиваемую мощность на усмотрение производителя.
Так Intel определяет его как:
▫️ Расчетная тепловая мощность (TDP) представляет собой среднюю мощность в ваттах, которую процессор рассеивает при работе на базовой частоте со всеми активными ядрами в условиях определенной Intel сложной рабочей нагрузки.
В AMD несколько иной, но тоже очень схожий подход:
▫️ TDP — это максимальная устойчивая мощность, которую процессор может потреблять с помощью «реального» программного обеспечения при работе в определенных пределах температуры и напряжения.
При этом и те и другие говорят о некой «реальной» нагрузке ими самими и определенной. Также следует отметить, что TDP рассчитывается для базовой частоты процессора, просто Intel говорит об этом прямо, а AMD несколько завуалировано.
Таким образом TDP не показывает ни реальной потребляемой мощности, ни реальной рассеиваемой тепловой. Это некий средний показатель, который призван помочь вам выбрать кулер.
Т.е. если вы на процессор с TDP 100 Вт поставите кулер способный рассеивать такую мощность, то ваш процессор при среднестатистической нагрузке перегреваться не должен.
Ключевое слово здесь – не должен. На самом деле вся система работает немного не так. То, что публикуется как TDP есть ни что иное как определенный лимит мощности для устойчивой долгосрочной работы.
Но есть еще один, второй лимит мощности, который указывает какую мощность допустимо потреблять процессору в турбо-режиме и как долго он может это делать.
У Intel эти параметры так и называются PL - Power Limit, PL1 и PL2. Их оба можно найти в документации, первый равен указанному на коробке TDP процессора, а второй указывает максимально потребляемую в турбо-режиме мощность.
Например, у Core i7-14700K это 125 Вт и 273 Вт. Разница, согласитесь, впечатляющая.
AMD публикует только PL1, он же TDP, максимальную мощность можно узнать только из неофициальных источников. Так для того же R9 5900X цифры составляют 105 Вт официальной рассеиваемой мощности и около 145 Вт максимальной.
Схема работы при этом примерно такая, при увеличении нагрузки процессор разгоняется таким образом, чтобы потребляемая им мощность не превысила значение второго лимита мощности.
Пока это значение не достигнуто процессор может продолжать работать на более высоких частотах, по достижению второго лимита мощности процессор должен через некоторое, достаточно небольшое время, вернуться к первому лимиту и работать в нем, пока не будет снята нагрузка.
Штатная цифра для процессоров Intel – 8 секунд. Рассчитана она исходя, опять-таки, из некоторых средних представлений Intel и подразумевает использование стокового охлаждения.
В целом посыл ясен – кратковременно процессор может достигать максимальной потребляемой мощности, но нахождение его в этом состоянии лимитировано. Это обусловлено тем, что ни штатная система охлаждения, ни штатная система питания могут быть не рассчитаны на долговременную высокую нагрузку.
Но данные параметры не являются догмой и, тем более, нигде жестко не прошиты. Они доступны для регулирования в BIOS и производители материнских плат и готовых компьютеров могут настраивать эти параметры согласно собственным представлениям.
Чаще всего такие настройки существенно увеличивают возможность процессоров работать по достижении второго лимита мощности, не возвращаясь к первому, т.е. практически все время находиться в турбо-режиме. Ну а почему бы и нет, если производитель знает, что система питания платы это позволяет.
Производители мобильных устройств могут, наоборот, прикрутить как лимиты, так и время нахождения в турбо-режиме ради снижения тепловыделения и экономного расхода заряда аккумулятора.
TDP (Thermal Design Power) активно используется при обсуждении потребления процессоров и другой электроники. При этом данный показатель часто путают с максимальной рассеиваемой мощностью или потребляемой электрической мощностью.
Однако это не так, TDP является требованием по выбору системы охлаждения и отражает некую среднюю рассеиваемую мощность на усмотрение производителя.
Так Intel определяет его как:
▫️ Расчетная тепловая мощность (TDP) представляет собой среднюю мощность в ваттах, которую процессор рассеивает при работе на базовой частоте со всеми активными ядрами в условиях определенной Intel сложной рабочей нагрузки.
В AMD несколько иной, но тоже очень схожий подход:
▫️ TDP — это максимальная устойчивая мощность, которую процессор может потреблять с помощью «реального» программного обеспечения при работе в определенных пределах температуры и напряжения.
При этом и те и другие говорят о некой «реальной» нагрузке ими самими и определенной. Также следует отметить, что TDP рассчитывается для базовой частоты процессора, просто Intel говорит об этом прямо, а AMD несколько завуалировано.
Таким образом TDP не показывает ни реальной потребляемой мощности, ни реальной рассеиваемой тепловой. Это некий средний показатель, который призван помочь вам выбрать кулер.
Т.е. если вы на процессор с TDP 100 Вт поставите кулер способный рассеивать такую мощность, то ваш процессор при среднестатистической нагрузке перегреваться не должен.
Ключевое слово здесь – не должен. На самом деле вся система работает немного не так. То, что публикуется как TDP есть ни что иное как определенный лимит мощности для устойчивой долгосрочной работы.
Но есть еще один, второй лимит мощности, который указывает какую мощность допустимо потреблять процессору в турбо-режиме и как долго он может это делать.
У Intel эти параметры так и называются PL - Power Limit, PL1 и PL2. Их оба можно найти в документации, первый равен указанному на коробке TDP процессора, а второй указывает максимально потребляемую в турбо-режиме мощность.
Например, у Core i7-14700K это 125 Вт и 273 Вт. Разница, согласитесь, впечатляющая.
AMD публикует только PL1, он же TDP, максимальную мощность можно узнать только из неофициальных источников. Так для того же R9 5900X цифры составляют 105 Вт официальной рассеиваемой мощности и около 145 Вт максимальной.
Схема работы при этом примерно такая, при увеличении нагрузки процессор разгоняется таким образом, чтобы потребляемая им мощность не превысила значение второго лимита мощности.
Пока это значение не достигнуто процессор может продолжать работать на более высоких частотах, по достижению второго лимита мощности процессор должен через некоторое, достаточно небольшое время, вернуться к первому лимиту и работать в нем, пока не будет снята нагрузка.
Штатная цифра для процессоров Intel – 8 секунд. Рассчитана она исходя, опять-таки, из некоторых средних представлений Intel и подразумевает использование стокового охлаждения.
В целом посыл ясен – кратковременно процессор может достигать максимальной потребляемой мощности, но нахождение его в этом состоянии лимитировано. Это обусловлено тем, что ни штатная система охлаждения, ни штатная система питания могут быть не рассчитаны на долговременную высокую нагрузку.
Но данные параметры не являются догмой и, тем более, нигде жестко не прошиты. Они доступны для регулирования в BIOS и производители материнских плат и готовых компьютеров могут настраивать эти параметры согласно собственным представлениям.
Чаще всего такие настройки существенно увеличивают возможность процессоров работать по достижении второго лимита мощности, не возвращаясь к первому, т.е. практически все время находиться в турбо-режиме. Ну а почему бы и нет, если производитель знает, что система питания платы это позволяет.
Производители мобильных устройств могут, наоборот, прикрутить как лимиты, так и время нахождения в турбо-режиме ради снижения тепловыделения и экономного расхода заряда аккумулятора.
👍21❤3
TDP – заблуждения и реальность. Продолжение
В прошлой заметке мы разобрали общие вопросы касающиеся TDP и регулировки производительности процессора. Сейчас немного углубимся в детали.
Разбирать будем на примере Intel, так как данный производитель имеет часть документации, касающейся этого вопроса в свободном доступе, AMD разглашает меньше подробностей, но в целом принцип и там и там одинаков, отличаются лишь детали реализации.
Еще раз напомним, что TDP – это всего лишь рекомендация по выбору системы охлаждения и данный параметр не отражает реального потребления процессора.
Реально же используются значения PL1 и PL2. PL1 – пороговое значение средней долговременной мощности. Его не рекомендуется устанавливать выше TDP и обычно эти значения равны.
PL2 – пиковое значение мощности которое может быть кратковременно достигнуто. При превышении этого значения вступаю в дело алгоритмы ограничения мощности и путем регулировки частоты и напряжения удерживают мощность в рамках этого значения.
Но есть один тонкий момент. Нижний предел охлаждения у нас находится на уровне PL1 (который не должен превышать TDP) и, следовательно, процессор должен уметь длительно работать с радиатором, рассеивающим указанную мощность.
Проще говоря, для условного процессора с 95 Вт TDP пользователь может купить кулер, на коробке которого указаны те же 95 Вт и не испытывать проблем.
А дальше представляем себе бассейн и две трубы, по одной в него приходит вода, по другой уходит. Радиатор всегда рассеивает свой TDP, т.е. у нас в единицу времени уходит мощность PL1.
Но тут мы открутили вентиль и начали наливать в бассейн воду в объеме PL2 за ту же единицу времени. Как долго мы можем работать в таком режиме? Очевидно, что пока не переполнится бассейн, а это зависит от его объема и его свободной части.
У радиатора это зависит от теплоемкости. Но как правильно определить доступный объем?
Для этих целей Intel использует специальный параметр Turbo Time (Tau), который рассчитывается по экспоненциально взвешенному скользящему среднему (EWMA) и определяет время, которое процессор может находиться в режиме от PL1 до PL2.
Если мы сразу выходим на мощность PL2, то это время будет равно 8 секундам, при меньших показателях мощности оно будет иным, меняющимся не линейно, а по экспоненте.
После чего процессор возвращается на уровень PL1 и не превышает его до тех пор, пока нагрузка не опустится ниже определенного значения за определенное время.
Если вернуться к аналогии, то рассчитав примерное время наполнения бассейна система ждет пока он гарантированно сольется.
Это позволяет избежать перегрева не только процессора, но и элементов питания материнской платы, которые также ориентируются на значения TDP.
У AMD примерно все тоже самое, только существует еще один ограничивающий фактор в виде температуры ядра, который также начинает ограничивать производительность даже до достижения PL2. А в особо запущенных случаях процессор даже не будет пытаться разгоняться.
Понятно, что все эти показатели высчитаны из расчета, что будет применяться самый слабый радиатор и подсистема питания также будет впритык. Но как быть обладателям дорогих материнских плат с мощным питанием и суперкулеров?
Для них производители предусматривают в BIOS специальные режимы, например, у Gigabyte он называется, как:
🔸 *Enhanced Multi-Core Performance*
Allows you to determine whether to apply the highest Turbo ratio to all CPU cores
Которое фактически изменяет лимиты PL1, PL2 и Tau с общим расчетом на то, чтобы процессор мог большее время находится в разгоне. На дорогих платах таких настроек может быть несколько, точнее несколько градаций настроек, скажем, как «умеренно, максимально, ультра».
Китайцы и вовсе пошли впереди планеты всей, на некоторых платах может быть вовсе снят лимит с PL2, а то и с PL1, точнее установлен в значение 4096W, чтобы корректно работал расчет Tau.
К чему это может привести догадаться несложно. Если вы не обеспечили эффективного охлаждения и дали предельную нагрузку, то от платы может пойти волшебный дым.
В прошлой заметке мы разобрали общие вопросы касающиеся TDP и регулировки производительности процессора. Сейчас немного углубимся в детали.
Разбирать будем на примере Intel, так как данный производитель имеет часть документации, касающейся этого вопроса в свободном доступе, AMD разглашает меньше подробностей, но в целом принцип и там и там одинаков, отличаются лишь детали реализации.
Еще раз напомним, что TDP – это всего лишь рекомендация по выбору системы охлаждения и данный параметр не отражает реального потребления процессора.
Реально же используются значения PL1 и PL2. PL1 – пороговое значение средней долговременной мощности. Его не рекомендуется устанавливать выше TDP и обычно эти значения равны.
PL2 – пиковое значение мощности которое может быть кратковременно достигнуто. При превышении этого значения вступаю в дело алгоритмы ограничения мощности и путем регулировки частоты и напряжения удерживают мощность в рамках этого значения.
Но есть один тонкий момент. Нижний предел охлаждения у нас находится на уровне PL1 (который не должен превышать TDP) и, следовательно, процессор должен уметь длительно работать с радиатором, рассеивающим указанную мощность.
Проще говоря, для условного процессора с 95 Вт TDP пользователь может купить кулер, на коробке которого указаны те же 95 Вт и не испытывать проблем.
А дальше представляем себе бассейн и две трубы, по одной в него приходит вода, по другой уходит. Радиатор всегда рассеивает свой TDP, т.е. у нас в единицу времени уходит мощность PL1.
Но тут мы открутили вентиль и начали наливать в бассейн воду в объеме PL2 за ту же единицу времени. Как долго мы можем работать в таком режиме? Очевидно, что пока не переполнится бассейн, а это зависит от его объема и его свободной части.
У радиатора это зависит от теплоемкости. Но как правильно определить доступный объем?
Для этих целей Intel использует специальный параметр Turbo Time (Tau), который рассчитывается по экспоненциально взвешенному скользящему среднему (EWMA) и определяет время, которое процессор может находиться в режиме от PL1 до PL2.
Если мы сразу выходим на мощность PL2, то это время будет равно 8 секундам, при меньших показателях мощности оно будет иным, меняющимся не линейно, а по экспоненте.
После чего процессор возвращается на уровень PL1 и не превышает его до тех пор, пока нагрузка не опустится ниже определенного значения за определенное время.
Если вернуться к аналогии, то рассчитав примерное время наполнения бассейна система ждет пока он гарантированно сольется.
Это позволяет избежать перегрева не только процессора, но и элементов питания материнской платы, которые также ориентируются на значения TDP.
У AMD примерно все тоже самое, только существует еще один ограничивающий фактор в виде температуры ядра, который также начинает ограничивать производительность даже до достижения PL2. А в особо запущенных случаях процессор даже не будет пытаться разгоняться.
Понятно, что все эти показатели высчитаны из расчета, что будет применяться самый слабый радиатор и подсистема питания также будет впритык. Но как быть обладателям дорогих материнских плат с мощным питанием и суперкулеров?
Для них производители предусматривают в BIOS специальные режимы, например, у Gigabyte он называется, как:
🔸 *Enhanced Multi-Core Performance*
Allows you to determine whether to apply the highest Turbo ratio to all CPU cores
Которое фактически изменяет лимиты PL1, PL2 и Tau с общим расчетом на то, чтобы процессор мог большее время находится в разгоне. На дорогих платах таких настроек может быть несколько, точнее несколько градаций настроек, скажем, как «умеренно, максимально, ультра».
Китайцы и вовсе пошли впереди планеты всей, на некоторых платах может быть вовсе снят лимит с PL2, а то и с PL1, точнее установлен в значение 4096W, чтобы корректно работал расчет Tau.
К чему это может привести догадаться несложно. Если вы не обеспечили эффективного охлаждения и дали предельную нагрузку, то от платы может пойти волшебный дым.
👍18❤2🌭1
Диагностика SSD
В комментариях к вечерней заметке подняли тему диагностики SSD, что достаточно актуально при покупке б/у техники.
Одной из популярных программ для диагностики дисков является Victoria HDD/SSD, но в случае с твердотельными накопителями она не сильно поможет.
С ее помощью можно выявить явный брак памяти либо ее сильный износ, но только на участках, занятых данными. Для пустых участков контроллер с большой долей вероятности отдаст вам ноль, не читая память.
И в этом главное отличие твердотельника от жесткого диска. Диск не знает, что находится в секторе и поэтому будет физически читать его, даже если там ноль. SSD – знает и если ячейка пустая, то зачем ее читать?
Таким образом Victoria покажет вам только то, что диск пора выкидывать, объективного состояния диска вы не получите.
Единственный вариант получить достаточно объективную информацию о диске – это S.M.A.R.T и хорошо если диск выдает в нем процент износа (или оставшийся процент ресурса). Это основной показатель, на который следует ориентироваться, так как рассчитывается он по реальному количеству перезаписей ячеек.
При его отсутствии обращаем внимание на параметры логической записи и сравниваем ее с заявленным ресурсом, но помним, что этот показатель достаточно относительный, так как реальное количество записанных на диск данных будет больше на коэффициент усиления записи – WA, который является величиной переменной и зависит от многих внешних факторов.
Если вы не хотите руками изучать S.M.A.R.T, то неплохим вариантом будет утилита от производителя, если она, конечно, показывает здоровье диска. На эти данные вполне можно опираться.
Если же их нет, то смотрите на выработанный ресурс, при его снижении более чем на 50% диск желательно поменять (так как реальный объем записанных во флеш данных с учетом WA нам неизвестен).
Что касается самых бюджетных дисков, тех же китайцев, то там и к параметрам S.M.A.R.T надо относиться с осторожностью, так как он может показывать то, что хочет его «производитель», а не то, как обстоят дела на самом деле. Наглядный пример – датчик температуры у многих дешевых дисков, который вечно показывает некоторое значение, либо никогда не превышает некий верхний порог.
Также неизвестно качество памяти в таких дисках, например, вы можете столкнуться с таким явлением, как деградация флеша, когда он перестает держать заряд.
Т.е. вы нормально записываете файл и думаете, что там все хорошо. Но через день-другой вы уже не сможете его прочитать, потому что заряд с ячейки начнет стекать. При этом внешне все выглядит благополучно и узнать о проблеме вы сможете только при чтении файла.
Хуже всего, что происходит такое в первую очередь на холодных данных и узнать о таком дефекте вы сможете далеко не сразу.
Поэтому б/у китайца лучше сразу поменять, даже, при стеснении в средствах, на второго китайца, новый хотя бы гарантированно отработает некоторое время.
А в целом вывод простой: инструментов, гарантированно позволяющих оценить состояние твердотельных накопителей нет. Мы можем ориентироваться либо на косвенные признаки, либо на данные, предоставленные нам производителем в S.M.A.R.T. Но помним, что единого стандарта на этот счет нет и каждый производитель отдает туда только то, что хочет и не факт, что делает это добросовестно.
В комментариях к вечерней заметке подняли тему диагностики SSD, что достаточно актуально при покупке б/у техники.
Одной из популярных программ для диагностики дисков является Victoria HDD/SSD, но в случае с твердотельными накопителями она не сильно поможет.
С ее помощью можно выявить явный брак памяти либо ее сильный износ, но только на участках, занятых данными. Для пустых участков контроллер с большой долей вероятности отдаст вам ноль, не читая память.
И в этом главное отличие твердотельника от жесткого диска. Диск не знает, что находится в секторе и поэтому будет физически читать его, даже если там ноль. SSD – знает и если ячейка пустая, то зачем ее читать?
Таким образом Victoria покажет вам только то, что диск пора выкидывать, объективного состояния диска вы не получите.
Единственный вариант получить достаточно объективную информацию о диске – это S.M.A.R.T и хорошо если диск выдает в нем процент износа (или оставшийся процент ресурса). Это основной показатель, на который следует ориентироваться, так как рассчитывается он по реальному количеству перезаписей ячеек.
При его отсутствии обращаем внимание на параметры логической записи и сравниваем ее с заявленным ресурсом, но помним, что этот показатель достаточно относительный, так как реальное количество записанных на диск данных будет больше на коэффициент усиления записи – WA, который является величиной переменной и зависит от многих внешних факторов.
Если вы не хотите руками изучать S.M.A.R.T, то неплохим вариантом будет утилита от производителя, если она, конечно, показывает здоровье диска. На эти данные вполне можно опираться.
Если же их нет, то смотрите на выработанный ресурс, при его снижении более чем на 50% диск желательно поменять (так как реальный объем записанных во флеш данных с учетом WA нам неизвестен).
Что касается самых бюджетных дисков, тех же китайцев, то там и к параметрам S.M.A.R.T надо относиться с осторожностью, так как он может показывать то, что хочет его «производитель», а не то, как обстоят дела на самом деле. Наглядный пример – датчик температуры у многих дешевых дисков, который вечно показывает некоторое значение, либо никогда не превышает некий верхний порог.
Также неизвестно качество памяти в таких дисках, например, вы можете столкнуться с таким явлением, как деградация флеша, когда он перестает держать заряд.
Т.е. вы нормально записываете файл и думаете, что там все хорошо. Но через день-другой вы уже не сможете его прочитать, потому что заряд с ячейки начнет стекать. При этом внешне все выглядит благополучно и узнать о проблеме вы сможете только при чтении файла.
Хуже всего, что происходит такое в первую очередь на холодных данных и узнать о таком дефекте вы сможете далеко не сразу.
Поэтому б/у китайца лучше сразу поменять, даже, при стеснении в средствах, на второго китайца, новый хотя бы гарантированно отработает некоторое время.
А в целом вывод простой: инструментов, гарантированно позволяющих оценить состояние твердотельных накопителей нет. Мы можем ориентироваться либо на косвенные признаки, либо на данные, предоставленные нам производителем в S.M.A.R.T. Но помним, что единого стандарта на этот счет нет и каждый производитель отдает туда только то, что хочет и не факт, что делает это добросовестно.
❤14👌9👍4🌭1
Настраиваем Fail2Ban для совместной работы с брандмауэром Mikrotik
Fail2Ban - давно зарекомендовавшее себя решение для Linux систем, позволяющее эффективно выявлять и блокировать вредоносную активность, такую как подбор паролей или поиск уязвимостей.
Но как быть, если защищаемые узлы находятся внутри сетевого периметра, а на внешнем контуре находится роутер Mikrotik? Ведь хотелось бы управлять блокировками на уровне всей сети, а не отдельного узла.
Нет ничего сложного, в этой статье мы расскажем как быстро и просто обеспечить совместную работу этих двух популярных продуктов.
https://interface31.ru/tech_it/2024/09/nastraivaem-fail2ban-dlya-sovmestnoy-raboty-s-brandmauerom-mikrotik.html
Fail2Ban - давно зарекомендовавшее себя решение для Linux систем, позволяющее эффективно выявлять и блокировать вредоносную активность, такую как подбор паролей или поиск уязвимостей.
Но как быть, если защищаемые узлы находятся внутри сетевого периметра, а на внешнем контуре находится роутер Mikrotik? Ведь хотелось бы управлять блокировками на уровне всей сети, а не отдельного узла.
Нет ничего сложного, в этой статье мы расскажем как быстро и просто обеспечить совместную работу этих двух популярных продуктов.
https://interface31.ru/tech_it/2024/09/nastraivaem-fail2ban-dlya-sovmestnoy-raboty-s-brandmauerom-mikrotik.html
👍24
Автоматическое шифрование BitLocker в Windows 11
Начиная с Windows 11 24H2 все предустановленные системы или чистые установки на компьютеры с TPM и SecureBoot автоматически включается шифрование BitLocker для всех локальных дисков.
Редакция ОС и тип учетной записи роли не играют, шифрование начинается сразу после завершения этапа OOBE во время установки или при первом запуске предустановленной ОС.
После чего диски оказываются зашифрованы, но не защищены. Что это значит? А это значит, что к их содержимому получит доступ любой, кто имеет физический доступ к компьютеру.
Достаточно загрузиться в любую систему с поддержкой BitLocker и он автоматически расшифрует диски при помощи TPM.
Если вы попробуете получить доступ к диску отдельно от ПК, то система попросит у вас 48-символьный пароль, которого у вас пока нет и быть не может. Чтобы получить доступ к данным достаточно вернуть диск в физическую систему.
Т.е. слить данные сняв диск у вас больше не получится. Используйте для этого среду восстановления или WinPE.
Также следует иметь ввиду, что автоматически зашифрованы будут все подключенные к компьютеру диски, кроме съемных. Поэтому перенос информации на временно подключенный к ПК локальный диск тоже может преподнести сюрпризы.
Все меняется после того, как пользователь войдет с учетной записью Microsoft или Azure Active Directory, а также Active Directory с активированной соответствующей политикой.
Диски будут сразу-же защищены, т.е. для них будет сформирован 48-символьный пароль восстановления и доступ к дискам будет доступен только после входа в систему.
Данный пароль в случае входа с облачными аккаунтами передается и хранится в облаке, а при доменной учетной записи – в Active Directory.
Теперь если вы не можете загрузить систему, либо загрузились в среду восстановления то для доступа к данным вам понадобится этот пароль.
Тоже самое будет если вы переустановили систему и отформатировали только диск C, для доступа к другим дискам потребуется знать пароль.
В целом это не страшно, ведь облачный аккаунт у вас есть, если вы смогли войти с его помощью, а значит есть и ключ. Но многие, особенно неопытные пользователи и администраторы пугаются и часто совершают фатальные для данных поступки.
Для облачной учетной записи Microsoft ключи восстановления BitLocker вы можете посмотреть на странице https://account.microsoft.com/devices/recoverykey
В каких случаях вы можете безвозвратно потерять данные? Если у вас диск был зашифрован, но не защищен и вы более не владеете исходным ПК, например, вынули диск из ноутбука и продали его.
В этом случае остается только помахать данным ручкой. Тоже самое произойдет, если вы активируете защиту дисков BitLocker вручную и нигде не сохраните пароль восстановления (в этом случае он не передается ни в какое облако).
Узнать текущий статус дисков можно командой:
В статусе вы можете увидеть FullyDecrypted – полностью расшифровано или FullyEncrypted – полностью зашифровано.
В последнем случае смотрим колонку ProtectionStatus, если там стоит Off, то защита выключена и для доступа к содержимому достаточно физического доступа к компьютеру. Если On – то включена и вам потребуется пароль восстановления.
В этом случае также будет заполнено поле KeyProtector, где будет указано RecoveryPassword.
Узнать его здесь и сейчас можно командой:
Где C: имя интересующего тома.
Ну и наконец вы можете отключить BitLocker для тома командой:
Следует ли это делать? Скорее нет, чем да, особенно если устройство переносное. Как ни крути, а шифрование серьезно повышает безопасность в случае кражи или потери девайса.
В общем, каждый решает сам. Но знать основы и особенности технологии автоматического шифрования нужно, дабы не попасть в неудобные ситуации.
Начиная с Windows 11 24H2 все предустановленные системы или чистые установки на компьютеры с TPM и SecureBoot автоматически включается шифрование BitLocker для всех локальных дисков.
Редакция ОС и тип учетной записи роли не играют, шифрование начинается сразу после завершения этапа OOBE во время установки или при первом запуске предустановленной ОС.
После чего диски оказываются зашифрованы, но не защищены. Что это значит? А это значит, что к их содержимому получит доступ любой, кто имеет физический доступ к компьютеру.
Достаточно загрузиться в любую систему с поддержкой BitLocker и он автоматически расшифрует диски при помощи TPM.
Если вы попробуете получить доступ к диску отдельно от ПК, то система попросит у вас 48-символьный пароль, которого у вас пока нет и быть не может. Чтобы получить доступ к данным достаточно вернуть диск в физическую систему.
Т.е. слить данные сняв диск у вас больше не получится. Используйте для этого среду восстановления или WinPE.
Также следует иметь ввиду, что автоматически зашифрованы будут все подключенные к компьютеру диски, кроме съемных. Поэтому перенос информации на временно подключенный к ПК локальный диск тоже может преподнести сюрпризы.
Все меняется после того, как пользователь войдет с учетной записью Microsoft или Azure Active Directory, а также Active Directory с активированной соответствующей политикой.
Диски будут сразу-же защищены, т.е. для них будет сформирован 48-символьный пароль восстановления и доступ к дискам будет доступен только после входа в систему.
Данный пароль в случае входа с облачными аккаунтами передается и хранится в облаке, а при доменной учетной записи – в Active Directory.
Теперь если вы не можете загрузить систему, либо загрузились в среду восстановления то для доступа к данным вам понадобится этот пароль.
Тоже самое будет если вы переустановили систему и отформатировали только диск C, для доступа к другим дискам потребуется знать пароль.
В целом это не страшно, ведь облачный аккаунт у вас есть, если вы смогли войти с его помощью, а значит есть и ключ. Но многие, особенно неопытные пользователи и администраторы пугаются и часто совершают фатальные для данных поступки.
Для облачной учетной записи Microsoft ключи восстановления BitLocker вы можете посмотреть на странице https://account.microsoft.com/devices/recoverykey
В каких случаях вы можете безвозвратно потерять данные? Если у вас диск был зашифрован, но не защищен и вы более не владеете исходным ПК, например, вынули диск из ноутбука и продали его.
В этом случае остается только помахать данным ручкой. Тоже самое произойдет, если вы активируете защиту дисков BitLocker вручную и нигде не сохраните пароль восстановления (в этом случае он не передается ни в какое облако).
Узнать текущий статус дисков можно командой:
Get-BitLockerVolume
В статусе вы можете увидеть FullyDecrypted – полностью расшифровано или FullyEncrypted – полностью зашифровано.
В последнем случае смотрим колонку ProtectionStatus, если там стоит Off, то защита выключена и для доступа к содержимому достаточно физического доступа к компьютеру. Если On – то включена и вам потребуется пароль восстановления.
В этом случае также будет заполнено поле KeyProtector, где будет указано RecoveryPassword.
Узнать его здесь и сейчас можно командой:
(Get-BitLockerVolume C:).KeyProtector.RecoveryPassword
Где C: имя интересующего тома.
Ну и наконец вы можете отключить BitLocker для тома командой:
Disable-BitLocker -MountPoint "C:"
Следует ли это делать? Скорее нет, чем да, особенно если устройство переносное. Как ни крути, а шифрование серьезно повышает безопасность в случае кражи или потери девайса.
В общем, каждый решает сам. Но знать основы и особенности технологии автоматического шифрования нужно, дабы не попасть в неудобные ситуации.
👍47🤔9❤4
Публикация баз данных 1С:Предприятие на веб-сервере IIS c защитой SSL и аутентификацией по паролю
При развертывании комплекса 1С:Предприятие на платформе Windows для веб-публикации информационных баз часто используют IIS (Internet Information Services).
Это вполне оправданное решение, позволяющее обойтись только штатными средствами платформы Windows без установки дополнительного софта.
В данной статье мы не только рассмотрим процесс публикации различных информационных баз на веб-сервере IIS, но и настроим их работу по защищенному протоколу HTTPS с сертификатами Let's Encrypt, а также добавим дополнительную парольную защиту.
https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-iis-c-ssl-zashhitoy-i-autentifikaciey-po-paroly.html
При развертывании комплекса 1С:Предприятие на платформе Windows для веб-публикации информационных баз часто используют IIS (Internet Information Services).
Это вполне оправданное решение, позволяющее обойтись только штатными средствами платформы Windows без установки дополнительного софта.
В данной статье мы не только рассмотрим процесс публикации различных информационных баз на веб-сервере IIS, но и настроим их работу по защищенному протоколу HTTPS с сертификатами Let's Encrypt, а также добавим дополнительную парольную защиту.
https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-iis-c-ssl-zashhitoy-i-autentifikaciey-po-paroly.html
👌12👍8
Публикация баз данных 1С:Предприятие на веб-сервере Apache в Windows c защитой SSL и аутентификацией по паролю
Для публикации информационных баз 1С:Предприятие на платформе Windows часто используют альтернативу штатному IIS - веб сервер Apache, который, несмотря на ряд ограничений, тоже неплохо подходит для небольших и средних установок.
Одним из очевидных преимуществ Apache является его кроссплатформенность, т.е. если вы умеете настраивать данный веб-сервер на одной платформе, то без особого труда сделаете это и на другой.
В данной публикации мы расскажем вам как установить и настроить Apache для публикации баз с SSL-защитой на базе сертификатов Let's Encrypt и дополнительной аутентификацией по паролю.
https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-apache-v-windows-c-zashhitoy-ssl-i-autentifikac.html
Для публикации информационных баз 1С:Предприятие на платформе Windows часто используют альтернативу штатному IIS - веб сервер Apache, который, несмотря на ряд ограничений, тоже неплохо подходит для небольших и средних установок.
Одним из очевидных преимуществ Apache является его кроссплатформенность, т.е. если вы умеете настраивать данный веб-сервер на одной платформе, то без особого труда сделаете это и на другой.
В данной публикации мы расскажем вам как установить и настроить Apache для публикации баз с SSL-защитой на базе сертификатов Let's Encrypt и дополнительной аутентификацией по паролю.
https://interface31.ru/tech_it/2023/05/publikaciya-baz-dannyh-1spredpriyatie-na-veb-servere-apache-v-windows-c-zashhitoy-ssl-i-autentifikac.html
👍24
Для публикации баз 1С:Предприятие я использую (можно выбрать несколько ответов):
Anonymous Poll
34%
IIS
27%
Apache (Windows)
27%
Apache (Linux)
33%
Я просто посмотреть ответы
❤1
Тестирование и исправление информационной базы - что делает и для чего нужно
Существуют вещи настолько привычные, что кажется все про них знают, но это весьма обманчивое впечатление.
Да, о них почти все знают, почти все используют, но мало кто представляет происходящие при этом процессы, скрытые за привычной внешней формой инструмента.
При этом те, кто знает не спешат делиться, ведь это "общеизвестно", а те, кто не знает стесняются спросить по той же самой причине.
Но мы не будем стесняться, а подробно расскажем о том, что делает каждая опция данного инструмента, заглянув каждый раз немного глубже простого описания.
https://interface31.ru/tech_it/2021/05/testirovanie-i-ispravlenie-informacionnoy-bazy-chto-delaet-i-dlya-chego-nuzhno.html
Существуют вещи настолько привычные, что кажется все про них знают, но это весьма обманчивое впечатление.
Да, о них почти все знают, почти все используют, но мало кто представляет происходящие при этом процессы, скрытые за привычной внешней формой инструмента.
При этом те, кто знает не спешат делиться, ведь это "общеизвестно", а те, кто не знает стесняются спросить по той же самой причине.
Но мы не будем стесняться, а подробно расскажем о том, что делает каждая опция данного инструмента, заглянув каждый раз немного глубже простого описания.
https://interface31.ru/tech_it/2021/05/testirovanie-i-ispravlenie-informacionnoy-bazy-chto-delaet-i-dlya-chego-nuzhno.html
👍15❤3
Ой, а почему у нас так тормозит 1С?
Этим вопросом задаются многие администраторы, но не все могут найти ответ. В результате отношения между администраторами, бухгалтерами и 1Сниками часто становятся напряженными. 😡
Но не нужно конфликтовать, очень часто причины подобного поведения буквально лежат на поверхности. 👉
Прежде всего, особенно если у вас файловая база, добавьте ее и все процессы 1С в исключения Microsoft Defender.
🔹 Почему тормозит 1С. Файловый режим и Microsoft Defender
Во-вторых, разберитесь с регламентными заданиями, отключите ненужные и настройте адекватное расписание для нужных, подробнее здесь:
🔹 Почему тормозит 1С. Регламентные задания
Для файловых баз не забывайте эпизодически выполнять Тестирование и исправление, вопреки неудачному наименованию, это не только инструмент ремонта, но и обслуживания.
🔹 Тестирование и исправление информационной базы - что делает и для чего нужно
А для сравнительной оценки оборудования и его настроек в мире 1С принято использовать тест Гилева, это своего рода отраслевой стандарт с которым трудно поспорить.
🔹 Как установить и использовать тест Гилева для 1С:Предприятие
Этим вопросом задаются многие администраторы, но не все могут найти ответ. В результате отношения между администраторами, бухгалтерами и 1Сниками часто становятся напряженными. 😡
Но не нужно конфликтовать, очень часто причины подобного поведения буквально лежат на поверхности. 👉
Прежде всего, особенно если у вас файловая база, добавьте ее и все процессы 1С в исключения Microsoft Defender.
🔹 Почему тормозит 1С. Файловый режим и Microsoft Defender
Во-вторых, разберитесь с регламентными заданиями, отключите ненужные и настройте адекватное расписание для нужных, подробнее здесь:
🔹 Почему тормозит 1С. Регламентные задания
Для файловых баз не забывайте эпизодически выполнять Тестирование и исправление, вопреки неудачному наименованию, это не только инструмент ремонта, но и обслуживания.
🔹 Тестирование и исправление информационной базы - что делает и для чего нужно
А для сравнительной оценки оборудования и его настроек в мире 1С принято использовать тест Гилева, это своего рода отраслевой стандарт с которым трудно поспорить.
🔹 Как установить и использовать тест Гилева для 1С:Предприятие
👍27❤4👏2🤮2👎1
Ой, а что это случилось? Куда делась лицензия? Программные лицензии 1С - полное дно!!!
На самом деле процессор на данном хосте заменили еще в конце июля, а выстрелило в середине сентября.
Хотя все причастные со стороны заказчика знали, что замена процессора требует переактивации лицензии.
Но не слетело же сразу? Поэтому благополучно забили. А когда работа стала колом посреди рабочего дня - сказали, что это же 1С...
В общем, не надо так делать. Заменили железки - выполнили повторную активацию. А новый пин-код всегда пришлет поддержка. Нет смысла цепляться за них и жалеть.
На самом деле процессор на данном хосте заменили еще в конце июля, а выстрелило в середине сентября.
Хотя все причастные со стороны заказчика знали, что замена процессора требует переактивации лицензии.
Но не слетело же сразу? Поэтому благополучно забили. А когда работа стала колом посреди рабочего дня - сказали, что это же 1С...
В общем, не надо так делать. Заменили железки - выполнили повторную активацию. А новый пин-код всегда пришлет поддержка. Нет смысла цепляться за них и жалеть.
👍34💯10😁3👎2❤1
Установка и настройка pgAdmin 4 в режиме сервера
pgAdmin -- это приложение с открытым исходным кодом для администрирования и разработки баз данных PostgreSQL которое позволяет выполнять множество задач, начиная от мониторинга и обслуживания и заканчивая выполнением SQL-запросов.
pgAdmin 4 можно установить на локальный компьютер, но в наше время, когда доступ может потребоваться в любое время и из любого места, это не очень удобно.
Гораздо удобнее установить pgAdmin 4 в режиме сервера и иметь доступ к нему через браузер из любой точки мира. О том как это сделать мы расскажем в данной статье.
https://interface31.ru/tech_it/2021/01/ustanovka-i-nastroyka-pgadmin-4-v-rezhime-servera.html
pgAdmin -- это приложение с открытым исходным кодом для администрирования и разработки баз данных PostgreSQL которое позволяет выполнять множество задач, начиная от мониторинга и обслуживания и заканчивая выполнением SQL-запросов.
pgAdmin 4 можно установить на локальный компьютер, но в наше время, когда доступ может потребоваться в любое время и из любого места, это не очень удобно.
Гораздо удобнее установить pgAdmin 4 в режиме сервера и иметь доступ к нему через браузер из любой точки мира. О том как это сделать мы расскажем в данной статье.
https://interface31.ru/tech_it/2021/01/ustanovka-i-nastroyka-pgadmin-4-v-rezhime-servera.html
👍14🤝3
🤯 Версии конфигурации виртуальных машин Hyper-V
Далеко не все знают, что у виртуальных машин Hyper-V есть версии, которые различаются поддерживаемыми возможностями и лимитами. Из поддерживаемых сейчас систем минимальная версия 5.0 для Server 2012 R2 и Windows 8.1, максимальная 12.0 для Server 2025 и Windows 11 24H2.
А всего версий конфигурации целых 15 штук, они увеличивались каждый раз при обновлении Hyper-V, а обновлялся он с каждым новым выпуском Windows, в т.ч. клиентском.
Долгое время конфигурации были совместимы сверху вниз, т.е. на новой версии гипервизора вы могли запустить старую конфигурацию. Но начиная с выпуска 2004, LTSC 2021 и Server 2022 отключили поддержку версии ниже 8,0.
При этом сама тема конфигураций сделана в лучших традициях Microsoft, т.е максимально скрыто от пользователя. Многие могли годами работать и не сталкиваться с этой темой.
Итак, какие могут быть проблемы?
🔹 Вам нужно переместить ВМ со старого гипервизора на новый. Скажем с 2016 на 2022. А у вас там по наследству крутится 5.0. Ответ вроде бы прост, сделать апгрейд конфигурации. Для этого есть командлет
Но есть одна проблема. Он апгрейдит до текущей версии хоста. И если вы запустите его на новом сервере по получите машину версии 10.0, которую уже не сможете вернуть назад. Если это критично, то апгрейд нужно запускать на 2016, тогда получим версию 8.0, которая поддерживается обоими гипервизорами.
🔹 Обратный вариант - переместить машину на более старый гипервизор. Здесь поможет только создание новой машины поддерживаемой версии и подключение к ней виртуальных дисков от текущей машины.
🔹 И последний вариант, если вы создаете и отлаживаете машины под клиентской ОС, а только потом перемещаете в продакшен, здесь вы можете получить и вовсе экзотическую версию, какую-нибудь 9.1, которая потом не заведется на том же 2019. Здесь лучше создавать ВМ из консоли, сразу указывая нужную версию:
✅ Upgrade virtual machine version in Hyper-V on Windows or Windows Server
Далеко не все знают, что у виртуальных машин Hyper-V есть версии, которые различаются поддерживаемыми возможностями и лимитами. Из поддерживаемых сейчас систем минимальная версия 5.0 для Server 2012 R2 и Windows 8.1, максимальная 12.0 для Server 2025 и Windows 11 24H2.
А всего версий конфигурации целых 15 штук, они увеличивались каждый раз при обновлении Hyper-V, а обновлялся он с каждым новым выпуском Windows, в т.ч. клиентском.
Долгое время конфигурации были совместимы сверху вниз, т.е. на новой версии гипервизора вы могли запустить старую конфигурацию. Но начиная с выпуска 2004, LTSC 2021 и Server 2022 отключили поддержку версии ниже 8,0.
При этом сама тема конфигураций сделана в лучших традициях Microsoft, т.е максимально скрыто от пользователя. Многие могли годами работать и не сталкиваться с этой темой.
Итак, какие могут быть проблемы?
🔹 Вам нужно переместить ВМ со старого гипервизора на новый. Скажем с 2016 на 2022. А у вас там по наследству крутится 5.0. Ответ вроде бы прост, сделать апгрейд конфигурации. Для этого есть командлет
Update-VMVersion
. Но есть одна проблема. Он апгрейдит до текущей версии хоста. И если вы запустите его на новом сервере по получите машину версии 10.0, которую уже не сможете вернуть назад. Если это критично, то апгрейд нужно запускать на 2016, тогда получим версию 8.0, которая поддерживается обоими гипервизорами.
🔹 Обратный вариант - переместить машину на более старый гипервизор. Здесь поможет только создание новой машины поддерживаемой версии и подключение к ней виртуальных дисков от текущей машины.
🔹 И последний вариант, если вы создаете и отлаживаете машины под клиентской ОС, а только потом перемещаете в продакшен, здесь вы можете получить и вовсе экзотическую версию, какую-нибудь 9.1, которая потом не заведется на том же 2019. Здесь лучше создавать ВМ из консоли, сразу указывая нужную версию:
New-VM -Name "VM_name" -Version 8.0
Более подробно почитать про все это (на английском) и посмотреть таблички совместимости можно здесь: ✅ Upgrade virtual machine version in Hyper-V on Windows or Windows Server
👍20👀5❤1
Open vSwitch – что это такое и для чего нужно
Сегодня читатель задал вопрос про Open vSwitch, мол стоит ли переходить на него в Proxmox. Но однозначного ответа на этот вопрос дать нельзя. Почему? Давайте разбираться.
Широкое применение виртуальных машин привело к появлению виртуальных сетей, где огромные массы трафика могут перемещаться внутри гипервизора и не покидать его пределов.
И если мы хотим гибко управлять этим трафиком, то обычного Linux Bridge нам уже будет недостаточно. Особенно если мы работаем в кластере и виртуальные машины перемещаются между нодами.
В первом приближении Linux Bridge можно сравнить с физическим неуправляемым коммутатором. Дешево и просто.
Но когда в физических сетях нам требуется чего-то большего, то мы ставим управляемый коммутатор. В виртуальных сетях коммутатор будет тоже виртуальный. Именно тем самым виртуальным управляемым коммутатором и является Open vSwitch.
Он поддерживает протокол OpenFlow, который позволяет создавать программно определяемые сети (SDN) и гибко управлять конфигурацией коммутаторов. Это позволяет не задумываться на какую ноду и какой коммутатор уехала виртуальная машина, все связанные с ней сетевые правила также мигрируют до места назначения.
Также Open vSwitch поддерживает VLAN, приоритизацию трафика и его учет, агрегацию и балансировку.
Ну так это же круто, скажет иной читатель. Давайте же его использовать!
Но здесь, как и в физических сетях, нужно руководствоваться здравым смыслом. Вы же не будете ставить дорогой управляемый коммутатор в небольшой офис? Так и здесь. За все возможности Open vSwitch вы будете расплачиваться вычислительными ресурсами.
Поэтому если вы не знаете, для чего именно вам нужен Open vSwitch и какие задачи вы будете решать с его помощью, то, скорее всего нужны в нем у вас нет.
А если очень хочется попробовать новые технологии, то сделайте это на стенде. После чего вы поймете нужно ли это именно вам, а если нужно – то для чего.
Иначе получится как в некоторых физических сетях, где администратор гордо устанавливал в серверный шкаф дорогой управляемый коммутатор и потом использовал его сугубо как обычный свитч.
Поэтому исходите из понятия разумной достаточности. Open vSwitch – мощный сетевой инструмент, но его использование должно быть обосновано. Иначе это будет просто бесполезное усложнение системы со столь же бесполезной тратой вычислительных ресурсов.
Сегодня читатель задал вопрос про Open vSwitch, мол стоит ли переходить на него в Proxmox. Но однозначного ответа на этот вопрос дать нельзя. Почему? Давайте разбираться.
Широкое применение виртуальных машин привело к появлению виртуальных сетей, где огромные массы трафика могут перемещаться внутри гипервизора и не покидать его пределов.
И если мы хотим гибко управлять этим трафиком, то обычного Linux Bridge нам уже будет недостаточно. Особенно если мы работаем в кластере и виртуальные машины перемещаются между нодами.
В первом приближении Linux Bridge можно сравнить с физическим неуправляемым коммутатором. Дешево и просто.
Но когда в физических сетях нам требуется чего-то большего, то мы ставим управляемый коммутатор. В виртуальных сетях коммутатор будет тоже виртуальный. Именно тем самым виртуальным управляемым коммутатором и является Open vSwitch.
Он поддерживает протокол OpenFlow, который позволяет создавать программно определяемые сети (SDN) и гибко управлять конфигурацией коммутаторов. Это позволяет не задумываться на какую ноду и какой коммутатор уехала виртуальная машина, все связанные с ней сетевые правила также мигрируют до места назначения.
Также Open vSwitch поддерживает VLAN, приоритизацию трафика и его учет, агрегацию и балансировку.
Ну так это же круто, скажет иной читатель. Давайте же его использовать!
Но здесь, как и в физических сетях, нужно руководствоваться здравым смыслом. Вы же не будете ставить дорогой управляемый коммутатор в небольшой офис? Так и здесь. За все возможности Open vSwitch вы будете расплачиваться вычислительными ресурсами.
Поэтому если вы не знаете, для чего именно вам нужен Open vSwitch и какие задачи вы будете решать с его помощью, то, скорее всего нужны в нем у вас нет.
А если очень хочется попробовать новые технологии, то сделайте это на стенде. После чего вы поймете нужно ли это именно вам, а если нужно – то для чего.
Иначе получится как в некоторых физических сетях, где администратор гордо устанавливал в серверный шкаф дорогой управляемый коммутатор и потом использовал его сугубо как обычный свитч.
Поэтому исходите из понятия разумной достаточности. Open vSwitch – мощный сетевой инструмент, но его использование должно быть обосновано. Иначе это будет просто бесполезное усложнение системы со столь же бесполезной тратой вычислительных ресурсов.
👍26❤3🤡3👀3👎1
Отчет о тестировании. ADATA SU800 256 ГБ
🔹Контроллер: Silicon Motion SM2258H
🔹Наличие буфера: DRAM-кэш 256 МБ
🔹Ресурс записи (TBW): 200 ТБ
Данные диски стояли в зеркале на ПК главного бухгалтера аутсорсерской фирмы (ведение бухучета), заполнение – более 50%, но менее 75%. Там же был развернут веб-сервер и работали еще до 5 сотрудников, в т.ч. по удаленке.
Диски проработали 4 года и 11 месяцев записав приблизительно 247 ТБ, что полностью выработало ресурс. Интенсивность записи приблизительно 137,2 ГБ/день.
Теперь о реальном количестве записей во флеш и коэффициенте усиления записи – WAF. Напоминаем, что WAF не является величиной постоянной и сильно зависит от характера использования диска.
В нашем случае диск практически идеально подошел для выбранного сценария использования, количество записей во флеш составило 277 ТБ, что соответствует WAF = 1.12. Это очень хороший показатель, говорящий, что практически все операции приходились на SLC-кеш и диск не делал лишних записей и стираний.
S.M.A.R.T. данного контроллера также предоставляет информацию, которая может быть интересна (и она действительно интересна):
▫️ A0 - Unused Spare NAND Blocks (Неиспользуемые запасные блоки NAND) – 0, т.е. диск израсходовал все свои резервные блоки.
▫️ A5 - Maximum Erase Count (Максимум стираний) – 1710 – количество стираний самого изношенного блока на диске.
▫️ A7 - Average Erase Count (В среднем стираний) – 1660 – среднее количество стираний блоков.
▫️ A8 - Maximum Erase Count (Максимальное стирание по спецификации) – 1000 – максимальное количество стираний по спецификации.
Как видим по стираниям у нас превышение на 66%, что тоже неплохой показатель как мы увидим ниже.
Несмотря на выработку ресурса по записи и по стираниям диск показывает вполне неплохие характеристики. Режим работы SLC-кеша заявлен как «интеллектуальный, динамический».
Кривая чтения у обоих дисков ровная, близка к 400 МБ/с, тесты CDM мы проводили со значениями 1 и 32 ГБ, чтобы попасть в кеш и выйти за него. Но в данном случае наличие кеша уже не помогает, причина, скорее всего, в общей изношенности памяти.
Но результат все равно неплохой, стабильный.
👆 Если коротко подвести итоги – то диск отработал свою цену до последней копейки. И это не самый дорогой диск, хотя и старший в своей линейке ADATA (синяя наклейка с птичкой до ребрендинга).
👍 В продаже они еще есть, к покупке рекомендуются, если ваш сценарий укладывается в модель кеша диска – то работать он будет долго и надежно. Кстати, TBW 200 ТБ один из самых больших в своем классе (для моделей 250 ГБ).
🔹Контроллер: Silicon Motion SM2258H
🔹Наличие буфера: DRAM-кэш 256 МБ
🔹Ресурс записи (TBW): 200 ТБ
Данные диски стояли в зеркале на ПК главного бухгалтера аутсорсерской фирмы (ведение бухучета), заполнение – более 50%, но менее 75%. Там же был развернут веб-сервер и работали еще до 5 сотрудников, в т.ч. по удаленке.
Диски проработали 4 года и 11 месяцев записав приблизительно 247 ТБ, что полностью выработало ресурс. Интенсивность записи приблизительно 137,2 ГБ/день.
Теперь о реальном количестве записей во флеш и коэффициенте усиления записи – WAF. Напоминаем, что WAF не является величиной постоянной и сильно зависит от характера использования диска.
В нашем случае диск практически идеально подошел для выбранного сценария использования, количество записей во флеш составило 277 ТБ, что соответствует WAF = 1.12. Это очень хороший показатель, говорящий, что практически все операции приходились на SLC-кеш и диск не делал лишних записей и стираний.
S.M.A.R.T. данного контроллера также предоставляет информацию, которая может быть интересна (и она действительно интересна):
▫️ A0 - Unused Spare NAND Blocks (Неиспользуемые запасные блоки NAND) – 0, т.е. диск израсходовал все свои резервные блоки.
▫️ A5 - Maximum Erase Count (Максимум стираний) – 1710 – количество стираний самого изношенного блока на диске.
▫️ A7 - Average Erase Count (В среднем стираний) – 1660 – среднее количество стираний блоков.
▫️ A8 - Maximum Erase Count (Максимальное стирание по спецификации) – 1000 – максимальное количество стираний по спецификации.
Как видим по стираниям у нас превышение на 66%, что тоже неплохой показатель как мы увидим ниже.
Несмотря на выработку ресурса по записи и по стираниям диск показывает вполне неплохие характеристики. Режим работы SLC-кеша заявлен как «интеллектуальный, динамический».
Кривая чтения у обоих дисков ровная, близка к 400 МБ/с, тесты CDM мы проводили со значениями 1 и 32 ГБ, чтобы попасть в кеш и выйти за него. Но в данном случае наличие кеша уже не помогает, причина, скорее всего, в общей изношенности памяти.
Но результат все равно неплохой, стабильный.
👆 Если коротко подвести итоги – то диск отработал свою цену до последней копейки. И это не самый дорогой диск, хотя и старший в своей линейке ADATA (синяя наклейка с птичкой до ребрендинга).
👍 В продаже они еще есть, к покупке рекомендуются, если ваш сценарий укладывается в модель кеша диска – то работать он будет долго и надежно. Кстати, TBW 200 ТБ один из самых больших в своем классе (для моделей 250 ГБ).
👍31⚡3❤3