🔍Что выведет код?
  Anonymous Quiz
    41%
    Память: 1,500,000,000 байт(-ов)
      
    22%
    Память: 2B байт(-ов)
      
    28%
    Память: 1.500.000.000 байт(-ов)
      
    9%
    Error
      
    👍2❤🔥1
  В Format Mini-Language есть еще фокусы:
memory = 1.5e9 # 1.5 GB в байтах
# Выравнивание и заполнение
print(f"Memory (right aligned): {memory / 1e9:>10.2f} GB") # выравнивание по правому краю
print(f"Memory (left aligned): {memory / 1e9:<10.2f} GB") # выравнивание по левому краю
print(f"Memory (centered): {memory / 1e9:^10.2f} GB") # центрирование
print(f"Память: {memory / 1e9:010.2f} GB") # заполнение нулями
# Группировка цифр
print(f"Память: {memory:,.0f} байт(-ов)") # разделение запятыми
👍2👎1
  LRUcache (от англ. Least Recently Used cache) — это механизм кэширования, который хранит ограниченное количество результатов вычислений или обращений к данным, и при переполнении освобождает место, удаляя из кэша самый долго неиспользуемый элемент.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
🔥3👍1👎1
  ❤🔥2👍1👎1
  Интерпретатор «замрет», потому что попадет в состояние бесконечного ожидания (deadlock). 
С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future = Future() # создаем Future-объект в состоянии pending
print(future.result()) # Просим показать result(), БЛОКИРУЯ
future.set_result("Hello from the future!") # Задаем result
result() будет ждать, пока результат не будет установлен, но set_result() никогда не будет вызван, так как выполнение программы остановилось на предыдущей строке.С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future.result(timeout=1)
👍2👎1
  🌱 Что выведет код?
  Anonymous Quiz
    12%
    Пустое значение
      
    17%
    Будет deadlock
      
    69%
    Стоило ожидания!
      
    2%
    Error
      
    👍2🤷♂1👎1
  Cоздаем объект 
Cоздаем новую задачу, которая будет выполняться асинхронно
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
Это еще называют «Неблокирующим ожиданием».
Future из модуля asyncio (это не то же самое, что concurrent.futures.Future:
future = asyncio.Future()
Cоздаем новую задачу, которая будет выполняться асинхронно
asyncio.create_task(set_after_delay(future))
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
result = await future
Это еще называют «Неблокирующим ожиданием».
🔥1😐1
  👎4👍2🤓1👨💻1
  Атрибут 
is_monotonic_increasing возвращает True, если каждое значение объекта pd.Series больше предыдущего или равно ему. Приращение значений при этом не обязано быть одинаковым:
print(pd.Series(data = [1, 3, 3, 6]).is_monotonic_increasing) # True
👏2🍌1
  🤯4👍1👎1
  Метакласс 
MyMetaclass в момент создания MyClass добавляет в пространство имён метод greeting. Этот метод становится доступен экземплярам класса MyClass, как если бы был определён обычным способом.👍2🤓2👎1
  👍3👎1
  В Python значения по умолчанию для аргументов функции вычисляются один раз при определении функции. В данном случае список 
lst создаётся один раз и используется при каждом вызове функции func, если не передан другой список. Поэтому элементы добавляются в один и тот же список, и результат накапливается.👍4👎1