LRUcache (от англ. Least Recently Used cache) — это механизм кэширования, который хранит ограниченное количество результатов вычислений или обращений к данным, и при переполнении освобождает место, удаляя из кэша самый долго неиспользуемый элемент.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
Декоратор @cache применяется к функциям и автоматически запоминает результаты их вызовов с конкретными аргументами. Если функция с такими же аргументами вызывается повторно, результат берется из кэша, что значительно ускоряет работу, особенно при дорогих в вычислении функциях.
🔥3👍1👎1
  ❤🔥2👍1👎1
  Интерпретатор «замрет», потому что попадет в состояние бесконечного ожидания (deadlock). 
С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future = Future() # создаем Future-объект в состоянии pending
print(future.result()) # Просим показать result(), БЛОКИРУЯ
future.set_result("Hello from the future!") # Задаем result
result() будет ждать, пока результат не будет установлен, но set_result() никогда не будет вызван, так как выполнение программы остановилось на предыдущей строке.С такой ситуацией можно справиться, если добавить аргумент-таймаут:
future.result(timeout=1)
👍2👎1
  🌱 Что выведет код?
  Anonymous Quiz
    12%
    Пустое значение
      
    17%
    Будет deadlock
      
    69%
    Стоило ожидания!
      
    2%
    Error
      
    👍2🤷♂1👎1
  Cоздаем объект 
Cоздаем новую задачу, которая будет выполняться асинхронно
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
Это еще называют «Неблокирующим ожиданием».
Future из модуля asyncio (это не то же самое, что concurrent.futures.Future:
future = asyncio.Future()
Cоздаем новую задачу, которая будет выполняться асинхронно
asyncio.create_task(set_after_delay(future))
Она:
- Принимает future как параметр
- Ждет 1 секунду
- Устанавливает результат в future
Ждем, пока future получит результат. Это не блокирует весь интерпретатор, а только текущую корутину:
result = await future
Это еще называют «Неблокирующим ожиданием».
🔥1😐1
  👎4👍2🤓1👨💻1
  Атрибут 
is_monotonic_increasing возвращает True, если каждое значение объекта pd.Series больше предыдущего или равно ему. Приращение значений при этом не обязано быть одинаковым:
print(pd.Series(data = [1, 3, 3, 6]).is_monotonic_increasing) # True
👏2🍌1
  🤯4👍1👎1
  Метакласс 
MyMetaclass в момент создания MyClass добавляет в пространство имён метод greeting. Этот метод становится доступен экземплярам класса MyClass, как если бы был определён обычным способом.👍2🤓2👎1
  👍3👎1
  В Python значения по умолчанию для аргументов функции вычисляются один раз при определении функции. В данном случае список 
lst создаётся один раз и используется при каждом вызове функции func, если не передан другой список. Поэтому элементы добавляются в один и тот же список, и результат накапливается.👍4👎1
  🥴11❤2👍1😱1
  None не может быть напрямую сравнён с int в Python 3, поэтому sorted() вызовет TypeError.👍7👎1