Задача:
В этой задаче от вас требуется, задав строку, заменить каждую букву на ее позицию в алфавите.
Пример:
#задачник
@python_practics
В этой задаче от вас требуется, задав строку, заменить каждую букву на ее позицию в алфавите.
Пример:
Input = "The sunset sets at twelve o' clock."
Output = "20 8 5 19 21 14 19 5 20 19 5 20 19 1 20 20 23 5 12 22 5 15 3 12 15 3 11"
#задачник
@python_practics
👍2
Получение текущего времени в секундах с начала эпохи
Используем time.time() для получения времени в секундах.
👍 - если было полезно
#полезные_сниппеты
@python_practics
Используем time.time() для получения времени в секундах.
👍 - если было полезно
#полезные_сниппеты
@python_practics
👍5
Внимание! - Вопрос!
Что такое оператор pass?
pass — это пустая инструкция, которая ничего не делает. Используется как заполнитель, чтобы синтаксически корректный блок кода был пустым. Например, при определении функции или класса, который еще не реализован:
def my_function():
pass
Это удобно, когда планируешь реализовать код позже, и нужно оставить место для будущих изменений.
#вопросы_из_собеседований
@python_practics
Что такое оператор pass?
pass — это пустая инструкция, которая ничего не делает. Используется как заполнитель, чтобы синтаксически корректный блок кода был пустым. Например, при определении функции или класса, который еще не реализован:
def my_function():
pass
Это удобно, когда планируешь реализовать код позже, и нужно оставить место для будущих изменений.
#вопросы_из_собеседований
@python_practics
👍3
Transformers
Transformers — библиотека на Python для работы с трансформерными моделями в задачах обработки естественного языка (NLP). Разрабатывается компанией Hugging Face.
Основные возможности:
• Поддержка различных архитектур трансформеров. Библиотека поддерживает модели на архитектурах BERT, GPT, T5, RoBERTa, DistilBERT и других.
• Возможность дообучения моделей (Fine-tuning). Предобученные модели можно настроить под конкретные задачи.
• Совместимость с фреймворками PyTorch, TensorFlow и JAX.
• Поддержка GPU. При наличии CUDA модель автоматически использует GPU.
Подробнее👇
#фреймворки_библиотеки
@python_practics
Transformers — библиотека на Python для работы с трансформерными моделями в задачах обработки естественного языка (NLP). Разрабатывается компанией Hugging Face.
Основные возможности:
• Поддержка различных архитектур трансформеров. Библиотека поддерживает модели на архитектурах BERT, GPT, T5, RoBERTa, DistilBERT и других.
• Возможность дообучения моделей (Fine-tuning). Предобученные модели можно настроить под конкретные задачи.
• Совместимость с фреймворками PyTorch, TensorFlow и JAX.
• Поддержка GPU. При наличии CUDA модель автоматически использует GPU.
Подробнее👇
#фреймворки_библиотеки
@python_practics
👍2
Генерация случайного числа в диапазоне
Генерируем случайное целое число между 1 и 100.
👍 - если было полезно
#полезные_сниппеты
@python_practics
Генерируем случайное целое число между 1 и 100.
👍 - если было полезно
#полезные_сниппеты
@python_practics
👍7
Как 5-минутная привычка спасает разработчиков от выгорания
Что делать, если хочется бросить программирование? Авторы статьи разобрали, как выгорание подкрадывается к разработчикам, почему одна 5-минутная привычка может вернуть интерес к коду и почему не надо гнаться за продуктивностью, чтобы остаться в профессии.
Подробнее👇
#статьи
@python_practics
Что делать, если хочется бросить программирование? Авторы статьи разобрали, как выгорание подкрадывается к разработчикам, почему одна 5-минутная привычка может вернуть интерес к коду и почему не надо гнаться за продуктивностью, чтобы остаться в профессии.
Подробнее👇
#статьи
@python_practics
👍1