🎧 MiMo Audio: Инновации в аудио языковых моделях
MiMo Audio предлагает передовые аудио языковые модели, способные к обучению с минимальным количеством примеров. С использованием более 100 миллионов часов данных, модель демонстрирует выдающиеся результаты в задачах распознавания речи и аудиоанализа, а также в генерации речи. MiMo-Audio-7B-Base устанавливает новые стандарты в открытых моделях.
🚀Основные моменты:
- Поддержка нескольких аудио задач с минимальным обучением.
- Высокая производительность в распознавании речи и аудио понимании.
- Генерация реалистичной речи для различных форматов.
- Открытый доступ к моделям через Hugging Face.
📌 GitHub: https://github.com/XiaomiMiMo/MiMo-Audio
@pythonl
MiMo Audio предлагает передовые аудио языковые модели, способные к обучению с минимальным количеством примеров. С использованием более 100 миллионов часов данных, модель демонстрирует выдающиеся результаты в задачах распознавания речи и аудиоанализа, а также в генерации речи. MiMo-Audio-7B-Base устанавливает новые стандарты в открытых моделях.
🚀Основные моменты:
- Поддержка нескольких аудио задач с минимальным обучением.
- Высокая производительность в распознавании речи и аудио понимании.
- Генерация реалистичной речи для различных форматов.
- Открытый доступ к моделям через Hugging Face.
📌 GitHub: https://github.com/XiaomiMiMo/MiMo-Audio
@pythonl
❤10🔥7👍4
⚡ Наглядное сравнение скорости нового Python 3.14 с предыдущей версией
Теперь Python может использовать все ядра процессора так же эффективно, как C++ или Go - без сложных обходных путей и накладных расходов.
Многопоточность стала быстрее мультипроцессинга - впервые в истории Python.
Главное - новая сборка позволяет работать без GIL (Global Interpreter Lock), что меняет всё.
Как вы наверное знаете, GIL - это глобальная блокировка интерпретатора, которая позволяет в каждый момент времени исполнять только один поток байткода Python, даже если у тебя много ядер.
Раньше поэтому многопоточность в Python фактически не работала.
🔄 Как обходили GIL
До сих пор стандартный способ распараллеливания 0 мультипроцессинг.
Каждый процесс - свой экземпляр интерпретатора со своим GIL.
Минусы такого подхода: каждая копия имеет отдельную память, данные нужно сериализовать при передаче — большие накладные расходы.
🚀 Что меняется в 3.14
В новой версии можно отключить GIL, и потоки теперь работают в общем адресном пространстве.
Общий доступ к памяти + никакой сериализации → значительное ускорение:
многопоточность теперь оказывает на ~33 % быстрее, чем мультипроцессинг.
📈 Эксперименты из репозитория koenvo/python-experiments/free-threading
- Продемонстрировано, что без GIL потоки действительно ускоряют работу задач с интенсивной синхронизацией и доступом к общей памяти.
- Показаны сравнения, где многопоточные версии (с отключённым GIL) часто превосходят мультипроцессные аналоги по времени выполнения.
- Тесты охватывают разные сценарии: CPU-нагрузки, обмен данными между потоками, циклы с синхронизацией.
- Репозиторий служит “proof of concept” — демонстрация, что free-threading действительно работает и приносит выгоду.
💡 Почему это важно
- Теперь реальная многопоточность в Python становится возможной и эффективной.
- Это особенно актуально для библиотек и фреймворков: ожидается, что PyTorch, NumPy и другие скоро получат поддержку free-threading.
- Уменьшаются накладные расходы на межпроцессное взаимодействие, улучшается масштабируемость на многопроцессорных системах.
Вот реальные примеры:
https://github.com/koenvo/python-experiments/tree/main/free-threading
@pythonl
Теперь Python может использовать все ядра процессора так же эффективно, как C++ или Go - без сложных обходных путей и накладных расходов.
Многопоточность стала быстрее мультипроцессинга - впервые в истории Python.
Главное - новая сборка позволяет работать без GIL (Global Interpreter Lock), что меняет всё.
Как вы наверное знаете, GIL - это глобальная блокировка интерпретатора, которая позволяет в каждый момент времени исполнять только один поток байткода Python, даже если у тебя много ядер.
Раньше поэтому многопоточность в Python фактически не работала.
🔄 Как обходили GIL
До сих пор стандартный способ распараллеливания 0 мультипроцессинг.
Каждый процесс - свой экземпляр интерпретатора со своим GIL.
Минусы такого подхода: каждая копия имеет отдельную память, данные нужно сериализовать при передаче — большие накладные расходы.
🚀 Что меняется в 3.14
В новой версии можно отключить GIL, и потоки теперь работают в общем адресном пространстве.
Общий доступ к памяти + никакой сериализации → значительное ускорение:
многопоточность теперь оказывает на ~33 % быстрее, чем мультипроцессинг.
📈 Эксперименты из репозитория koenvo/python-experiments/free-threading
- Продемонстрировано, что без GIL потоки действительно ускоряют работу задач с интенсивной синхронизацией и доступом к общей памяти.
- Показаны сравнения, где многопоточные версии (с отключённым GIL) часто превосходят мультипроцессные аналоги по времени выполнения.
- Тесты охватывают разные сценарии: CPU-нагрузки, обмен данными между потоками, циклы с синхронизацией.
- Репозиторий служит “proof of concept” — демонстрация, что free-threading действительно работает и приносит выгоду.
💡 Почему это важно
- Теперь реальная многопоточность в Python становится возможной и эффективной.
- Это особенно актуально для библиотек и фреймворков: ожидается, что PyTorch, NumPy и другие скоро получат поддержку free-threading.
- Уменьшаются накладные расходы на межпроцессное взаимодействие, улучшается масштабируемость на многопроцессорных системах.
Вот реальные примеры:
https://github.com/koenvo/python-experiments/tree/main/free-threading
@pythonl
👍25❤12🔥7
🌐 DeepMind представила URL Context — теперь можно извлекать данные с любой веб-страницы, PDF или картинки просто по ссылке!
⚡ Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент
💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки
👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.
https://ai.google.dev/gemini-api/docs/url-context?hl=ru
⚡ Что умеет:
- Подтягивает данные с до 20 URL за один запрос
- Никакой настройки — просто вставляешь ссылки в промпт
- Оплата только за токены, без доп. стоимости за инструмент
💡 Возможности:
▸ Вытаскивать цены, имена, ключевые факты из статей
▸ Сравнивать PDF, отчёты или статьи
▸ Генерировать резюме, посты и документы на основе разных источников
▸ Анализировать GitHub-репозитории и техдоки
👉 URL Context превращает LLM в универсальный инструмент для работы с реальными данными в сети.
https://ai.google.dev/gemini-api/docs/url-context?hl=ru
❤9👍4🔥4
💾🎉 copyparty - ваш файловый сервер на любом устройстве
Copyparty позволяет легко превратить любое устройство в файловый сервер с поддержкой возобновляемых загрузок и скачиваний через веб-браузер. Работает на Python и поддерживает различные протоколы, включая HTTP, WebDAV и FTP.
🚀Основные моменты:
- Поддержка множества протоколов для доступа к файлам.
- Удобный интерфейс для загрузки и управления файлами.
- Возможность создания временных ссылок для обмена файлами.
- Поддержка мобильных приложений для Android и iOS.
📌 GitHub: https://github.com/9001/copyparty
#python
Copyparty позволяет легко превратить любое устройство в файловый сервер с поддержкой возобновляемых загрузок и скачиваний через веб-браузер. Работает на Python и поддерживает различные протоколы, включая HTTP, WebDAV и FTP.
🚀Основные моменты:
- Поддержка множества протоколов для доступа к файлам.
- Удобный интерфейс для загрузки и управления файлами.
- Возможность создания временных ссылок для обмена файлами.
- Поддержка мобильных приложений для Android и iOS.
📌 GitHub: https://github.com/9001/copyparty
#python
❤11👍1🔥1😱1