🚀 Модели IQuest-Coder-V1 для автономного программирования
IQuest-Coder-V1 — это семейство больших языковых моделей, предназначенных для улучшения автономного программирования и интеллектуального анализа кода. Модели используют инновационную многослойную парадигму обучения, обеспечивая выдающиеся результаты на ключевых бенчмарках.
🚀 Основные моменты:
- Достигает лучших результатов на SWE-Bench и других бенчмарках.
- Обучение на основе динамики изменений в репозиториях.
- Два специализированных направления: Thinking и Instruct модели.
- Поддержка контекста до 128K токенов.
- Эффективная архитектура с рекуррентным механизмом.
📌 GitHub: https://github.com/IQuestLab/IQuest-Coder-V1
#python
@Python_Community_ru
IQuest-Coder-V1 — это семейство больших языковых моделей, предназначенных для улучшения автономного программирования и интеллектуального анализа кода. Модели используют инновационную многослойную парадигму обучения, обеспечивая выдающиеся результаты на ключевых бенчмарках.
🚀 Основные моменты:
- Достигает лучших результатов на SWE-Bench и других бенчмарках.
- Обучение на основе динамики изменений в репозиториях.
- Два специализированных направления: Thinking и Instruct модели.
- Поддержка контекста до 128K токенов.
- Эффективная архитектура с рекуррентным механизмом.
📌 GitHub: https://github.com/IQuestLab/IQuest-Coder-V1
#python
@Python_Community_ru
🚀 Умный плагин для Claude Code
Claude Workflow — это универсальный плагин, который включает специализированные агенты и навыки для автоматизации разработки программного обеспечения. Он помогает в координации задач, анализе кода, написании документации и обеспечении безопасности.
🚀 Основные моменты:
- 7 специализированных агентов для различных задач
- 6 знаний для улучшения проектирования и тестирования
- Поддержка нескольких стилей вывода через слэш-команды
- Автоматизация с помощью хуков для повышения безопасности и качества кода
📌 GitHub: https://github.com/CloudAI-X/claude-workflow
@Python_Community_ru
Claude Workflow — это универсальный плагин, который включает специализированные агенты и навыки для автоматизации разработки программного обеспечения. Он помогает в координации задач, анализе кода, написании документации и обеспечении безопасности.
🚀 Основные моменты:
- 7 специализированных агентов для различных задач
- 6 знаний для улучшения проектирования и тестирования
- Поддержка нескольких стилей вывода через слэш-команды
- Автоматизация с помощью хуков для повышения безопасности и качества кода
📌 GitHub: https://github.com/CloudAI-X/claude-workflow
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 talk-to-girlfriend-ai - AI-агент для помощи в переписке через Telegram
Это проект Telegram-бота/агента, который помогает придумывать умные и уместные ответы
в переписке — анализирует контекст и предлагает варианты ответа.
Что умеет AI:
- пишет ответы на основе диалога
- генерирует фразы для старта разговора
- помогает формулировать сообщения более интересно
- даёт советы, как поддерживать беседу
- умеет читать и отправлять сообщения через Telegram API
⚡️ Как работает:
- CLI-агент на TypeScript
- мост на Python для работы с Telegram
- AI-ядро (модель)
- semantic search для поиска подходящих фраз
📌 Репозиторий: https://github.com/arlanrakh/talk-to-girlfriend-ai
@Python_Community_ru
Это проект Telegram-бота/агента, который помогает придумывать умные и уместные ответы
в переписке — анализирует контекст и предлагает варианты ответа.
Что умеет AI:
- пишет ответы на основе диалога
- генерирует фразы для старта разговора
- помогает формулировать сообщения более интересно
- даёт советы, как поддерживать беседу
- умеет читать и отправлять сообщения через Telegram API
⚡️ Как работает:
- CLI-агент на TypeScript
- мост на Python для работы с Telegram
- AI-ядро (модель)
- semantic search для поиска подходящих фраз
📌 Репозиторий: https://github.com/arlanrakh/talk-to-girlfriend-ai
@Python_Community_ru
📹 Загрузчик видео с YouTube и других платформ
tuitube — это текстовый интерфейс для загрузки видео с YouTube, 𝕏, Twitch, Instagram и Bilibili с использованием yt-dlp. Удобный инструмент для тех, кто предпочитает командную строку.
🚀 Основные моменты:
- Поддержка множества видео платформ
- Использует yt-dlp для загрузки
- Простой текстовый интерфейс
- Легко настраивается и использует командную строку
📌 GitHub: https://github.com/remorses/tuitube
#python
@Python_Community_ru
tuitube — это текстовый интерфейс для загрузки видео с YouTube, 𝕏, Twitch, Instagram и Bilibili с использованием yt-dlp. Удобный инструмент для тех, кто предпочитает командную строку.
🚀 Основные моменты:
- Поддержка множества видео платформ
- Использует yt-dlp для загрузки
- Простой текстовый интерфейс
- Легко настраивается и использует командную строку
📌 GitHub: https://github.com/remorses/tuitube
#python
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 БЫСТРЫЙ СЕРВЕР ДЛЯ PYTHON ЗА 5 МИНУТ
Нужно быстро поднять сервер под Python-проект без лишней возни?
Ставим системные пакеты, создаём отдельного пользователя, настраиваем venv, делаем systemd-сервис и сразу получаем автозапуск + рестарт при падении.
Идеально для FastAPI / Flask / любых API и ботов.
sudo apt update && sudo apt install -y python3-venv python3-pip nginx
sudo useradd -m -s /bin/bash app && sudo mkdir -p /opt/app && sudo chown -R app:app /opt/app
sudo -u app bash -lc 'cd /opt/app && python3 -m venv venv && ./venv/bin/pip install -U pip uvicorn fastapi'
sudo tee /etc/systemd/system/app.service >/dev/null
@Python_Community_ru
Нужно быстро поднять сервер под Python-проект без лишней возни?
Ставим системные пакеты, создаём отдельного пользователя, настраиваем venv, делаем systemd-сервис и сразу получаем автозапуск + рестарт при падении.
Идеально для FastAPI / Flask / любых API и ботов.
sudo apt update && sudo apt install -y python3-venv python3-pip nginx
sudo useradd -m -s /bin/bash app && sudo mkdir -p /opt/app && sudo chown -R app:app /opt/app
sudo -u app bash -lc 'cd /opt/app && python3 -m venv venv && ./venv/bin/pip install -U pip uvicorn fastapi'
sudo tee /etc/systemd/system/app.service >/dev/null
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 PYTHON СТАРТЕР ДЛЯ ЛЮБОГО ПРОЕКТА
Сохраняй себе это - и используй каждый раз, когда начинаешь новый Python-проект.
Перед тем как писать код, сделай 5 вещей:
- создай правильную структуру проекта
- подними виртуальное окружение
- закрепи зависимости (requirements/poetry)
- добавь линтер и форматтер, чтобы код сразу был норм
- вынеси секреты в .env, а не в код
Это экономит часы на дебаге и делает проект “взрослым” с первой минуты.
1) создать папку проекта
mkdir my_project && cd my_project
2) виртуальное окружение
python -m venv .venv
source .venv/bin/activate
3) базовые файлы
touch main.py requirements.txt .env .gitignore
4) gitignore + env
echo ".venv/
__pycache__/
.env
*.pyc" > .gitignore
# 5) полезный стартовый набор
pip install -U pip
pip install ruff black python-dotenv
https://www.youtube.com/shorts/lnKQ_2UjOfw
@Python_Community_ru
Сохраняй себе это - и используй каждый раз, когда начинаешь новый Python-проект.
Перед тем как писать код, сделай 5 вещей:
- создай правильную структуру проекта
- подними виртуальное окружение
- закрепи зависимости (requirements/poetry)
- добавь линтер и форматтер, чтобы код сразу был норм
- вынеси секреты в .env, а не в код
Это экономит часы на дебаге и делает проект “взрослым” с первой минуты.
1) создать папку проекта
mkdir my_project && cd my_project
2) виртуальное окружение
python -m venv .venv
source .venv/bin/activate
3) базовые файлы
touch main.py requirements.txt .env .gitignore
4) gitignore + env
echo ".venv/
__pycache__/
.env
*.pyc" > .gitignore
# 5) полезный стартовый набор
pip install -U pip
pip install ruff black python-dotenv
https://www.youtube.com/shorts/lnKQ_2UjOfw
@Python_Community_ru
💼 ru-test-assignments - большая база реальных тестовых заданий от IT-компаний
ru-test-assignments - это открытая коллекция настоящих тестовых заданий, которые кандидаты получали на собеседованиях в российских IT-компаниях.
Без абстрактных задач «в вакууме» только то, что реально спрашивают.
Что внутри 👇
• Сотни заданий по направлениям:
Frontend, Backend, QA, Android, iOS, Data Science, DevOps
• Компании из топа рынка:
Avito, Яндекс, Тинькофф, Сбер, Ozon, VK и другие
• Разные языки и стеки:
Python, JavaScript, Go, Java, PHP, Ruby, C#
• Готовые задания можно прикреплять в портфолио (например, через Hexlet CV)
Почему это полезно:
- понимаешь реальные требования рынка
- тренируешься на задачах уровня интервью
- закрываешь пробелы в стеке
- усиливаешь портфолио без выдуманных кейсов
Отличный ресурс для подготовки к собеседованиям и оценки своего уровня.
https://github.com/Hexlet/ru-test-assignments
@Python_Community_ru
ru-test-assignments - это открытая коллекция настоящих тестовых заданий, которые кандидаты получали на собеседованиях в российских IT-компаниях.
Без абстрактных задач «в вакууме» только то, что реально спрашивают.
Что внутри 👇
• Сотни заданий по направлениям:
Frontend, Backend, QA, Android, iOS, Data Science, DevOps
• Компании из топа рынка:
Avito, Яндекс, Тинькофф, Сбер, Ozon, VK и другие
• Разные языки и стеки:
Python, JavaScript, Go, Java, PHP, Ruby, C#
• Готовые задания можно прикреплять в портфолио (например, через Hexlet CV)
Почему это полезно:
- понимаешь реальные требования рынка
- тренируешься на задачах уровня интервью
- закрываешь пробелы в стеке
- усиливаешь портфолио без выдуманных кейсов
Отличный ресурс для подготовки к собеседованиям и оценки своего уровня.
https://github.com/Hexlet/ru-test-assignments
@Python_Community_ru
🧭 LLMRouter - умная маршрутизация запросов между LLM
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
@Python_Community_ru
UIUC (ULab) выложили LLMRouter - проект про то, что скоро станет стандартом в AI-продуктах:
не выбирать “одну лучшую модель”,
а маршрутизировать запросы между несколькими LLM так, чтобы было:
- дешевле
- быстрее
- точнее
Идея простая:
разные модели сильны в разном.
Одна лучше пишет код, другая - рассуждает, третья - дешёвая для рутины.
Но большинство продуктов до сих пор делают тупо:
“все запросы → одна LLM”.
LLMRouter делает наоборот:
- анализирует входной запрос
- оценивает сложность / тип задачи
- выбирает подходящую модель
- может учитывать цену, latency, качество, политики
В итоге:
✅ обычные вопросы идут в дешёвую модель
✅ сложные reasoning-задачи - в сильную
✅ код/инструменты - в специализированную
✅ и всё это автоматически
Почему это важно:
как только у тебя 3-5 моделей (OpenAI/Anthropic/Gemini/open-source),
маршрутизация превращается в экономию десятков тысяч долларов в месяц.
Короче: это “load balancer” для LLM, но с мозгами.
GitHub: https://github.com/ulab-uiuc/LLMRouter
#LLM #AI #Routing #Agents #MLOps
@Python_Community_ru
🔥1
🐸 Microsoft зарелизили FrogMini - модель для дебага и исправления багов.
Что важно:
- Базируется на Qwen3-14B
- Показала SOTA на SWE-Bench Verified: Pass@1 = 45.0% 🔥
Как обучали:
- Использовали SFT (supervised fine-tuning)
- Данные - успешные debugging trajectories (пошаговые цепочки исправлений)
- Эти траектории сгенерированы сильной teacher-моделью (например, **Claude**)
- Источники багов - микс реальных и синтетических датасетов
Идея простая, но мощная:
учим модель не просто писать код, а думать как дебаггер - шаг за шагом.
📌 Теперь Qwen3-14B + правильные траектории = реальный tool для SWE задач.
https://huggingface.co/microsoft/FrogMini-14B-2510
@Python_Community_ru
Что важно:
- Базируется на Qwen3-14B
- Показала SOTA на SWE-Bench Verified: Pass@1 = 45.0% 🔥
Как обучали:
- Использовали SFT (supervised fine-tuning)
- Данные - успешные debugging trajectories (пошаговые цепочки исправлений)
- Эти траектории сгенерированы сильной teacher-моделью (например, **Claude**)
- Источники багов - микс реальных и синтетических датасетов
Идея простая, но мощная:
учим модель не просто писать код, а думать как дебаггер - шаг за шагом.
📌 Теперь Qwen3-14B + правильные траектории = реальный tool для SWE задач.
https://huggingface.co/microsoft/FrogMini-14B-2510
@Python_Community_ru
🌍 Google выпустили TranslateGemma - открытые модели перевода на базе Gemma 3
Google представили TranslateGemma - набор open-source переводчиков, построенных на Gemma 3.
Что важно:
- это не “чат-LLM, который может переводить”, а отдельная линейка моделей именно под перевод
- доступны размеры 4B / 12B / 27B
- поддержка 55 языков
- фокус на практичности: можно запускать на разном железе и встраивать в приложения
Идея простая:
сделать качественный машинный перевод доступным и открытым, чтобы разработчики могли использовать модели локально, в продуктах и сервисах без привязки к закрытым API.
Ещё один шаг к тому, что перевод становится “базовой функцией” прямо внутри открытых моделей.
Анонс: https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/
HF: https://huggingface.co/collections/google/translategemma
@Python_Community_ru
Google представили TranslateGemma - набор open-source переводчиков, построенных на Gemma 3.
Что важно:
- это не “чат-LLM, который может переводить”, а отдельная линейка моделей именно под перевод
- доступны размеры 4B / 12B / 27B
- поддержка 55 языков
- фокус на практичности: можно запускать на разном железе и встраивать в приложения
Идея простая:
сделать качественный машинный перевод доступным и открытым, чтобы разработчики могли использовать модели локально, в продуктах и сервисах без привязки к закрытым API.
Ещё один шаг к тому, что перевод становится “базовой функцией” прямо внутри открытых моделей.
Анонс: https://blog.google/innovation-and-ai/technology/developers-tools/translategemma/
HF: https://huggingface.co/collections/google/translategemma
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
🕐 FastScheduler: “Celery для запуска скриптов по расписанию, но без боли”
Иногда нужно просто:
- запустить функцию каждые 5 минут
- или каждый день в 09:00
- или по cron
…и всё.
Но Celery для этого — реально оверкилл: брокер, воркеры, Redis/RabbitMQ, отдельная инфраструктура.
FastScheduler решает ровно эту задачу:
✅ *in-process* планировщик задач (никаких Redis / брокеров)
✅ decorator-first API — красиво и быстро
✅ async поддержка из коробки
✅ персистентность (состояние сохраняется, переживает рестарты)
✅ опционально — FastAPI dashboard для просмотра задач
Пример того, как выглядит API:
@scheduler.every(5).minutes
def sync_users():
...
@scheduler.daily.at("09:00")
async def morning_report():
Философия простая:
если тебе не нужна распределённость - не бери Celery, попробуй FastScheduler.
Установка:
pip install fastscheduler[all]
📌 GitHub: https://github.com/MichielMe/fastscheduler
@Python_Community_ru
Иногда нужно просто:
- запустить функцию каждые 5 минут
- или каждый день в 09:00
- или по cron
…и всё.
Но Celery для этого — реально оверкилл: брокер, воркеры, Redis/RabbitMQ, отдельная инфраструктура.
FastScheduler решает ровно эту задачу:
✅ *in-process* планировщик задач (никаких Redis / брокеров)
✅ decorator-first API — красиво и быстро
✅ async поддержка из коробки
✅ персистентность (состояние сохраняется, переживает рестарты)
✅ опционально — FastAPI dashboard для просмотра задач
Пример того, как выглядит API:
@scheduler.every(5).minutes
def sync_users():
...
@scheduler.daily.at("09:00")
async def morning_report():
Философия простая:
если тебе не нужна распределённость - не бери Celery, попробуй FastScheduler.
Установка:
pip install fastscheduler[all]
📌 GitHub: https://github.com/MichielMe/fastscheduler
@Python_Community_ru
🔥2
🎨 Генерация изображений с GLM-Image
GLM-Image - это мощная модель генерации изображений, использующая гибридную архитектуру с автогрессивным и диффузионным декодерами. Она превосходно справляется с задачами текстового рендеринга и генерацией изображений с высоким уровнем детализации, поддерживая как текст-в-изображение, так и изображение-в-изображение.
🚀 Основные моменты:
- Гибридная архитектура для высококачественной генерации изображений.
- Поддержка текст-в-изображение и множество задач изображение-в-изображение.
- Модуль обратной связи для улучшения семантического понимания и детализации.
- Высокая точность рендеринга текста в изображениях.
- Доступность через Hugging Face и ModelScope.
📌 GitHub: https://github.com/zai-org/GLM-Image
@Python_Community_ru
GLM-Image - это мощная модель генерации изображений, использующая гибридную архитектуру с автогрессивным и диффузионным декодерами. Она превосходно справляется с задачами текстового рендеринга и генерацией изображений с высоким уровнем детализации, поддерживая как текст-в-изображение, так и изображение-в-изображение.
🚀 Основные моменты:
- Гибридная архитектура для высококачественной генерации изображений.
- Поддержка текст-в-изображение и множество задач изображение-в-изображение.
- Модуль обратной связи для улучшения семантического понимания и детализации.
- Высокая точность рендеринга текста в изображениях.
- Доступность через Hugging Face и ModelScope.
📌 GitHub: https://github.com/zai-org/GLM-Image
@Python_Community_ru
🤖 Автоматизация исследований с NotebookLM
Notebooklm-py — это неофициальная библиотека для работы с Google NotebookLM, позволяющая автоматизировать исследовательские процессы, генерировать контент и интегрировать AI-агентов. Подходит для прототипов и личных проектов, используя Python или командную строку.
🚀Основные моменты:
- Интеграция с AI-агентами и Claude Code
- Автоматизация исследований с импортом источников
- Генерация подкастов, видео и учебных материалов
- Поддержка работы через Python API и CLI
- Использование с неофициальными Google API
📌 GitHub: https://github.com/teng-lin/notebooklm-py
@Python_Community_ru
Notebooklm-py — это неофициальная библиотека для работы с Google NotebookLM, позволяющая автоматизировать исследовательские процессы, генерировать контент и интегрировать AI-агентов. Подходит для прототипов и личных проектов, используя Python или командную строку.
🚀Основные моменты:
- Интеграция с AI-агентами и Claude Code
- Автоматизация исследований с импортом источников
- Генерация подкастов, видео и учебных материалов
- Поддержка работы через Python API и CLI
- Использование с неофициальными Google API
📌 GitHub: https://github.com/teng-lin/notebooklm-py
@Python_Community_ru
🎙️ NVIDIA выпустила PersonaPlex-7B - open-source голосовая диалоговая модель, которая умеет то, что обычно недоступно классическим пайплайнам: **слушать и говорить одновременно**.
Модель:
- 🔓 бесплатная и полностью открытая (MIT)
- 🤗 веса доступны на Hugging Face
- 🧠 full-duplex conversational model (двусторонний “живой” диалог)
Обычно Voice AI устроен так:
ASR → LLM → TTS
Сначала распознаём речь, потом думаем, потом озвучиваем.
Работает эффективно, но диалог получается “роботным”:
говоришь по очереди, без перебиваний, без живой реакции.
PersonaPlex-7B меняет подход.
Она работает на непрерывных аудио-токенах и использует dual-stream transformer, который генерирует текст и аудио параллельно, а не переключает управление между модулями.
Это даёт:
- мгновенные “угу / да / понял” реакции (back-channel)
- естественные перебивания и уточнения
- нормальный ритм разговора, как у человека
Ещё один плюс: управление “персоной” работает zero-shot, без дополнительного дообучения.
Если ты делаешь голосового ассистента или саппорт-агента с низкой задержкой - это очень сильный шаг вперёд.
https://github.com/NVIDIA/personaplex
@Python_Community_ru
Модель:
- 🔓 бесплатная и полностью открытая (MIT)
- 🤗 веса доступны на Hugging Face
- 🧠 full-duplex conversational model (двусторонний “живой” диалог)
Обычно Voice AI устроен так:
ASR → LLM → TTS
Сначала распознаём речь, потом думаем, потом озвучиваем.
Работает эффективно, но диалог получается “роботным”:
говоришь по очереди, без перебиваний, без живой реакции.
PersonaPlex-7B меняет подход.
Она работает на непрерывных аудио-токенах и использует dual-stream transformer, который генерирует текст и аудио параллельно, а не переключает управление между модулями.
Это даёт:
- мгновенные “угу / да / понял” реакции (back-channel)
- естественные перебивания и уточнения
- нормальный ритм разговора, как у человека
Ещё один плюс: управление “персоной” работает zero-shot, без дополнительного дообучения.
Если ты делаешь голосового ассистента или саппорт-агента с низкой задержкой - это очень сильный шаг вперёд.
https://github.com/NVIDIA/personaplex
@Python_Community_ru
🔥3
🧠 Продвинутые советы по работе с Regex в Python
Всегда компилируй регулярные выражения. Это ускоряет работу при многократном использовании, делает код чище и упрощает тестирование.
import re
RE_EMAIL = re.compile(r"\b[A-Z0-9._%+-]+@[A-Z0-9.-]+\.[A-Z]{2,}\b", re.I)
emails = RE_EMAIL.findall(text)
Используй raw-строки и re.VERBOSE, чтобы regex был читаемым, а не выглядел как случайный набор символов.
RE_DATE = re.compile(r"""
\b
(?P\d{4})-(?P0[1-9]|1[0-2])-(?P0[1-9]|[12]\d|3[01])
\b
""", re.VERBOSE)
Если группа не нужна в выводе - делай её non-capturing (?:...). Это уменьшает расходы памяти и путаницу с индексами групп.
re.findall(r"(?:https?://)?(?:www\.)?example\.com/\S+", text)
Используй правильные якоря. \A и \Z безопаснее для валидации, чем ^ и $, которые зависят от флага MULTILINE.
re.match(r"\A\d+\Z", "123\n")
Контролируй код и ставь ограничения.
Бесконтрольный .* — частая причина зависаний и ReDoS.
re.search(r"]{0,2000}>", html)
Lookahead и lookbehind позволяют искать текст без захвата. Это мощный инструмент для точных выборок.
m = re.search(r"(?
@Python_Community_ru
Всегда компилируй регулярные выражения. Это ускоряет работу при многократном использовании, делает код чище и упрощает тестирование.
import re
RE_EMAIL = re.compile(r"\b[A-Z0-9._%+-]+@[A-Z0-9.-]+\.[A-Z]{2,}\b", re.I)
emails = RE_EMAIL.findall(text)
Используй raw-строки и re.VERBOSE, чтобы regex был читаемым, а не выглядел как случайный набор символов.
RE_DATE = re.compile(r"""
\b
(?P\d{4})-(?P0[1-9]|1[0-2])-(?P0[1-9]|[12]\d|3[01])
\b
""", re.VERBOSE)
Если группа не нужна в выводе - делай её non-capturing (?:...). Это уменьшает расходы памяти и путаницу с индексами групп.
re.findall(r"(?:https?://)?(?:www\.)?example\.com/\S+", text)
Используй правильные якоря. \A и \Z безопаснее для валидации, чем ^ и $, которые зависят от флага MULTILINE.
re.match(r"\A\d+\Z", "123\n")
Контролируй код и ставь ограничения.
Бесконтрольный .* — частая причина зависаний и ReDoS.
re.search(r"]{0,2000}>", html)
Lookahead и lookbehind позволяют искать текст без захвата. Это мощный инструмент для точных выборок.
m = re.search(r"(?
@Python_Community_ru
🎨 Генерация изображений с GLM-Image
GLM-Image — это мощная модель генерации изображений, использующая гибридную архитектуру автогрессивного и диффузионного декодера. Она превосходно справляется с задачами текстового рендеринга и генерации сложной информации, обеспечивая высокое качество изображений и детальную проработку.
🚀 Основные моменты:
- Поддержка генерации изображений из текста и редактирования изображений.
- Высокая точность рендеринга текста и семантического понимания.
- Модуль обратной связи для улучшения эстетики и детализации.
- Подходит для задач с высокой информационной плотностью.
📌 GitHub: https://github.com/zai-org/GLM-Image
@Python_Community_ru
GLM-Image — это мощная модель генерации изображений, использующая гибридную архитектуру автогрессивного и диффузионного декодера. Она превосходно справляется с задачами текстового рендеринга и генерации сложной информации, обеспечивая высокое качество изображений и детальную проработку.
🚀 Основные моменты:
- Поддержка генерации изображений из текста и редактирования изображений.
- Высокая точность рендеринга текста и семантического понимания.
- Модуль обратной связи для улучшения эстетики и детализации.
- Подходит для задач с высокой информационной плотностью.
📌 GitHub: https://github.com/zai-org/GLM-Image
@Python_Community_ru
This media is not supported in your browser
VIEW IN TELEGRAM
✔ NVIDIA показала новый разговорный ИИ - PersonaPlex
Суть фичи в том, что модель старается звучать максимально “живым” собеседником, а не просто отвечать по очереди.
Что умеет PersonaPlex:
· Переключать стиль общения (persona) - например строгий учитель, дружелюбный консультант, бармен и т.д.
· Говорить и слушать одновременно - меньше задержек и пауз в диалоге
· Поддакивать на фоне (“угу”, “ок”, “понятно”), пока человек говорит - чтобы разговор был ближе к реальному
· Проект открыт - исходники доступны, можно брать и пробовать самому
▪GitHub (https://github.com/NVIDIA/personaplex)
▪Hugging Face (https://huggingface.co/nvidia/personaplex-7b-v1)
@Python_Community_ru
Суть фичи в том, что модель старается звучать максимально “живым” собеседником, а не просто отвечать по очереди.
Что умеет PersonaPlex:
· Переключать стиль общения (persona) - например строгий учитель, дружелюбный консультант, бармен и т.д.
· Говорить и слушать одновременно - меньше задержек и пауз в диалоге
· Поддакивать на фоне (“угу”, “ок”, “понятно”), пока человек говорит - чтобы разговор был ближе к реальному
· Проект открыт - исходники доступны, можно брать и пробовать самому
▪GitHub (https://github.com/NVIDIA/personaplex)
▪Hugging Face (https://huggingface.co/nvidia/personaplex-7b-v1)
@Python_Community_ru