Ты когда-нибудь просил LLM вернуть структурированные данные, а в ответ получал обычное предложение?
Без структурированных выходов ты работаешь с сырым текстом, который легко может не совпасть с ожидаемым форматом.
Неожиданные ответы, пропущенные поля или неправильные типы данных приводят к ошибкам, которые легко проскочить на этапе разработки.
PydanticAI использует модели Pydantic, чтобы автоматически валидировать и структурировать ответы LLM.
Ключевые плюсы:
• Типобезопасность во время выполнения за счёт валидированных Python-объектов
• Автоматические ретраи при провале валидации
• Прямой доступ к полям без ручного парсинга
• Интеграция с уже существующими Pydantic-воркфлоу
LangChain тоже умеет это делать, но PydanticAI — более лёгкая альтернатива, когда тебе нужны только структурированные выходы.
Установка PydanticAI:
Узнать больше
Запустить код
👉 @PythonPortal
Без структурированных выходов ты работаешь с сырым текстом, который легко может не совпасть с ожидаемым форматом.
Неожиданные ответы, пропущенные поля или неправильные типы данных приводят к ошибкам, которые легко проскочить на этапе разработки.
PydanticAI использует модели Pydantic, чтобы автоматически валидировать и структурировать ответы LLM.
Ключевые плюсы:
• Типобезопасность во время выполнения за счёт валидированных Python-объектов
• Автоматические ретраи при провале валидации
• Прямой доступ к полям без ручного парсинга
• Интеграция с уже существующими Pydantic-воркфлоу
LangChain тоже умеет это делать, но PydanticAI — более лёгкая альтернатива, когда тебе нужны только структурированные выходы.
Установка PydanticAI:
pip install pydantic-aiУзнать больше
Запустить код
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9😁6❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Meta-agent фреймворк для построения высокопроизводительных multi-agent систем.
ROMA — это open-source meta-agent фреймворк для создания агентов с иерархическим выполнением задач.
Он использует рекурсивную иерархическую архитектуру:
задачи декомпозируются на подзадачи, агенты обрабатывают подзадачи, а результаты агрегируются вверх по дереву.
Всё для того, чтобы упростить разработку сложных агентных workflow, сделав декомпозицию задач, координацию и трассировку более управляемыми.
Ключевые компоненты:
Atomizer — определяет, является ли задача атомарной (можно выполнить сразу) или требует планирования
Planner — разбивает неатомарные задачи на подзадачи
Executor — выполняет атомарные задачи через LLM, API или даже других агентов
Aggregator — собирает результаты подзадач и объединяет их в итог родительской задачи
Рекурсивный цикл выглядит так:
solve(task) → decompose → solve(subtasks) → aggregate results
Фреймворк на 100% open-source.
👉 @PythonPortal
ROMA — это open-source meta-agent фреймворк для создания агентов с иерархическим выполнением задач.
Он использует рекурсивную иерархическую архитектуру:
задачи декомпозируются на подзадачи, агенты обрабатывают подзадачи, а результаты агрегируются вверх по дереву.
Всё для того, чтобы упростить разработку сложных агентных workflow, сделав декомпозицию задач, координацию и трассировку более управляемыми.
Ключевые компоненты:
Atomizer — определяет, является ли задача атомарной (можно выполнить сразу) или требует планирования
Planner — разбивает неатомарные задачи на подзадачи
Executor — выполняет атомарные задачи через LLM, API или даже других агентов
Aggregator — собирает результаты подзадач и объединяет их в итог родительской задачи
Рекурсивный цикл выглядит так:
solve(task) → decompose → solve(subtasks) → aggregate results
Фреймворк на 100% open-source.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯37👍5🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
ML-инженеры это вам: интерактивный обучающий блок по математике для машинного обучения
Недавно там выложили ещё несколько блогов по основам матанализа для машинного обучения, с интерактивными симуляциями.
Среди тем:
- backprop и градиентный спуск
- локальные минимумы и седловые точки
- векторные поля
- ряд Тейлора
- якобиан и гессиан
- частные производные
Материал ориентирован именно на ML-контекст, с упором на наглядность и практическое понимание.✌️
Тренируемся здесь
👉 @PythonPortal
Недавно там выложили ещё несколько блогов по основам матанализа для машинного обучения, с интерактивными симуляциями.
Среди тем:
- backprop и градиентный спуск
- локальные минимумы и седловые точки
- векторные поля
- ряд Тейлора
- якобиан и гессиан
- частные производные
Материал ориентирован именно на ML-контекст, с упором на наглядность и практическое понимание.
Тренируемся здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤28👍14
This media is not supported in your browser
VIEW IN TELEGRAM
Для новичков подгон: бесплатный онлайн-курс по программированию на Python
На сайте можно прямо в браузере запускать код, решать задачки и изучать основы языка шаг за шагом
Начинай прокачку👍
👉 @PythonPortal
На сайте можно прямо в браузере запускать код, решать задачки и изучать основы языка шаг за шагом
Начинай прокачку
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤6
Отличный проект. Изучай что угодно с DeepTutor.
Персонализированный обучающий ассистент на базе ИИ.
Это гораздо больше, чем просто чат-бот. Он помнит твой контекст и прогресс и подстраивается под твой стиль обучения.
И вдобавок он с открытым исходным кодом
👉 @PythonPortal
Персонализированный обучающий ассистент на базе ИИ.
Это гораздо больше, чем просто чат-бот. Он помнит твой контекст и прогресс и подстраивается под твой стиль обучения.
И вдобавок он с открытым исходным кодом
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8🔥3❤2
Совет по Python:
Конкатенация строк через += в цикле имеет сложность O(n²), потому что при каждом сложении создается новая строка.
Используй join() — он дает O(n).
👉 @PythonPortal
Конкатенация строк через += в цикле имеет сложность O(n²), потому что при каждом сложении создается новая строка.
Используй join() — он дает O(n).
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41🤯10❤3🤔3🔥2
Это один из имбовых способов начать учить Python с кучей практики : snakify.org
Функция "запуск кода пошагово" большой козырь этой платформы, что помогает понять как он выполняется и если необходимо, сразу заняться отладкой.
Lets'go it👍
👉 @PythonPortal
Функция "запуск кода пошагово" большой козырь этой платформы, что помогает понять как он выполняется и если необходимо, сразу заняться отладкой.
Lets'go it
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤3
Media is too big
VIEW IN TELEGRAM
NVIDIA вот-вот выпустила новую опенсорс модель для транскрипции Nemotron Speech ASR, спроектированную с нуля под low-latency сценарии, вроде голосовых агентов.
Вот пример голосового агента, собранного на этой модели. Финализация транскрипции занимает 24 мс, а общее voice-to-voice время инференса меньше 500 мс.
Этот агент на самом деле использует сразу три open source модели от NVIDIA:
- Nemotron Speech ASR
- Nemotron 3 Nano 30GB в 4-битной квантизации (вышла в декабре)
- превью-чекпойнт будущей модели Magpie для text-to-speech
Все эти модели реально открытые: доступны веса, обучающие данные, код обучения и код инференса. Это важно. Вчера на CES Дженсен сказал, что в этом году open source модели догонят проприетарные по ряду направлений. NVIDIA явно делает ставку на то, чтобы это произошло. Как говорил Алан Кей, лучший способ предсказать будущее — это изобрести его.
Код самого агента тоже open source. Его можно задеплоить в прод через cloud от modal и pipecat_ai или запускать локально на nvidia DGX Spark или RTX 5090.
Вот технический разбор голосового агента из видео выше: как он устроен, какие три модели NVIDIA используются, как выкатить это в прод и какие есть интересные оптимизации, если гонять всё локально на одной GPU.
Весь код здесь: тут
Задеплоить эти модели в cloud от modal можно очень просто. (DX у Modal реально приятный.)
Для локального запуска придется собрать Docker-контейнер — ну, потому что bleeding edge vLLM, llama.cpp, CUDA под Blackwell и всё такое. Но Dockerfile в репозитории должен без проблем заводиться на DGX Spark и RTX 5090.
👉 @PythonPortal
Вот пример голосового агента, собранного на этой модели. Финализация транскрипции занимает 24 мс, а общее voice-to-voice время инференса меньше 500 мс.
Этот агент на самом деле использует сразу три open source модели от NVIDIA:
- Nemotron Speech ASR
- Nemotron 3 Nano 30GB в 4-битной квантизации (вышла в декабре)
- превью-чекпойнт будущей модели Magpie для text-to-speech
Все эти модели реально открытые: доступны веса, обучающие данные, код обучения и код инференса. Это важно. Вчера на CES Дженсен сказал, что в этом году open source модели догонят проприетарные по ряду направлений. NVIDIA явно делает ставку на то, чтобы это произошло. Как говорил Алан Кей, лучший способ предсказать будущее — это изобрести его.
Код самого агента тоже open source. Его можно задеплоить в прод через cloud от modal и pipecat_ai или запускать локально на nvidia DGX Spark или RTX 5090.
Вот технический разбор голосового агента из видео выше: как он устроен, какие три модели NVIDIA используются, как выкатить это в прод и какие есть интересные оптимизации, если гонять всё локально на одной GPU.
Весь код здесь: тут
Задеплоить эти модели в cloud от modal можно очень просто. (DX у Modal реально приятный.)
Для локального запуска придется собрать Docker-контейнер — ну, потому что bleeding edge vLLM, llama.cpp, CUDA под Blackwell и всё такое. Но Dockerfile в репозитории должен без проблем заводиться на DGX Spark и RTX 5090.
👉 @PythonPortal
❤18🔥3
Выбирай направление:
Промпты, обучение, шпаргалки и полезные ресурсы на каждую тему!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍2💊1
Мы уже упираемся в хард предел всего этого Prompt Engineering.
Если твой агент держится на системном промпте в 3000 слов, это не софт. Это карточный домик.
Меняешь тон общения и ломается логика. Добавляешь новое правило и модель забывает старые.
Я нашел фреймворк который это чинит. Называется Parlant.
Он относится к поведению агента как к коду, а не как к художественному тексту.
Чит-код для продакшен-ИИ: перестань пихать бизнес-логику в статический текстовый файл. Parlant превращает правила в управляемый alignment-слой.
Это убирает бардак продакшен-агентов:
1. Линтер для промптов (проверка когерентности)
Ты задаешь правила. Parlant до рантайма проверяет не противоречат ли они друг другу. Конфликты ловятся раньше чем их увидят пользователи.
2. Динамическая подгрузка гайдлайнов
Хватит платить за отправку всего справочника на каждом шаге. Parlant смотрит на диалог и подмешивает только те правила которые сейчас реально нужны. Меньше контекста = выше точность и ниже стоимость.
3. Разделение логики и языка
Отвязывает что делать (бизнес-логика) от как говорить (LLM). Меняешь, например, политику возвратов в одном месте, и агент сразу обновляется без переписывания всей промпт-цепочки.
Хватит писать спагетти-промпты. Пора проектировать поведение.🤨
👉 @PythonPortal
Если твой агент держится на системном промпте в 3000 слов, это не софт. Это карточный домик.
Меняешь тон общения и ломается логика. Добавляешь новое правило и модель забывает старые.
Я нашел фреймворк который это чинит. Называется Parlant.
Он относится к поведению агента как к коду, а не как к художественному тексту.
Чит-код для продакшен-ИИ: перестань пихать бизнес-логику в статический текстовый файл. Parlant превращает правила в управляемый alignment-слой.
Это убирает бардак продакшен-агентов:
1. Линтер для промптов (проверка когерентности)
Ты задаешь правила. Parlant до рантайма проверяет не противоречат ли они друг другу. Конфликты ловятся раньше чем их увидят пользователи.
2. Динамическая подгрузка гайдлайнов
Хватит платить за отправку всего справочника на каждом шаге. Parlant смотрит на диалог и подмешивает только те правила которые сейчас реально нужны. Меньше контекста = выше точность и ниже стоимость.
3. Разделение логики и языка
Отвязывает что делать (бизнес-логика) от как говорить (LLM). Меняешь, например, политику возвратов в одном месте, и агент сразу обновляется без переписывания всей промпт-цепочки.
Хватит писать спагетти-промпты. Пора проектировать поведение.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥6🌚2
Парень собрал крошечного durable-агента, который при этом уже можно катить в прод
10 строк Python-кода, запущенные через dapr, дают тебе:
→ HTTP endpoint /run
→ Pub/Sub промпты через 10+ брокеров
→ Durable workflow execution
→ Персистентное состояние диалога и воркфлоу
→ Memory на базе ~30 state store реализаций
→ Agent registry discovery
→ Абстракцию для LLM через 10+ провайдеров
→ Conversation API с 10+ LLM-бекендами
→ Agent identity через SPIFFE
→ Secrets из 10+ secret store-ов
→ Config из внешних config store-ов
→ Resiliency (ретраи, таймауты, circuit breakers)
→ Tracing, метрики, логи
Зацени и скажи что думаешь
👉 @PythonPortal
10 строк Python-кода, запущенные через dapr, дают тебе:
→ HTTP endpoint /run
→ Pub/Sub промпты через 10+ брокеров
→ Durable workflow execution
→ Персистентное состояние диалога и воркфлоу
→ Memory на базе ~30 state store реализаций
→ Agent registry discovery
→ Абстракцию для LLM через 10+ провайдеров
→ Conversation API с 10+ LLM-бекендами
→ Agent identity через SPIFFE
→ Secrets из 10+ secret store-ов
→ Config из внешних config store-ов
→ Resiliency (ретраи, таймауты, circuit breakers)
→ Tracing, метрики, логи
Зацени и скажи что думаешь
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤5😁4
Media is too big
VIEW IN TELEGRAM
Это, пожалуй, самая ловкая задача, которую я видел у человекоподобного робота.
Полностью автономно, на движке Sharpa CraftNet (VTLA), с тактильной обратной связью, которая позволяет в реальном времени подстраивать взаимодействие на уровне последних миллиметров.
👉 @PythonPortal
Полностью автономно, на движке Sharpa CraftNet (VTLA), с тактильной обратной связью, которая позволяет в реальном времени подстраивать взаимодействие на уровне последних миллиметров.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30❤8
Ищем новичков во frontend-разработке и вёрстке сайтов.
Айтилогия запускает бесплатное обучение, где будет:
1. Практика на реальном заказе ценой до 10 000₽.
2. Разбор работ куратором.
3. Задачи от Fullstack-разработчика с 12-летним опытом.
4. Именной сертификат.
И главное — ты почувствуешь уверенность.
Потому что увидишь, что выполнить заказ на frontend-проект тебе по силам.
👉 Приходи на бесплатное обучение и зови с собой друзей
🔥 С 2019 Айтилогия стабильно помогает с обучением, практикой, зарабатывать на фрилансе и проходить собеседования.
Айтилогия запускает бесплатное обучение, где будет:
1. Практика на реальном заказе ценой до 10 000₽.
2. Разбор работ куратором.
3. Задачи от Fullstack-разработчика с 12-летним опытом.
4. Именной сертификат.
И главное — ты почувствуешь уверенность.
Потому что увидишь, что выполнить заказ на frontend-проект тебе по силам.
👉 Приходи на бесплатное обучение и зови с собой друзей
🔥 С 2019 Айтилогия стабильно помогает с обучением, практикой, зарабатывать на фрилансе и проходить собеседования.
💊11🤣4🌚2👍1🤯1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁57❤11💊3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Первый по-настоящему открытый аудио-видео модельный стек.
LTX-2 это базовая модель на DiT с полноценными возможностями генерации видео в одном унифицированном варианте.
Спроектирована так, чтобы запускаться локально на потребительских GPU.
- text-to-video
- image-to-video
- и video-to-video режимы
100% open-source
👉 @PythonPortal
LTX-2 это базовая модель на DiT с полноценными возможностями генерации видео в одном унифицированном варианте.
Спроектирована так, чтобы запускаться локально на потребительских GPU.
- text-to-video
- image-to-video
- и video-to-video режимы
100% open-source
Please open Telegram to view this post
VIEW IN TELEGRAM
👀13👍7