Media is too big
VIEW IN TELEGRAM
HuggingFace релизнули Gradio 5
Hugging Face выпустила Gradio 5 - обновленную среду для создания и запуска ИИ-приложений.
Ключевые нововведения:
• AI Playground: генерация приложений с помощью естественно-языковых запросов с AI HF.
• Потоковая передача данных с низкой задержкой.
• Улучшенная интеграция с веб-разработкой и хабом моделей Hugging Face.
• Повышенная безопасность корпоративного уровня.
• Новые темы оформления и обновленный дизайн компонентов.
• Готовые примеры для популярных сценариев использования.
В планах: поддержка мобильных устройств, многостраничные приложения и новые типы медиа.
HF превращается не просто в хостинг платформу с хранилкой моделй, а реально в ИИ-хаб.
#HuggingFace #Gradio #MLOps
-------
@tsingular
Hugging Face выпустила Gradio 5 - обновленную среду для создания и запуска ИИ-приложений.
Ключевые нововведения:
• AI Playground: генерация приложений с помощью естественно-языковых запросов с AI HF.
• Потоковая передача данных с низкой задержкой.
• Улучшенная интеграция с веб-разработкой и хабом моделей Hugging Face.
• Повышенная безопасность корпоративного уровня.
• Новые темы оформления и обновленный дизайн компонентов.
• Готовые примеры для популярных сценариев использования.
В планах: поддержка мобильных устройств, многостраничные приложения и новые типы медиа.
HF превращается не просто в хостинг платформу с хранилкой моделй, а реально в ИИ-хаб.
#HuggingFace #Gradio #MLOps
-------
@tsingular
Новые фреймворки объединяют лучшие практики MLOps и LLMOps
Разработчики представили два взаимодополняющих фреймворка для оптимизации ML/LLM проектов.
Ключевые компоненты включают RAG-систему с синтетическими данными, MLflow для логирования, Guardrails для защиты данных.
FastAPI обеспечивает развертывание, а Poetry управляет зависимостями.
Архитектура основана на SOLID-принципах с DAG-ориентированными пайплайнами.
Реализована интеграция с AWS Fargate, поддержка контейнеров и YAML-конфигурации.
Проекты предоставляют готовую инфраструктуру для быстрого старта промышленных ML/LLM решений.
Теперь ML-инженерам не придется изобретать велосипед - все основные компоненты уже собраны в одном месте 🚲
https://github.com/callmesora/llmops-python-package
https://github.com/fmind/mlops-python-package
#MLOps #Python #RAG
-------
@tsingular
Разработчики представили два взаимодополняющих фреймворка для оптимизации ML/LLM проектов.
Ключевые компоненты включают RAG-систему с синтетическими данными, MLflow для логирования, Guardrails для защиты данных.
FastAPI обеспечивает развертывание, а Poetry управляет зависимостями.
Архитектура основана на SOLID-принципах с DAG-ориентированными пайплайнами.
Реализована интеграция с AWS Fargate, поддержка контейнеров и YAML-конфигурации.
Проекты предоставляют готовую инфраструктуру для быстрого старта промышленных ML/LLM решений.
Теперь ML-инженерам не придется изобретать велосипед - все основные компоненты уже собраны в одном месте 🚲
https://github.com/callmesora/llmops-python-package
https://github.com/fmind/mlops-python-package
#MLOps #Python #RAG
-------
@tsingular
👍5⚡2✍2
AIDE: Дерево решений для автоматизации ML-инженерии
Интересная разработка от Weco AI - представили tree-search систему на базе LLM, которая:
- Представляет процесс оптимизации как иерархическое дерево, где каждый узел - потенциальное решение
- Использует search policy для выбора веток для улучшения
- Применяет LLM как "оператор кода" для генерации новых итераций
- Избирательно суммирует важные детали вместо сохранения всей истории взаимодействий
Работает как ML-инженер, который систематически перебирает варианты оптимизации, но делает это очень эффективно, не тратя время на заведомо бесперспективные пути.
Результаты:
- В соревнованиях Kaggle обошел 51.38% участников-людей
- На MLE-Bench Lite в связке с o1-preview улучшил:
- Валидные решения: с 63.6% до 92.4% (почти +30%!!)
- "Золото": с 6.1% до 21.2% (В х3+ раза)
Потенциально это означает существенное сокращение времени и ресурсов на разработку ML-моделей.
Открывает возможности по дообучению моделей в реальном времени.
Грубо говоря главная модель может динамично обучать рой.
⚡️ Ключевое отличие от классического AutoML: AIDE работает с кодом напрямую, а не в предопределенном пространстве поиска. То есть может находить действительно нестандартные решения, как живой ML-инженер.
Правда, остаются вопросы по интерпретируемости решений и масштабируемости на сложные задачи. Но как инструмент автоматизации рутинной ML-разработки - может быть очень перспективно.
Paper
GitHub
#MLOps #AutoML
———
@tsingular
Интересная разработка от Weco AI - представили tree-search систему на базе LLM, которая:
- Представляет процесс оптимизации как иерархическое дерево, где каждый узел - потенциальное решение
- Использует search policy для выбора веток для улучшения
- Применяет LLM как "оператор кода" для генерации новых итераций
- Избирательно суммирует важные детали вместо сохранения всей истории взаимодействий
Работает как ML-инженер, который систематически перебирает варианты оптимизации, но делает это очень эффективно, не тратя время на заведомо бесперспективные пути.
Результаты:
- В соревнованиях Kaggle обошел 51.38% участников-людей
- На MLE-Bench Lite в связке с o1-preview улучшил:
- Валидные решения: с 63.6% до 92.4% (почти +30%!!)
- "Золото": с 6.1% до 21.2% (В х3+ раза)
Потенциально это означает существенное сокращение времени и ресурсов на разработку ML-моделей.
Открывает возможности по дообучению моделей в реальном времени.
Грубо говоря главная модель может динамично обучать рой.
⚡️ Ключевое отличие от классического AutoML: AIDE работает с кодом напрямую, а не в предопределенном пространстве поиска. То есть может находить действительно нестандартные решения, как живой ML-инженер.
Правда, остаются вопросы по интерпретируемости решений и масштабируемости на сложные задачи. Но как инструмент автоматизации рутинной ML-разработки - может быть очень перспективно.
Paper
GitHub
#MLOps #AutoML
———
@tsingular
✍4👍4❤1