🚀 Flowra - простой и понятный open-source движок для создания AI-воркфлоу.
Это тот же движок, что стоит за FlowBench, и он позволяет собирать сложные pipelines так же легко,
как конструктор LEGO.
Что делает Flowra удобной:
✅ Один движок для всех типов данных: изображения, аудио, видео и 3D
✅ Выполнение через DAG-граф: умное кэширование, параллельность и масштабирование
✅ Подключение моделей ModelScope одной строкой — без сложной настройки
✅ Полный цикл разработки:
flowra create → build → debug → deploy
Итог: вы берёте свою ML-модель и превращаете её в визуальный блок, который можно перетаскивать
и соединять с другими.
✨ Без адских зависимостей. Без мучительного дебага.
🔗 GitHub: https://github.com/modelscope/flowra
📥 FlowBench client: https://modelscope.cn/flowbench/download
Это тот же движок, что стоит за FlowBench, и он позволяет собирать сложные pipelines так же легко,
как конструктор LEGO.
Что делает Flowra удобной:
✅ Один движок для всех типов данных: изображения, аудио, видео и 3D
✅ Выполнение через DAG-граф: умное кэширование, параллельность и масштабирование
✅ Подключение моделей ModelScope одной строкой — без сложной настройки
✅ Полный цикл разработки:
flowra create → build → debug → deploy
Итог: вы берёте свою ML-модель и превращаете её в визуальный блок, который можно перетаскивать
и соединять с другими.
✨ Без адских зависимостей. Без мучительного дебага.
🔗 GitHub: https://github.com/modelscope/flowra
📥 FlowBench client: https://modelscope.cn/flowbench/download
🤔3👍1
🧠Исследование: как в России обновляют ИИ-образование
J'son & Partners сравнили подготовку ИИ-кадров в США, Китае и России — и везде история одна: технологии развиваются, рынок растёт, а образование за ними не успевает. Справляются с этой проблемой по-разному. В Штатах – через автономию вузов и рыночную экономику, в Китае – через жесткое госрегулирование.
В российской модели – через коллаборацию университетов с бигтехамии: запускаются совместные программы, которые затем масштабирует государство – примеры найдете в исследовании.
Также к обучению активно привлекают практиков: около 1200+ экспертов из Яндекса, 1000 инженеров из VK, и более 900 из Т-Банка уже читают курсы, приносят в аудитории актуальные датасеты, архитектуры и доступ к облачным GPU.Обновлять систему помогают те, кто пишет продакшн-код каждый день. С учетом темпов ИИ-рынка, вполне логично.
J'son & Partners сравнили подготовку ИИ-кадров в США, Китае и России — и везде история одна: технологии развиваются, рынок растёт, а образование за ними не успевает. Справляются с этой проблемой по-разному. В Штатах – через автономию вузов и рыночную экономику, в Китае – через жесткое госрегулирование.
В российской модели – через коллаборацию университетов с бигтехамии: запускаются совместные программы, которые затем масштабирует государство – примеры найдете в исследовании.
Также к обучению активно привлекают практиков: около 1200+ экспертов из Яндекса, 1000 инженеров из VK, и более 900 из Т-Банка уже читают курсы, приносят в аудитории актуальные датасеты, архитектуры и доступ к облачным GPU.Обновлять систему помогают те, кто пишет продакшн-код каждый день. С учетом темпов ИИ-рынка, вполне логично.
😁3👍1🤔1🤪1
📘 Новая образовательная книга: Scaling ML Systems от JAX-ML
Проект Scaling Book - это свободно доступный интерактивный онлайн-ресурс, посвящённый масштабированию машинного обучения. Он создан сообществом вокруг JAX и охватывает ключевые методы, практики и архитектурные подходы, которые помогают строить масштабируемые, высокопроизводительные ML-системы.
💡 Что внутри:
— Основы масштабирования моделей и обучения
— Параллелизм данных, параметров и микшированные стратегии
— Технологии распределённого обучения (TPUs/GPUs)
— Оптимизация вычислений и памяти
— Практические примеры на JAX и других стековых инструментах
— Схемы, коды и визуализации для конкретных паттернов обучения
📍 Почему это полезно:
— Подходит как для опытных инженеров ML, так и для тех, кто хочет перейти от прототипов к промышленным ML-системам
— Объединяет теорию и практику распределённого обучения
— Обсуждает реальные ограничения архитектур и пути их решения
— Показывает, как системно мыслить о масштабировании, а не копировать хаки
🔗 Читайте онлайн: jax-ml.github.io/scaling-book
Проект Scaling Book - это свободно доступный интерактивный онлайн-ресурс, посвящённый масштабированию машинного обучения. Он создан сообществом вокруг JAX и охватывает ключевые методы, практики и архитектурные подходы, которые помогают строить масштабируемые, высокопроизводительные ML-системы.
💡 Что внутри:
— Основы масштабирования моделей и обучения
— Параллелизм данных, параметров и микшированные стратегии
— Технологии распределённого обучения (TPUs/GPUs)
— Оптимизация вычислений и памяти
— Практические примеры на JAX и других стековых инструментах
— Схемы, коды и визуализации для конкретных паттернов обучения
📍 Почему это полезно:
— Подходит как для опытных инженеров ML, так и для тех, кто хочет перейти от прототипов к промышленным ML-системам
— Объединяет теорию и практику распределённого обучения
— Обсуждает реальные ограничения архитектур и пути их решения
— Показывает, как системно мыслить о масштабировании, а не копировать хаки
🔗 Читайте онлайн: jax-ml.github.io/scaling-book
👍3
🤖 В страховом секторе формируется стек корпоративных ИИ-сервисов нового поколения
«АльфаСтрахование» внедрит более 10 проектов на технологиях Yandex B2B Tech, направленных на оптимизацию внутренних и клиентских процессов.
Технический контур включает три ключевых направления:
- SourceCraft Code Assistant — LLM-агент для поддержки DevOps-команд. Используется для генерации boilerplate-кода, unit-тестов и анализа изменений в репозиториях.
- Yandex SpeechSense — модуль речевой аналитики, применяющий ASR + NLU-пайплайн для обработки >20K звонков в сутки и последующего fine-tuning моделей на внутренних датасетах.
- Yandex AI Studio — оркестратор LLM-агентов для офисных и HR-воркфлоу (протоколирование встреч, классификация документов, поиск по внутренним данным).
Сценарий — переход от точечных ML-внедрений к распределённой инфраструктуре, где корпоративные процессы описываются как сеть взаимодействующих ИИ-агентов.
https://www.cnews.ru/news/line/2025-12-24_alfastrahovanie_realizuet
«АльфаСтрахование» внедрит более 10 проектов на технологиях Yandex B2B Tech, направленных на оптимизацию внутренних и клиентских процессов.
Технический контур включает три ключевых направления:
- SourceCraft Code Assistant — LLM-агент для поддержки DevOps-команд. Используется для генерации boilerplate-кода, unit-тестов и анализа изменений в репозиториях.
- Yandex SpeechSense — модуль речевой аналитики, применяющий ASR + NLU-пайплайн для обработки >20K звонков в сутки и последующего fine-tuning моделей на внутренних датасетах.
- Yandex AI Studio — оркестратор LLM-агентов для офисных и HR-воркфлоу (протоколирование встреч, классификация документов, поиск по внутренним данным).
Сценарий — переход от точечных ML-внедрений к распределённой инфраструктуре, где корпоративные процессы описываются как сеть взаимодействующих ИИ-агентов.
https://www.cnews.ru/news/line/2025-12-24_alfastrahovanie_realizuet
👍3❤1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Большинство качественных - слишком медленные.
И почти ни одна не решает вопрос аутентичности аудио на уровне архитектуры.
Resemble AI закрыли все три проблемы сразу.
Chatterbox Turbo 0 это:
🟢 <150 мс до первого звука
🟢 Качество уровня SOTA - превосходит более крупные проприетарные модели
🟢 Естественные, программируемые эмоции и интонации
🟢 Zero-shot клонирование голоса всего по 5 секундам аудио
🟢 PerTh watermarking - проверяемое и аутентифицированное аудио
🟢 Полностью open source, никакой «чёрной магии»
Редкий пример, когда скорость, качество и безопасность не идут на компромисс, а работают вместе.
HuggingFace: https://huggingface.co/spaces/ResembleAI/chatterbox-turbo-demo
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍4🔥1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Пусть работают машины, а человек занимается чем-то более приятным
Нельзя замыкаться только на работе, потому что рано или поздно работа может измениться до неузнаваемости. В свежем эпизоде подкаста «Деньги любят техно» своими мыслями о будущем, связанном с развитием ИИ, поделился профессор РАН, научный директор Института искусственного интеллекта МФТИ, директор по направлению ИИ ГосНИИ авиационных систем Юрий Визильтер.
• Какой путь ближе российской сфере ИИ: американский или китайский
• Какие перемены ждут программистов в ближайшие годы
• Почему учиться программированию по-прежнему важно
• Как ИИ поменяет наш быт и работу
• И как не потерять себя в одной профессии
Об этом и многом другом с Юрием Визитером говорил ведущий подкаста Денис Суржко, заместитель руководителя департамента анализа данных и моделирования ВТБ. Получился глубокий разговор о науке, технологиях и людях, которые их создают.
Послушать
Посмотреть
Нельзя замыкаться только на работе, потому что рано или поздно работа может измениться до неузнаваемости. В свежем эпизоде подкаста «Деньги любят техно» своими мыслями о будущем, связанном с развитием ИИ, поделился профессор РАН, научный директор Института искусственного интеллекта МФТИ, директор по направлению ИИ ГосНИИ авиационных систем Юрий Визильтер.
• Какой путь ближе российской сфере ИИ: американский или китайский
• Какие перемены ждут программистов в ближайшие годы
• Почему учиться программированию по-прежнему важно
• Как ИИ поменяет наш быт и работу
• И как не потерять себя в одной профессии
Об этом и многом другом с Юрием Визитером говорил ведущий подкаста Денис Суржко, заместитель руководителя департамента анализа данных и моделирования ВТБ. Получился глубокий разговор о науке, технологиях и людях, которые их создают.
Послушать
Посмотреть
❤3🥰2🔥1🤓1
Forwarded from Machinelearning
Agent Skills for Context Engineering - учим агентов «думать контекстом» 🤖🧠
Этот репозиторий показывает, как прокачать LLM-агентов так, чтобы они лучше понимали задачу, историю диалога и условия, а не просто генерировали ответы.
Чем полезен:
• навыки управления длинным контекстом
• аккуратное структурирование данных и инструкций
• шаблоны для поиска, фильтрации и принятия решений
• примеры реальных сценариев (чаты, задачи с памятью, интеграции)
Часто агенты теряют важные детали, путают шаги и «забывают» цель. Эта библиотека учит их держать контекст под контролем и действовать последовательнее.
▪Github: https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering
@ai_machinelearning_big_data
Этот репозиторий показывает, как прокачать LLM-агентов так, чтобы они лучше понимали задачу, историю диалога и условия, а не просто генерировали ответы.
Чем полезен:
• навыки управления длинным контекстом
• аккуратное структурирование данных и инструкций
• шаблоны для поиска, фильтрации и принятия решений
• примеры реальных сценариев (чаты, задачи с памятью, интеграции)
Часто агенты теряют важные детали, путают шаги и «забывают» цель. Эта библиотека учит их держать контекст под контролем и действовать последовательнее.
▪Github: https://github.com/muratcankoylan/Agent-Skills-for-Context-Engineering
@ai_machinelearning_big_data
👍6🔥3
🏆 Конкурс научных статей Data Fusion Awards 2026
Банк ВТБ и Институт ИИ МГУ ищут авторов работ, которые могут претендовать на звание научного прорыва года в ИИ, а также на главный приз — 1 000 000 рублей.
🤖 Какие темы подойдут:
— Математический аппарат ИИ
— Алгоритмы оптимизации
— Машинное обучение и глубокое обучение
— Нейроморфные вычисления
— Робототехника
— Объяснимый ИИ (Explainable AI)
— Другие смежные области, связанные с инновациями и развитием искусственного интеллекта
🙌 Кто может участвовать:
— Автор научной статьи, опубликованной в журналах или материалах конференций в 2025 году
— Заявитель, который имеет аффилиацию с российской организацией (и это упоминается в подаваемой работе)
— Участник, который является первым в списке авторов подаваемой статьи
Важно: должны быть выполнены все 3 условия!
Победителей будет трое, но для начала необходимо подать заявку. Регистрация доступна до 20 января 2026 года.
Банк ВТБ и Институт ИИ МГУ ищут авторов работ, которые могут претендовать на звание научного прорыва года в ИИ, а также на главный приз — 1 000 000 рублей.
🤖 Какие темы подойдут:
— Математический аппарат ИИ
— Алгоритмы оптимизации
— Машинное обучение и глубокое обучение
— Нейроморфные вычисления
— Робототехника
— Объяснимый ИИ (Explainable AI)
— Другие смежные области, связанные с инновациями и развитием искусственного интеллекта
🙌 Кто может участвовать:
— Автор научной статьи, опубликованной в журналах или материалах конференций в 2025 году
— Заявитель, который имеет аффилиацию с российской организацией (и это упоминается в подаваемой работе)
— Участник, который является первым в списке авторов подаваемой статьи
Важно: должны быть выполнены все 3 условия!
Победителей будет трое, но для начала необходимо подать заявку. Регистрация доступна до 20 января 2026 года.
❤2🤣2
📄 Превращайте тысячи PDF в данные, готовые для LLM - с Vision-First Agentic Document AI!
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
LandingAI представила Agentic Document Extraction (ADE) DPT-2 Mini - облегчённую версию Document Pretrained Transformer 2, специально для потоковой обработки документов.
Идеально для “чистых” цифровых PDF, где визуальный контекст всё ещё важен для точного извлечения.
Подходит для:
• счетов
• договоров
• писем
• служебных записок
• любых аккуратно сформированных PDF
✨ Основные возможности:
• Структурированное извлечение из цифровых документов
• Точное понимание макета простых PDF
• Поддержка разных типов блоков: параграфы, изображения, логотипы, карточки и т.д.
• Надёжная транскрипция английского текста
• Оптимизация под масштаб — быстро, стабильно, экономично
DPT-2 Mini ориентирован на скорость, надёжность и низкую стоимость — когда документы простые, а нужно массовое и чистое структурированное извлечение.
https://github.com/landing-ai/ade-python
🤣6