Когда data-pipelines рушатся, а BI не обновился к утру, виноваты обычно не модели — а инфраструктура.
Сломанный пайплайн, несвоевременное обновление данных или внезапное изменение схемы — каждый ML-инженер сталкивался с ситуацией, когда вместо улучшения моделей приходится разбираться с проблемами в данных.
Для таких моментов создали бота-генератор оправданий. Он предлагает стильные объяснения для случаев, когда:
— данные для обучения застряли в очередях
— фичи оказались несогласованными
— мониторинг моделей показывает аномалии
А если всё ещё дебажите ETL в проде — загляните в Telegram-бота. Протестируйте разные варианты оправданий и делитесь самыми точными с командой — это поможет взглянуть на проблему под новым углом и найти нестандартное решение.
Сломанный пайплайн, несвоевременное обновление данных или внезапное изменение схемы — каждый ML-инженер сталкивался с ситуацией, когда вместо улучшения моделей приходится разбираться с проблемами в данных.
Для таких моментов создали бота-генератор оправданий. Он предлагает стильные объяснения для случаев, когда:
— данные для обучения застряли в очередях
— фичи оказались несогласованными
— мониторинг моделей показывает аномалии
А если всё ещё дебажите ETL в проде — загляните в Telegram-бота. Протестируйте разные варианты оправданий и делитесь самыми точными с командой — это поможет взглянуть на проблему под новым углом и найти нестандартное решение.
😁11
🌍🗣️ Omnilingual ASR: Многоязычное распознавание речи для 1600+ языков
Omnilingual ASR — это открытая система распознавания речи, поддерживающая более 1,600 языков, включая редкие. Она позволяет добавлять новые языки с минимальными примерами, делая технологии распознавания более доступными и инклюзивными для различных сообществ.
🚀Основные моменты:
- Поддержка более 1,600 языков, включая уникальные.
- Простота добавления новых языков без больших наборов данных.
- Использует нулевое обучение и гибкие модели для адаптации.
- Доступен на Hugging Face для демонстрации и использования.
📌 GitHub: https://github.com/facebookresearch/omnilingual-asr
#python
Omnilingual ASR — это открытая система распознавания речи, поддерживающая более 1,600 языков, включая редкие. Она позволяет добавлять новые языки с минимальными примерами, делая технологии распознавания более доступными и инклюзивными для различных сообществ.
🚀Основные моменты:
- Поддержка более 1,600 языков, включая уникальные.
- Простота добавления новых языков без больших наборов данных.
- Использует нулевое обучение и гибкие модели для адаптации.
- Доступен на Hugging Face для демонстрации и использования.
📌 GitHub: https://github.com/facebookresearch/omnilingual-asr
#python
GitHub
GitHub - facebookresearch/omnilingual-asr: Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages
Omnilingual ASR Open-Source Multilingual SpeechRecognition for 1600+ Languages - facebookresearch/omnilingual-asr
😁5👍3🔥2🥰1
🍌Nano Banan хороша!
Промпт: "Make an infographic that explains how the transformer LLM works"
https://aistudio.google.com/
Промпт: "Make an infographic that explains how the transformer LLM works"
https://aistudio.google.com/
👍22🔥12🍌3❤2
ГигаЧат представил обновлённое семейство GigaAM-v3
Giga Acoustic Model — это класс open-source моделей для обработки речи и эмоций. В третьей версии опубликовали базовый аудиоэнкодер GigaAM-v3, улучшенные CTC и RNNT-модели, а также E2E-распознавание с поддержкой пунктуации и нормализации.
Масштаб предобучения значительно вырос: с 50 до 700 тысяч часов аудио на русском языке. Появились новые домены в обучении ASR — от колл-центров до разговорной речи.
Для всего корпуса обучающих данных восстановили пунктуацию и нормализацию через GigaChat Max Audio. Линейка CTC/RNNT и E2E позволяет выбирать между скоростью или максимальным качеством под любые сценарии.
Что по метрикам:
— Открытые датасеты (Golos, OpenSTT, Common Voice, LibriSpeech): паритет с GigaAM-v2.
— Новые домены (WER, v2-RNNT → v3-RNNT):
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
— Пунктуация: v3-e2e-RNNT vs reference + Whisper Forced Decoding — F1-score по запятой 84% vs 62%, остальные знаки ~паритет
— Side-by-Side (Gemini 2.5 Pro as a judge): v3-e2e-RNNT vs Whisper-large-v3 — 70:30 (колл-центр), 64:36 (Common Voice)
Больше про язык, речь и искусственный интеллект в @gigadev_channel. Подписывайтесь на канал, чтобы не пропустить всё самое интересное!
Giga Acoustic Model — это класс open-source моделей для обработки речи и эмоций. В третьей версии опубликовали базовый аудиоэнкодер GigaAM-v3, улучшенные CTC и RNNT-модели, а также E2E-распознавание с поддержкой пунктуации и нормализации.
Масштаб предобучения значительно вырос: с 50 до 700 тысяч часов аудио на русском языке. Появились новые домены в обучении ASR — от колл-центров до разговорной речи.
Для всего корпуса обучающих данных восстановили пунктуацию и нормализацию через GigaChat Max Audio. Линейка CTC/RNNT и E2E позволяет выбирать между скоростью или максимальным качеством под любые сценарии.
Что по метрикам:
— Открытые датасеты (Golos, OpenSTT, Common Voice, LibriSpeech): паритет с GigaAM-v2.
— Новые домены (WER, v2-RNNT → v3-RNNT):
• речь с особенностями 27% → 19%
• колл-центр 13% → 10%
• спонтанная речь 10.3% → 7%
— Пунктуация: v3-e2e-RNNT vs reference + Whisper Forced Decoding — F1-score по запятой 84% vs 62%, остальные знаки ~паритет
— Side-by-Side (Gemini 2.5 Pro as a judge): v3-e2e-RNNT vs Whisper-large-v3 — 70:30 (колл-центр), 64:36 (Common Voice)
Больше про язык, речь и искусственный интеллект в @gigadev_channel. Подписывайтесь на канал, чтобы не пропустить всё самое интересное!
👍12🔥5
🌉🤖 CodexMCP: Интеграция Claude Code и Codex
CodexMCP — это мост между Claude Code и Codex, который позволяет им эффективно сотрудничать в программировании. Проект предлагает улучшенные функции, такие как многократные диалоги и параллельные задачи, что делает взаимодействие AI более интеллектуальным и продуктивным.
🚀Основные моменты:
- Поддержка многократных диалогов и параллельного выполнения задач.
- Усовершенствованное управление контекстом с сохранением сессий.
- Интеграция с Claude Code для анализа требований и архитектуры.
- Возможность отслеживания деталей вывода и обработки ошибок.
📌 GitHub: https://github.com/GuDaStudio/codexmcp
#python
CodexMCP — это мост между Claude Code и Codex, который позволяет им эффективно сотрудничать в программировании. Проект предлагает улучшенные функции, такие как многократные диалоги и параллельные задачи, что делает взаимодействие AI более интеллектуальным и продуктивным.
🚀Основные моменты:
- Поддержка многократных диалогов и параллельного выполнения задач.
- Усовершенствованное управление контекстом с сохранением сессий.
- Интеграция с Claude Code для анализа требований и архитектуры.
- Возможность отслеживания деталей вывода и обработки ошибок.
📌 GitHub: https://github.com/GuDaStudio/codexmcp
#python
👍10🥰5🔥1
- Около 88 % компаний сообщают о регулярном использовании ИИ хотя бы в одной бизнес-функции, но большинство всё ещё остаются на уровне пилотов и экспериментов - без масштабирования на всю организацию и заметного влияния на финальные показатели.
- Компании, которые уже получают значимую выгоду (≈ 6 %), используют ИИ не как инструмент повышения эффективности, а как двигатель роста и инноваций - перестраивают процессы и серьёзно инвестируют в ИИ-компетенции.
"Ожидания респондентов о влиянии ИИ на численность персонала в следующем году расходятся: 32 % ожидают сокращения, 43 % — отсутствие изменений, 13 % - рост."
Мы всё ещё на очень раннем этапе.
https://www.mckinsey.com/capabilities/quantumblack/our-insights/the-state-of-ai#/
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤2🔥1
Forwarded from Machinelearning
Андрей Карпаты
Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».
LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.
Более подробно процесс выглядит так:
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.
⚠️ Для использования нужен API-ключ OpenRouter.
@ai_machinelearning_big_data
#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤3👍3🙈2🫡1
Джеффри Хинтон сообщил Берни Сандерсу, что ИИ может привести к массовой безработице и социальной нестабильности.
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.
Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.
https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
💊15👍14💯4❤2🤔2🤣2🥰1
Искусственный интеллект больше не ограничивается лабораториями. LLM уже встроены в бизнес, продукты и инфраструктуру. Но тех, кто умеет их разворачивать, обучать и внедрять — единицы.
🦾 Курс «LLM Driven Development» от OTUS даст вам системное понимание того, как создавать и эксплуатировать AI-продукты. Вы изучите архитектуру трансформеров, тонкости работы с памятью, оптимизацию и fine-tuning моделей. Освоите LangChain, LlamaIndex, vLLM и научитесь строить мультиагентные AI-системы, объединяя модели в цепочки решений.
Научитесь внедрять LLM в реальные сервисы: от прототипа до продакшна. Поймёте, как интегрировать AI в бэкенд, собирать данные, автоматизировать MLOps и управлять жизненным циклом модели.
➡️ Старт курса уже скоро. Оставьте заявку и станьте одним из первых специалистов, кто понимает LLM не на уровне «подключить API», а на уровне архитектуры и инженерии: https://tglink.io/2820b14152aa?erid=2W5zFJoUwjn
#реклама
О рекламодателе
🦾 Курс «LLM Driven Development» от OTUS даст вам системное понимание того, как создавать и эксплуатировать AI-продукты. Вы изучите архитектуру трансформеров, тонкости работы с памятью, оптимизацию и fine-tuning моделей. Освоите LangChain, LlamaIndex, vLLM и научитесь строить мультиагентные AI-системы, объединяя модели в цепочки решений.
Научитесь внедрять LLM в реальные сервисы: от прототипа до продакшна. Поймёте, как интегрировать AI в бэкенд, собирать данные, автоматизировать MLOps и управлять жизненным циклом модели.
➡️ Старт курса уже скоро. Оставьте заявку и станьте одним из первых специалистов, кто понимает LLM не на уровне «подключить API», а на уровне архитектуры и инженерии: https://tglink.io/2820b14152aa?erid=2W5zFJoUwjn
#реклама
О рекламодателе
🤣4❤2👍1
• Лучший результат в классе кодинга - SWE Verified впервые превышает 80%.
• Лучший результат на Arc-AGI-2 - 37.6%.
• И модель стала заметно дешевле предшественника.
Opus 4.5 примерно на 66% дешевле, чем Opus 4.1 - цена упала с примерно 15 долларов США → до 5 долларов США за миллион входящих токенов и с 75 долларов США → до 25 долларов США за миллион исходящих токенов.
Наиболее вероятные причины:
- значительное повышение эффективности модели
- улучшенная инфраструктура вывода в масштабе
- и стратегическое снижение цен для ускорения внедрения на быстрорастущем рынке.
Крупные сделки с гиперскейлерами окупились. Anthropic выдала модель, которая оказалась неожиданно сильной даже по меркам конца 2025 года.
https://www.anthropic.com/news/claude-opus-4-5
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤4🔥1
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Media is too big
VIEW IN TELEGRAM
⚡️ Hunyuan 3D Engine
Новый высокоточный ИИ-движок сокращает производство коммерческих 3D-ассетов с недель до нескольких минут.
Платформа поддерживает создание объектов из текста, изображений с мультивидовой реконструкцией и даже из простых скетчей. Это делает процесс максимально гибким и доступным как художникам, так и командам в индустрии.
Качество отвечает профессиональному уровню. Новый 3D-DiT модельный стек обеспечивает трёхкратный прирост точности и выдаёт ультра-HD разрешение. Форматы OBJ и GLB легко подключаются к Unreal Engine, Unity и Blender.
Модель также доступна через Tencent Cloud International.
Платформа даёт новым авторам 20 бесплатных генераций в день. Корпоративные клиенты получают 200 бесплатных кредитов при регистрации.
Попробовать движок можно на 3d.hunyuanglobal.com
API: tencentcloud.com/products/ai3d
#AI #3D #Hunyuan3D #Tencent #AItools #3Dgeneration
Новый высокоточный ИИ-движок сокращает производство коммерческих 3D-ассетов с недель до нескольких минут.
Платформа поддерживает создание объектов из текста, изображений с мультивидовой реконструкцией и даже из простых скетчей. Это делает процесс максимально гибким и доступным как художникам, так и командам в индустрии.
Качество отвечает профессиональному уровню. Новый 3D-DiT модельный стек обеспечивает трёхкратный прирост точности и выдаёт ультра-HD разрешение. Форматы OBJ и GLB легко подключаются к Unreal Engine, Unity и Blender.
Модель также доступна через Tencent Cloud International.
Платформа даёт новым авторам 20 бесплатных генераций в день. Корпоративные клиенты получают 200 бесплатных кредитов при регистрации.
Попробовать движок можно на 3d.hunyuanglobal.com
API: tencentcloud.com/products/ai3d
#AI #3D #Hunyuan3D #Tencent #AItools #3Dgeneration
👍6❤3🔥3😁1
Как это — работать в Т-Банке?
Загляните в канал T-Crew, где увидите:
— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.
Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда
erid:2RanynbMUFk
Загляните в канал T-Crew, где увидите:
— жизнь и будни команды;
— ИТ-хабы компании по всей России;
— анонсы мероприятий;
— кейсы, статьи и советы для карьерного роста.
Еще здесь можно раньше других найти вакансии в ИТ и диджитале. За полезным — сюда
erid:2RanynbMUFk
❤5🥴5😍3💅2💊2🥱1
⚡️ Anthropic оценила влияние ассистентов на темпы роста производительности
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.
Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.
Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.
📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
❤4🔥2🥰2👍1
⚡️МЧС тестирует нейросеть для расследования пожаров
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
ИИ, созданный на базе Yandex Cloud, помогает сотрудникам МЧС оформлять протоколы осмотра места пожара за секунды — вместо привычных 40–60 минут.
Система анализирует фото, выделяет ключевые объекты и формирует описание, которое используется в официальных документах.
Пока проект проходит пилот в Академии ГПС МЧС, но планируется масштабирование по всей стране.
Технология может применяться и в страховании или промышленности — для анализа инцидентов и оценки ущерба.
👍19❤3🥰2
🔥 Вышел новый ИИ-учёный от легендарного Эндрю Ына, сооснователя Coursera и преподавателя Стэнфорда.
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
Он делает точнейшие исследования уровня PhD по любой теме.
• Проверяет даже целую диссертацию за секунды — находит ошибки, недочёты, проверяет факты, ссылки и оформление по требованиям вашего университета. Научрук примет работу без мучений, а вы забудете про бесконечные правки.
• ИИ-агент максимально «живой» — работает так, будто это дотошный профессор, который правит всё до последней буквы.
• Итог — пишете быстрее, успеваете больше, и можете публиковаться чаще. Больше никаких месяцев ожидания рецензии — он проверяет и «принимает» работу мгновенно.
https://paperreview.ai/
🤔8❤2🤣2
⚡️ VK RecSys Challenge проходит на датасете VK-LSVD — одном из самых масштабных датасетов для рекомендательных систем.
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
Датасет хронологический, без повторных user–item, с полными метаданными пользователей и клипов. Есть подсэмплы и гибко конфигурируемые выборки (urX / ipX / upX), что делает его удобным для тестирования retrieval-моделей, ранжирования и гибридных систем. Предоставлен шаблон пайплайна для воспроизводимых экспериментов.
На сам VK RecSys Challenge все еще принимают заявки, регистрация открыта до 15 декабря. Призовой фонд — 2 500 000 рублей.
https://habr.com/ru/companies/vk/articles/970350/
#RecSys #ML #Datasets #VK
❤5🔥2🥰1🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
👏1