This media is not supported in your browser
VIEW IN TELEGRAM
DFlash - это способ ускорить генерацию текста у больших моделей.
Он работает так: одна модель быстро делает черновик, другая - проверяет его и исправляет ошибки.
Почему это круто?
🚀 6.2× быстрее без потери качества на Qwen3-8B
⚡ в 2.5 раза быстрее EAGLE-3
Идея простая:
• диффузионные модели - генерируют быстро, но иногда ошибаются
• автогенеративные (AR) - очень точные, но работают медленно
• DFlash сочетает оба подхода:
диффузия — черновик → AR — проверка и подтверждение
Получается: и быстро, и аккуратно, вместо того, чтобы выбирать одно.
🔗 Блог: https://z-lab.ai/projects/dflash/
💻 Код: https://github.com/z-lab/dflash
🤗 Модели: https://huggingface.co/collections/z-lab/dflash
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15❤8👍4🥰4
Forwarded from Machinelearning
Стэнфордский университет натренировал SleepFM — фундаментальную модель для прогноза целого спектра патологий: от мерцательной аритмии и инфаркта миокарда до деменции и болезни Паркинсона.
Полисомнография — «золотой стандарт» изучения сна: человека обвешивают датчиками (ЭЭГ, ЭКГ, дыхание, мышцы) и пишут гигабайты сырых сигналов.
Но в ML-мире эти данные используются бездарно. Существующие модели тренировались на мелких датасетах сугубо под узкие задачи (найти апноэ, определить фазу сна).
Огромный пласт физиологической информации о здоровье пациента просто игнорировался, потому что размечать вручную сотни часов записи под каждую болячку — невозможно.
К тому же, если в одной клинике датчик ЭЭГ повесили чуть иначе или он отвалился, обычная модель ломалась.
В университете поняли, что врачи-разметчики не нужны, нужны объемы. Они собрали огромный датасет из 585 тыс. часов записей сна более 65 тыс. пациентов и придумали уникальный алгоритм обучения SSL для будущей модели.
Вместо того чтобы учить модель предсказывать диагноз, еt заставили решать пазл: система получает на вход сигналы от 3-x модальностей (сердце, мышцы, дыхание) и должна предсказать эмбеддинг четвертой (мозговые волны).
Это заставляет нейросеть на базе 1D CNN и Transformers выучивать глубокие, скрытые связи между физиологическими процессами.
Модели все равно, какие именно датчики подключены и в каком порядке. Если канал отвалился или отсутствует, attention pooling просто перераспределяет веса, и инференс продолжается.
Получив на вход 1 ночь записи, модель предсказывает риск 130 заболеваний, причем она делает это точнее, чем специализированные модели, обученные с учителем: риск болезни Паркинсона выявляется в 89% случаев, деменции — в 85%, а вероятность сердечного приступа — в 81%.
Авторы работы полагают, что с развитием носимой электроники такая диагностика может перекочевать из лабораторий в умные часы, а тесты модели доказали, что что в шуме сигналов сна может быть скрыта полная медкарта пациента.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21🔥13🥰2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Создание видео с LTX-2
LTX-2 - это уникальная модель для генерации видео с синхронизированным аудио и видео, предлагающая высокое качество и множество режимов работы. Она обеспечивает доступ к API и открытый доступ, что делает её идеальной для продакшн-решений.
🚀 Основные моменты:
- Модель на основе DiT для аудио-видео генерации
- Высокая точность и качество выходных данных
- Поддержка нескольких режимов производительности
- Открытый доступ и API для интеграции
- Доступна демо-версия для тестирования
📌 GitHub: https://github.com/Lightricks/LTX-2
LTX-2 - это уникальная модель для генерации видео с синхронизированным аудио и видео, предлагающая высокое качество и множество режимов работы. Она обеспечивает доступ к API и открытый доступ, что делает её идеальной для продакшн-решений.
🚀 Основные моменты:
- Модель на основе DiT для аудио-видео генерации
- Высокая точность и качество выходных данных
- Поддержка нескольких режимов производительности
- Открытый доступ и API для интеграции
- Доступна демо-версия для тестирования
📌 GitHub: https://github.com/Lightricks/LTX-2
👍6🔥3🥰3
⚡️ Китайский AI-стартап MiniMax Group привлёк $619 млн на IPO в Гонконге.
Акции разместили по верхней границе диапазона - HK$165:
продано 29,2 млн акций.
За компанией стоят крупные игроки:
- Abu Dhabi Investment Authority (ADIA)
- Mirae Asset Securities
MiniMax - один из первых китайских разработчиков LLM, кто реально вышел на биржу.
Компания основана в 2022 году (создатель - экс-топ SenseTime) и делает мультимодальный ИИ, который генерирует:
- текст
- картинки
- видео
- аудио
- музыку
Главное: большую часть денег MiniMax направит в R&D на ближайшие 5 лет.
Китай быстро переходит из стадии “догоняем” в стадию:
выводим LLM-компании на публичный рынок и масштабируем их как Big Tech.
Акции разместили по верхней границе диапазона - HK$165:
продано 29,2 млн акций.
За компанией стоят крупные игроки:
- Abu Dhabi Investment Authority (ADIA)
- Mirae Asset Securities
MiniMax - один из первых китайских разработчиков LLM, кто реально вышел на биржу.
Компания основана в 2022 году (создатель - экс-топ SenseTime) и делает мультимодальный ИИ, который генерирует:
- текст
- картинки
- видео
- аудио
- музыку
Главное: большую часть денег MiniMax направит в R&D на ближайшие 5 лет.
Китай быстро переходит из стадии “догоняем” в стадию:
выводим LLM-компании на публичный рынок и масштабируем их как Big Tech.
❤12👍5🔥3🤔1
Владение Docker - навык, который отличает новичка от профи,
Сегодня почти всё разворачивается в контейнерах.
Если ты не умеешь работать с Docker, ты медленнее, зависим от чужих настроек и постоянно ловишь баги «у меня локально работает».
• как упаковывать проекты в контейнеры
• как поднимать целые системы за минуты
• как избегать типичных ошибок в продакшене
• как делать стабильные и повторяемые окружения
•в нем разобраны все возможные ошибки
Только практика и реальные кейсы от авторов Docker Академии- с нуля до уверенного уровня.
🎁 Скидка 40 процентов действует 48 часов
👉 Записывайся и сделай Docker своим настоящим рабочим инструментом.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤪8👍3🔥2😁2❤1
✔️ Tencent представила диффузионную языковую модель: в 6 раз быстрее классических LLM
WeDLM-8B Instruct использует не авторегрессию, как обычные LLM,
а диффузионный способ генерации текста.
Что это даёт?
🚀 В задачах математического рассуждения модель работает в 3–6 раз быстрее,
чем Qwen3-8B даже с оптимизациями vLLM - при сохранении качества.
Этот релиз ломает старый миф, что «диффузионные модели не подходят для точных текстовых задач».
На практике WeDLM показывает, что такой подход может конкурировать
и даже обходить трансформеры по скорости инференса.
Модель открыта и доступна под лицензией Apache 2.0:
🔗 https://wedlm.github.io
🔗 https://huggingface.co/tencent/WeDLM-8B-Instruct
WeDLM-8B Instruct использует не авторегрессию, как обычные LLM,
а диффузионный способ генерации текста.
Что это даёт?
🚀 В задачах математического рассуждения модель работает в 3–6 раз быстрее,
чем Qwen3-8B даже с оптимизациями vLLM - при сохранении качества.
Этот релиз ломает старый миф, что «диффузионные модели не подходят для точных текстовых задач».
На практике WeDLM показывает, что такой подход может конкурировать
и даже обходить трансформеры по скорости инференса.
Модель открыта и доступна под лицензией Apache 2.0:
🔗 https://wedlm.github.io
🔗 https://huggingface.co/tencent/WeDLM-8B-Instruct
❤10👍5🥰4🥱2
MIT: большие датасеты не всегда нужны - можно вычислить “минимум данных”, который гарантирует лучший ответ
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
Мы привыкли думать так:
чем больше данных соберём - тем точнее решение.
Но исследователи (в том числе команда MIT) показали другой подход: можно алгоритмически определить минимальный набор измерений, который *уже гарантирует оптимальное решение*.
То есть система отвечает на вопрос не “примерно”, а строго:
👉 *какие именно данные нужно собрать, чтобы получить точно лучшее решение*
и где можно остановиться, не теряя качества.
В чём суть (по-человечески):
обычно мы собираем тонны данных “на всякий случай” - чтобы оценить всё подряд.
А новый метод делает иначе:
- находит конкурирующие оптимальные варианты
- и измеряет только то, что реально способно изменить выбор лучшего
- всё остальное - лишнее
Главный кайф:
это не “в среднем работает” и не “в большинстве случаев”.
Метод даёт математическую гарантию:
выбранного маленького набора данных *достаточно*, чтобы получить точный optimum.
Почему это важно:
в задачах вроде
- логистики и маршрутизации
- supply chain
- энергосетей и power grid
Каждое измерение может быть: дорогим, медленным, опасным или редким.
И вместо бесконечного “соберём ещё данных”
появляется принципиальное правило остановки:
собираем только то, что реально влияет на оптимальный выбор - и получаем 100% уверенность.
Это мощный сдвиг “сколько данных нужно?” становится не догадкой, а задачей проектирования с доказательством.
❤15🤔11😁5
Автоматизируем рутину на максимум: вышла Manus Academy - платформа с бесплатными курсами по ИИ-агентам.
Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).
https://academy.manus.im/
Внутри - крепкая база, с которой уже легко заходить в продвинутый вайбкодинг:
научат собирать приложения без кода, настраивать кастомные workflow, и писать промпты, которые реально работают (а не “вода”).
https://academy.manus.im/
👍5❤4🔥3
Сегодня ключевой вопрос уже не в том, использовать ли AI в работе, а в том, как именно его встраивать так, чтобы он приносил пользу, а не создавал новые проблемы.
Когда AI подключается без четкой архитектуры, он быстро превращается в источник нестабильности: ответы начинают зависеть от случайного контекста, качество трудно контролировать, а система плохо переносит рост данных и пользователей. В результате технология, которая должна была упрощать работу, начинает требовать все больше внимания и ручного контроля.
На вебинаре «Прототипирование LLM: от идеи до работающего AI-ассистента» karpovꓸcourses подробно разберут, как проектируются управляемые AI-системы: как выстраивается слой работы с данными через RAG, как ассистент получает доступ к внешним инструментам, как задается логика поведения и ограничения, и как все это соединяется в воспроизводимую архитектуру.
Научитесь строить управляемые AI-системы на бесплатном вебинаре: https://clc.to/erid_2W5zFGvwQ3r
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGvwQ3r
Когда AI подключается без четкой архитектуры, он быстро превращается в источник нестабильности: ответы начинают зависеть от случайного контекста, качество трудно контролировать, а система плохо переносит рост данных и пользователей. В результате технология, которая должна была упрощать работу, начинает требовать все больше внимания и ручного контроля.
На вебинаре «Прототипирование LLM: от идеи до работающего AI-ассистента» karpovꓸcourses подробно разберут, как проектируются управляемые AI-системы: как выстраивается слой работы с данными через RAG, как ассистент получает доступ к внешним инструментам, как задается логика поведения и ограничения, и как все это соединяется в воспроизводимую архитектуру.
Научитесь строить управляемые AI-системы на бесплатном вебинаре: https://clc.to/erid_2W5zFGvwQ3r
Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFGvwQ3r
🤣7🔥4❤3
🚀 GLM-Image теперь open-source
Почти все image-модели умеют делать красивые арты…
но ломаются, когда нужно:
- постер с текстом
- PPT-слайд
- инфографика с логикой
- схема/диаграмма с подписями
GLM-Image решает это иначе:
он комбинирует Autoregressive-модель + Diffusion Decoder, и за счёт этого нормально держит структуру + текст + смысл.
Что умеет:
- ✅ #1 на CVTG-2K и LongText-Bench
- ✅ идеальный многострочный текст
- ✅ сложные диаграммы и логические схемы
- ✅ заточен под NPU training (Ascend / MindSpore)
📌 Model: https://modelscope.cn/models/ZhipuAI/GLM-Image
📌 Github: https://github.com/zai-org/GLM-Image
Почти все image-модели умеют делать красивые арты…
но ломаются, когда нужно:
- постер с текстом
- PPT-слайд
- инфографика с логикой
- схема/диаграмма с подписями
GLM-Image решает это иначе:
он комбинирует Autoregressive-модель + Diffusion Decoder, и за счёт этого нормально держит структуру + текст + смысл.
Что умеет:
- ✅ #1 на CVTG-2K и LongText-Bench
- ✅ идеальный многострочный текст
- ✅ сложные диаграммы и логические схемы
- ✅ заточен под NPU training (Ascend / MindSpore)
📌 Model: https://modelscope.cn/models/ZhipuAI/GLM-Image
📌 Github: https://github.com/zai-org/GLM-Image
❤12🔥5👍2🥰2
Media is too big
VIEW IN TELEGRAM
В этом году масштабируем ML-пилот и не сойдем с ума 💯
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И ес
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJr9UdW
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И ес
80% времени зачастую уходят не на обучение ML-модели, а на объяснение коллегам, почему она принесет профит. А еще на переписывание пайплайна, документации, настройку CI/CD — и все это на этапе пилота. Самое коварное — в статистике, ведь только 10-20% ML-пилотов доходят до прода.
Пока вы были на новогодних каникулах, Selectel вместе с экспертами из «Контура» и «Точка Банка» разобрались, какие ML-проекты достойны релиза. Про экономику ML-проектов и реальные кейсы масштабирования смотрите в новом выпуске подкаста «Сегодня на ретро».
▶️ Что еще интересного есть в Selectel?
Если вы давно хотите развивать ML-проекты, но вам не хватает опыта, посмотрите и другие выпуски «Сегодня на ретро». В них Selectel делится реальными кейсами и бенчмарками успешных ML-моделей для разных бизнес-сегментов.
Selectel не первый год помогает компаниям разворачивать надежную IT-инфраструктуру для AI-решений. И если вы готовы масштабировать пилоты, присмотритесь к мощностям Selectel.
Реклама. АО "Селектел". erid:2W5zFJr9UdW
🤣2🔥1
DeepTutor: AI-ассистент для персонализированного обучения и исследований 🎓🤖
Команда исследует, как агентный ИИ может помогать студентам и исследователям на каждом этапе:
от чтения материалов до практики, идей и управления знаниями.
DeepTutor объединяет: исследование, разбор теории, генерацию заданий и систему заметок в один инструмент, который понимает контекст твоего обучения.
Что умеет DeepTutor
- 📚 Smart Document Q&A
Заливаешь учебники, статьи, технические доки—
получаешь развёрнутые ответы с корректными цитатами.
- 🎨 Визуализация и объяснения
Сложные темы превращаются в понятные схемы
и интерактивные страницы, адаптированные под твой темп.
- 🎯 Генератор практики
Создаёт тесты по твоим материалам —
и даже может имитировать стиль реальных экзаменов.
- 🔬 Исследования и идеи
Помогает с научной работой, отчётами, брейнштормом
и может параллельно вести несколько исследовательских тем.
🔗 Open Source: https://github.com/HKUDS/DeepTutor
Команда исследует, как агентный ИИ может помогать студентам и исследователям на каждом этапе:
от чтения материалов до практики, идей и управления знаниями.
DeepTutor объединяет: исследование, разбор теории, генерацию заданий и систему заметок в один инструмент, который понимает контекст твоего обучения.
Что умеет DeepTutor
- 📚 Smart Document Q&A
Заливаешь учебники, статьи, технические доки—
получаешь развёрнутые ответы с корректными цитатами.
- 🎨 Визуализация и объяснения
Сложные темы превращаются в понятные схемы
и интерактивные страницы, адаптированные под твой темп.
- 🎯 Генератор практики
Создаёт тесты по твоим материалам —
и даже может имитировать стиль реальных экзаменов.
- 🔬 Исследования и идеи
Помогает с научной работой, отчётами, брейнштормом
и может параллельно вести несколько исследовательских тем.
🔗 Open Source: https://github.com/HKUDS/DeepTutor
🔥5❤🔥2👍1