🔍T-one — открытая русскоязычная модель распознавания речи, выпущенная Т-Технологиями специально для звонков и телефонии
🧠 Главное:
— Обрабатывает речь кусками по 300 мс и запоминает контекст, подходит для реального времени
— Основа — Conformer и CTC-декодер, дополнительно подключается языковая модель (5-грамм, KenLM), чтобы повысить точность
— Задержка небольшая: около 1–1.2 секунды вместе с постобработкой
— Хорошо справляется с шумом, паузами и разговорной речью по телефону (8 кГц)
— Обучена на 80 тысячах часов аудио, в том числе 6 тысяч часов — это реальные телефонные звонки
— Используется в продуктах Т-Банка
— Дает заметно лучшее качество, если подключить языковую модель
https://habr.com/ru/companies/tbank/articles/929850/
🧠 Главное:
— Обрабатывает речь кусками по 300 мс и запоминает контекст, подходит для реального времени
— Основа — Conformer и CTC-декодер, дополнительно подключается языковая модель (5-грамм, KenLM), чтобы повысить точность
— Задержка небольшая: около 1–1.2 секунды вместе с постобработкой
— Хорошо справляется с шумом, паузами и разговорной речью по телефону (8 кГц)
— Обучена на 80 тысячах часов аудио, в том числе 6 тысяч часов — это реальные телефонные звонки
— Используется в продуктах Т-Банка
— Дает заметно лучшее качество, если подключить языковую модель
https://habr.com/ru/companies/tbank/articles/929850/
🔥17❤11🤩3👏2
🚀 Qwen3-Coder — новая мощная open-source модель от Alibaba для кодинга
Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов
📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков
🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)
Попробовать бесплатно можно:
🟡 Через чат: ttps://chat.qwen.ai/)
🟡 GitHub link: https://github.com/QwenLM/qwen-code
🟡 Blog:https://qwenlm.github.io/blog/qwen3-coder/
🟡 Model: https://hf.co/Qwen/Qwen3-Coder-480B-A35B-Instruct
Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.
#qwen #ml #ai #llm #Alibaba
@data_analysis_ml
Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов
📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков
🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)
Попробовать бесплатно можно:
Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.
#qwen #ml #ai #llm #Alibaba
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍9❤7
🚀 Новинка: Code Sandbox MCP — простой интерпретатор кода для ИИ-агентов
Теперь ты можешь запускать код прямо из LLM (например, Gemini) в локальной изолированной среде, которую полностью контролируешь.
🛠 Как работает:
1. Запускается контейнер (Docker или Podman)
2. Код сохраняется во временный файл
3. Файл копируется внутрь контейнера
4. Выполняется (Python, JS и др.)
5. Вывод и ошибки считываются
6. Всё возвращается клиенту
7. Контейнер удаляется
🔗 Примеры и исходники — в блоге и на GitHub
@data_analysis_ml
Теперь ты можешь запускать код прямо из LLM (например, Gemini) в локальной изолированной среде, которую полностью контролируешь.
🛠 Как работает:
1. Запускается контейнер (Docker или Podman)
2. Код сохраняется во временный файл
3. Файл копируется внутрь контейнера
4. Выполняется (Python, JS и др.)
5. Вывод и ошибки считываются
6. Всё возвращается клиенту
7. Контейнер удаляется
🔗 Примеры и исходники — в блоге и на GitHub
@data_analysis_ml
🔥12❤9👍4
🚀 Новый релиз: MegaScience
Открыт крупнейший и самый качественный датасет для постобучения моделей научному мышлению — 1.25 миллиона QA-пар!
🔬 Покрывает 7+ дисциплин: от физики до биомедицины
📚 Вопросы и ответы уровня университетских учебников
📈 Обученные на нём модели обгоняют официальные Instruct-бейзлайны
📄 Статья: https://huggingface.co/papers/2507.16812
🤖 Датасет и модели: https://huggingface.co/MegaScience
💻 Код: https://github.com/GAIR-NLP/MegaScience
🎯 Система оценки: https://github.com/GAIR-NLP/lm-open-science-evaluation
@data_analysis_ml
Открыт крупнейший и самый качественный датасет для постобучения моделей научному мышлению — 1.25 миллиона QA-пар!
🔬 Покрывает 7+ дисциплин: от физики до биомедицины
📚 Вопросы и ответы уровня университетских учебников
📈 Обученные на нём модели обгоняют официальные Instruct-бейзлайны
📄 Статья: https://huggingface.co/papers/2507.16812
🤖 Датасет и модели: https://huggingface.co/MegaScience
💻 Код: https://github.com/GAIR-NLP/MegaScience
🎯 Система оценки: https://github.com/GAIR-NLP/lm-open-science-evaluation
@data_analysis_ml
❤14🔥9👍5
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
OpenAI объявила, что ее следующая конференция для разработчиков, DevDay, состоится 6 октября 2025 года в Сан-Франциско. На мероприятии выступят Сэм Альтман и Грэг Брокман. DevDay традиционно становится площадкой для главных анонсов OpenAI, и в этом году разработчикам обещают ранний доступ к информации о будущих продуктах и технологиях.
Конференция планирует собрать более 1500 разработчиков. Регистрация на очное участие открыта в формате подачи заявок до 30 июля, а приглашения будут разосланы в середине августа. Стоимость участия составит 650 долларов. Для тех, кто не сможет присутствовать лично, будет организована прямая трансляция основной части мероприятия, а записи остальных сессий опубликуют позже.
openai.com
Швейцарская компания Proton, известная своим одноименным почтовым сервисом, выпустила автономного ИИ-ассистента Lumo. Чат-бот позиционируется как безопасная альтернатива продуктам от крупных технологических корпораций.
Lumo умеет обобщать документы, писать код, составлять черновики писем и отвечать на веб-запросы. Сервис работает исключительно на открытых языковых моделях, размещенных в собственных дата-центрах Proton в Европе. Вся переписка защищена сквозным шифрованием с "нулевым доступом", что не позволяет самой компании или третьим лицам читать и хранить сообщения.
Попробовать Lumo можно без регистрации через веб-клиент или мобильные приложения, но с ограничениями. Платная подписка Lumo Plus за $12.99 в месяц снимает лимиты на общение и позволяет загружать файлы большего размера.
proton.me
Google DeepMind выпустила Aeneas, опенсорсный инструмент на базе ИИ, предназначенный для помощи историкам в работе с фрагментарными древними надписями. Система анализирует неполные транскрипции и изображения, после чего определяет вероятное место и дату происхождения текста, предлагает варианты недостающих слов и находит аналоги в корпусе известных надписей.
Модель, обученная на 200 000 каталогизированных текстов, является развитием более ранней системы Ithaca для греческого языка. В исследовании, опубликованном в Nature, Aeneas улучшил генерацию научных гипотез в 90% случаев, а его оценки происхождения и датировки совпали с консенсусом ученых.
Aeneas доступна бесплатно для ученых, преподавателей и сотрудников музеев.
theguardian.com
Amazon Web Services объявила о закрытии своей исследовательской ИИ-лаборатории в Шанхае. В компании это решение назвали трудным, оно завершает семилетнюю историю работы центра, который занимался передовыми разработками в области машинного обучения. По словам одного из научных сотрудников, подразделение расформировывают из-за "стратегических корректировок на фоне напряженности между США и Китаем".
Лаборатория, открытая в 2018 году, была весьма продуктивной: на ее счету более 100 научных публикаций и создание популярной open-source библиотеки Deep Graph Library. В лучшие времена в ней работало более 1000 человек.
ft.com
Устройство, разработанное в Reality Labs представляет собой браслет, который считывает электрическую активность мышц предплечья (sEMG), напрямую декодируя двигательные намерения пользователя.
Главное достижение - разработка универсальной модели, обученной на данных тысяч людей. В отличие от аналогов, требующих длительной настройки под каждого человека, эта система работает из коробки, без предварительной калибровки под новых пользователей.
В тестах интерфейс продемонстрировал распознавание рукописного ввода со скоростью почти 21 слово в минуту, точное определение дискретных жестов (щипки, свайпы) и плавное управление курсором. При этом короткая персональная донастройка на данных конкретного пользователя может повысить точность еще на 16%.
nature.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11👍3🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🎙 Lex Fridman выпустил новое интервью с Demis Hassabis — CEO Google DeepMind.
🔍 В подкасте — всё, что волнует мир ИИ:
— будущее AI & AGI
— моделирование биологии и физики
— видеоигры, программирование, генерация видео
— world models и Gemini 3
— scaling laws, вычисления, P vs NP
— сложность, энергия, солнце и термояд
и многое другое.
💡 Техническое, глубокое и очень увлекательное интервью. Настоящий разговор о том, куда идёт ИИ.
📺 Смотреть на youtube
📺 Смотреть в X
@data_analysis_ml
🔍 В подкасте — всё, что волнует мир ИИ:
— будущее AI & AGI
— моделирование биологии и физики
— видеоигры, программирование, генерация видео
— world models и Gemini 3
— scaling laws, вычисления, P vs NP
— сложность, энергия, солнце и термояд
и многое другое.
💡 Техническое, глубокое и очень увлекательное интервью. Настоящий разговор о том, куда идёт ИИ.
📺 Смотреть на youtube
📺 Смотреть в X
@data_analysis_ml
🔥14❤6👍3🤨1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Сооснователь Anthropic Бен Манн:
🧠 «Вероятность того, что суперинтеллект появится в ближайшие годы — около 50%.
И это не просто спекуляция — за этим стоят данные, законы масштабирования и чёткие научные тренды».
Он подчёркивает: даже если технический прорыв случится быстро,
его влияние на общество может проявиться с задержкой — через годы.
📌 Вопрос уже не в том, "если", а "как скоро" — и что мы с этим сделаем.
🧠 «Вероятность того, что суперинтеллект появится в ближайшие годы — около 50%.
И это не просто спекуляция — за этим стоят данные, законы масштабирования и чёткие научные тренды».
Он подчёркивает: даже если технический прорыв случится быстро,
его влияние на общество может проявиться с задержкой — через годы.
📌 Вопрос уже не в том, "если", а "как скоро" — и что мы с этим сделаем.
👍16❤11🤨9🔥4🍌2🎉1
🚀 Команда Qwen только что представила новую модель: Qwen3‑235B‑A22B‑Thinking‑2507, нацеленную на глубокие рассуждения.
За последние 3 месяца модель была масштабирована и доработана специально для задач логики, математики, науки и программирования. Среди ключевых улучшений:
✅ Улучшенные способности к рассуждению, решению задач и анализу
✅ Повышенная точность в следовании инструкциям и использовании инструментов
✅ Поддержка нативного 256K контекста — для полноценной работы с длинными цепочками мыслей
🧠 Модель изначально работает в режиме reasoning — включать ничего не нужно. Она самостоятельно строит длинные логические цепочки, обеспечивая максимальную глубину и точность.
🟡 Hugging Face: https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507
or https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507-FP8
🟡 ModelScope: https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507
or https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507-FP8
🟡 API Doc: https://alibabacloud.com/help/en/model-studio/models#16ff9753e1ctz
🧩 Новый Thinking‑режим поднимает планку для reasoning‑моделей в открытом доступе.
@data_analysis_ml
За последние 3 месяца модель была масштабирована и доработана специально для задач логики, математики, науки и программирования. Среди ключевых улучшений:
✅ Улучшенные способности к рассуждению, решению задач и анализу
✅ Повышенная точность в следовании инструкциям и использовании инструментов
✅ Поддержка нативного 256K контекста — для полноценной работы с длинными цепочками мыслей
🧠 Модель изначально работает в режиме reasoning — включать ничего не нужно. Она самостоятельно строит длинные логические цепочки, обеспечивая максимальную глубину и точность.
or https://huggingface.co/Qwen/Qwen3-235B-A22B-Thinking-2507-FP8
or https://modelscope.cn/models/Qwen/Qwen3-235B-A22B-Thinking-2507-FP8
🧩 Новый Thinking‑режим поднимает планку для reasoning‑моделей в открытом доступе.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7👍5🔥3
🔮 SuperDuperDB — фреймворк для создания AI-приложений, напрямую интегрированных с базами данных. Позволяет развертывать модели машинного обучения и векторные поиски прямо в MongoDB, SQL, Snowflake или Redis, избегая сложных ETL-процессов.
Вместо выгрузки данных в отдельные ML-пайплайны, вы добавляете AI-функциональность поверх существующей БД через простые Python-декораторы. Поддерживает популярные библиотеки вроде PyTorch и Hugging Face, что упрощает переход от прототипа к продакшену.
🤖 GitHub
@data_analysis_ml
Вместо выгрузки данных в отдельные ML-пайплайны, вы добавляете AI-функциональность поверх существующей БД через простые Python-декораторы. Поддерживает популярные библиотеки вроде PyTorch и Hugging Face, что упрощает переход от прототипа к продакшену.
🤖 GitHub
@data_analysis_ml
🔥10👍4🥰4🤔2🤣2
Андрей Рыбинцев из Авито стал управляющим директором по ИИ
Также в компании будет сформирован новый кластер AI Experience. В этой роли вместе с командой из 900 специалистов он будет работать над развитием ассистентов на базе генеративных моделей, внедрение агентского ИИ и интеграцию ML в бизнес-процессы. Эти структурные изменения — сигнал, что компания настроена серьезно качнуть ИИ-направление.
За 10 лет в компании Рыбинцев курировал ключевые технологии: антифрод, автоматическую модерацию, IMV, A-Vibe, A-Vision. Сейчас фокус — системное масштабирование.
Также в компании будет сформирован новый кластер AI Experience. В этой роли вместе с командой из 900 специалистов он будет работать над развитием ассистентов на базе генеративных моделей, внедрение агентского ИИ и интеграцию ML в бизнес-процессы. Эти структурные изменения — сигнал, что компания настроена серьезно качнуть ИИ-направление.
За 10 лет в компании Рыбинцев курировал ключевые технологии: антифрод, автоматическую модерацию, IMV, A-Vibe, A-Vision. Сейчас фокус — системное масштабирование.
👍6🔥5🥱4🙏2🥰1🤔1👌1🌭1
📊 Argilla — инструмент для создания качественных датасетов под AI. Проект помогает разработчикам и экспертам совместно работать над разметкой данных для NLP, LLM и мультимодальных моделей.
Платформа предлагает удобный интерфейс для аннотирования с фильтрами, семантическим поиском и AI-подсказками. Argilla используют в Red Cross и других организациях для задач классификации, RAG и тонкой настройки моделей.
🤖 GitHub
@data_analysis_ml
Платформа предлагает удобный интерфейс для аннотирования с фильтрами, семантическим поиском и AI-подсказками. Argilla используют в Red Cross и других организациях для задач классификации, RAG и тонкой настройки моделей.
🤖 GitHub
@data_analysis_ml
❤13🔥4👍3
Популярный ютубер (совместно с Welch Labs) простыми словами и красивой анимацией объяснил, как работают генераторы изображений и видео.
▪ 40 минут — от основ до тонкостей
▪ Для новичков + русские субтитры
P.S. Отличный вариант для первого знакомства с технологией и анимация на канале вышла реально на новый уровень!
@data_analysis_ml
#ИИ #ДиффузионныеМодели #МашинноеОбучение
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
But how do AI images/videos actually work? | Guest video by @WelchLabsVideo
Diffusion models, CLIP, and the math of turning text into images
Welch Labs Book: https://www.welchlabs.com/resources/imaginary-numbers-book
Sections
0:00 - Intro
3:37 - CLIP
6:25 - Shared Embedding Space
8:16 - Diffusion Models & DDPM
11:44 - Learning Vector…
Welch Labs Book: https://www.welchlabs.com/resources/imaginary-numbers-book
Sections
0:00 - Intro
3:37 - CLIP
6:25 - Shared Embedding Space
8:16 - Diffusion Models & DDPM
11:44 - Learning Vector…
🔥16👍5❤4
🤖 Mcp-telegram* — Telegram-клиент для AI-агентов
Этот проект позволяет подключить LLM-агента к Telegram через простую оболочку. По сути, это каркас, который превращает любую LLM (через API) в полноценного Telegram-бота.
🧩 Особенности:
— Поддержка OpenAI API (можно подключить GPT-4, GPT-3.5 и др.)
— Хранение диалогов в SQLite
— История чатов и контекст сохраняются между сообщениями
— Обработка команд и markdown-разметки
— Поддержка нескольких пользователей (по Telegram ID)
📦 Используется:
— Python
—
—
—
👨💻 Подходит для:
— Быстрого запуска собственного GPT-бота в Telegram
— MVP-прототипов
— Экспериментов с интерфейсами тг
🔗 GitHub
@data_analysis_ml
Этот проект позволяет подключить LLM-агента к Telegram через простую оболочку. По сути, это каркас, который превращает любую LLM (через API) в полноценного Telegram-бота.
🧩 Особенности:
— Поддержка OpenAI API (можно подключить GPT-4, GPT-3.5 и др.)
— Хранение диалогов в SQLite
— История чатов и контекст сохраняются между сообщениями
— Обработка команд и markdown-разметки
— Поддержка нескольких пользователей (по Telegram ID)
📦 Используется:
— Python
—
python-telegram-bot
—
openai
—
sqlite3
👨💻 Подходит для:
— Быстрого запуска собственного GPT-бота в Telegram
— MVP-прототипов
— Экспериментов с интерфейсами тг
uv tool install mcp-telegram
🔗 GitHub
@data_analysis_ml
👍11❤7🔥5🥱3
⚡️ Почему лучшие разработчики всегда на шаг впереди?
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Devops: t.iss.one/DevOPSitsec
Базы данных: t.iss.one/sqlhub
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/devops_teleg
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Data Science: t.iss.one/datascienceiot
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
🖥 Chatgpt для кода в тг: @Chatgpturbobot -
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Потому что они знают, где брать настоящие инсайд!
Оставь “программирование в вакууме” в прошлом, выбирай свой стек — подпишись и погружайся в поток идей, лайфхаков и знаний, которые не найдёшь в открытом доступе.
ИИ: t.iss.one/ai_machinelearning_big_data
Python: t.iss.one/pythonl
Linux: t.iss.one/linuxacademiya
Devops: t.iss.one/DevOPSitsec
Базы данных: t.iss.one/sqlhub
Мл собес t.iss.one/machinelearning_interview
C++ t.iss.one/cpluspluc
Docker: t.iss.one/devops_teleg
Хакинг: t.iss.one/linuxkalii
МЛ: t.iss.one/machinelearning_ru
Data Science: t.iss.one/datascienceiot
Javascript: t.iss.one/javascriptv
C#: t.iss.one/csharp_ci
Java: t.iss.one/java_library
Python собеседования: t.iss.one/python_job_interview
Мобильная разработка: t.iss.one/mobdevelop
Golang: t.iss.one/Golang_google
React: t.iss.one/react_tg
Rust: t.iss.one/rust_code
ИИ: t.iss.one/vistehno
PHP: t.iss.one/phpshka
Android: t.iss.one/android_its
Frontend: t.iss.one/front
Big Data: t.iss.one/bigdatai
МАТЕМАТИКА: t.iss.one/data_math
Kubernets: t.iss.one/kubernetc
Разработка игр: https://t.iss.one/gamedev
Физика: t.iss.one/fizmat
SQL: t.iss.one/databases_tg
Папка Go разработчика: t.iss.one/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.iss.one/addlist/eEPya-HF6mkxMGIy
Папка ML: https://t.iss.one/addlist/2Ls-snqEeytkMDgy
Папка FRONTEND: https://t.iss.one/addlist/mzMMG3RPZhY2M2Iy
🎓954ГБ ОПЕНСОРС КУРСОВ: @courses
😆ИТ-Мемы: t.iss.one/memes_prog
🇬🇧Английский: t.iss.one/english_forprogrammers
🧠ИИ: t.iss.one/vistehno
📕Ит-книги: https://t.iss.one/addlist/BkskQciUW_FhNjEy
💼ИТ-вакансии t.iss.one/addlist/_zyy_jQ_QUsyM2Vi
Подпишись, чтобы всегда знать, куда двигаться дальше!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Pusa 1.0 — простой и быстрый способ превращать картинки в видео
Это новая модель на основе Wan2.1-T2V-14B, специально обученная для задач image-to-video. По сравнению с предыдущей версией (Wan-I2V-14B), она показывает заметные улучшения:
– Обучение обошлось всего в $500 (в 200 раз дешевле)
– Генерация видео работает в 5 раз быстрее
– Поддерживает задание начального и конечного кадра, продление видео и его «достраивание»
Модель получилась компактной, дешёвой в обучении и удобной для реального использования.
📌 Идеально подойдёт для визуальных историй, коротких видео и экспериментов с генерацией.
🟢 project page: https://yaofang-liu.github.io/Pusa_Web/
🟢 code: https://github.com/Yaofang-Liu/Pusa-VidGentd
🟢 model: https://huggingface.co/RaphaelLiu/PusaV1
Это новая модель на основе Wan2.1-T2V-14B, специально обученная для задач image-to-video. По сравнению с предыдущей версией (Wan-I2V-14B), она показывает заметные улучшения:
– Обучение обошлось всего в $500 (в 200 раз дешевле)
– Генерация видео работает в 5 раз быстрее
– Поддерживает задание начального и конечного кадра, продление видео и его «достраивание»
Модель получилась компактной, дешёвой в обучении и удобной для реального использования.
📌 Идеально подойдёт для визуальных историй, коротких видео и экспериментов с генерацией.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤6👍4
🚀 GSPO: Group Sequence Policy Optimization — новый прорыв в RL-обучении больших языковых моделей!
Что делает GSPO особенным:
🔹 Последовательностная оптимизация (sequence-level RL), строго согласованная с функцией награды
🔹 Высочайшая стабильность — даже на больших MoE-моделях, без коллапса
🔹 Без костылей вроде Routing Replay — обучение стало проще и чище
🔹 Легко масштабируется: больше вычислений = лучше результат ✅
🔥 Используется в новых Qwen3 (Instruct, Coder, Thinking)
📉 Дает более чистые градиенты, быструю сходимость и меньшие требования к инфраструктуре по сравнению с GRPO
🧠 GSPO = стабильно, масштабируемо, идеально для продакшна.
📄 Статья: https://huggingface.co/papers/2507.18071
Что делает GSPO особенным:
🔹 Последовательностная оптимизация (sequence-level RL), строго согласованная с функцией награды
🔹 Высочайшая стабильность — даже на больших MoE-моделях, без коллапса
🔹 Без костылей вроде Routing Replay — обучение стало проще и чище
🔹 Легко масштабируется: больше вычислений = лучше результат ✅
🔥 Используется в новых Qwen3 (Instruct, Coder, Thinking)
📉 Дает более чистые градиенты, быструю сходимость и меньшие требования к инфраструктуре по сравнению с GRPO
🧠 GSPO = стабильно, масштабируемо, идеально для продакшна.
📄 Статья: https://huggingface.co/papers/2507.18071
❤10👍6🔥4
LoRA-модули давно стали стандартом для кастомизации моделей генерации изображений. Но большинство гайдов не показывают, как эффективно запускать *LoRA-инференс* в проде.
Новая статья от команды HuggingFace раскрывает, как добиться ускорения LoRA-инференса на моделях семейства *Flux*.
⚡ Что в рецепте оптимизации:
1. torch.compile() — ускорение инференса на уровне графа
2. *Flash Attention 3* — если модель поддерживает
3. Динамическая *FP8-квантизация весов* — если совместимо с GPU
4. *Hotswapping LoRA* — смена адаптеров без полной перекомпиляции 🤯
📊 Тестировали на:
— Flux.1-Dev
— NVIDIA H100 и RTX 4090
— Ускорение минимум в 2 раза
Подход в целом применим и к AMD‑GPU.
🔗 Читайте статью и смотрите код:
https://huggingface.co/blog/lora-fast
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍5🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
🎨 Встречайте Neta Lumina — самую продвинутую open-source модель для генерации аниме-артов!
Это уже 4-я модель в линейке, и она впечатляет:
🔹 Точная настройка под 200+ аниме-стилей: от Guofeng и Furry до пейзажей и редких тем
🔹 Хорошая согласованность промптов, даже при длинных описаниях на естественном языке
🔹 Мультиязычная поддержка
🔥 Идеальный выбор для художников, аниматоров и фанатов генеративного арта.
🔹 Model on Hugging Face (Commercial use allowed):https://huggingface.co/neta-art/Neta-Lumina
🔹 Playground (Free to test):https://huggingface.co/spaces/neta-art/NetaLumina_T2I_Playground
⚙️ Supports ComfyUI, LoRA tutorial → https://docs.google.com/document/d/1fSp8wgraQeeaM58DVbnFoRULyyhPvt3MgY0Qja0Otc0/edit?tab=t.0
@data_analysis_ml
Это уже 4-я модель в линейке, и она впечатляет:
🔹 Точная настройка под 200+ аниме-стилей: от Guofeng и Furry до пейзажей и редких тем
🔹 Хорошая согласованность промптов, даже при длинных описаниях на естественном языке
🔹 Мультиязычная поддержка
🔥 Идеальный выбор для художников, аниматоров и фанатов генеративного арта.
🔹 Model on Hugging Face (Commercial use allowed):https://huggingface.co/neta-art/Neta-Lumina
🔹 Playground (Free to test):https://huggingface.co/spaces/neta-art/NetaLumina_T2I_Playground
⚙️ Supports ComfyUI, LoRA tutorial → https://docs.google.com/document/d/1fSp8wgraQeeaM58DVbnFoRULyyhPvt3MgY0Qja0Otc0/edit?tab=t.0
@data_analysis_ml
👍8❤5🔥4
🚨 GLM‑4.5 и GLM‑4.5‑Air от Zai_org — открытые MoE‑модели, способные тягаться с Claude 4 Opus и обгоняющие Gemini 2.5 Pro.
🔹 GLM‑4.5: 355B параметров (32B активных)
🔹 GLM‑4.5‑Air: 106B параметров (12B активных)
🔹 Поддержка *128K контекста* + *function calling*
🔹 Два режима работы:
🧠 «Thinking mode» — для сложных задач
⚡ «Non-thinking mode» — для мгновенных ответов
📊 Бенчмарки:
– AIME24: 91.0 (vs. Claude Opus — 75.7)
– MATH 500: 98.2 (vs. GPT‑4.1 — 96.7)
– GPQA: 79.1 (vs. Gemini 2.5 Pro — 84.4)
– SWE‑bench: 64.2 (vs. Claude Sonnet — 70.4)
– Terminal‑Bench: 37.5 (vs. Claude Opus — 43.2)
🧬 Архитектура:
– MoE с балансирующим роутингом без потерь
– Больше слоёв, меньше экспертов → глубже и «умнее»
– GQA с Partial RoPE и 96 голов внимания
– Обучена на 15T общих + 7T кода и reasoning‑токенов
MIT‑лицензия 🔥
🟢 Модель: https://huggingface.co/zai-org/GLM-4.5
🟢 Попробовать: https://chat.z.ai/
@data_analysis_ml
🔹 GLM‑4.5: 355B параметров (32B активных)
🔹 GLM‑4.5‑Air: 106B параметров (12B активных)
🔹 Поддержка *128K контекста* + *function calling*
🔹 Два режима работы:
🧠 «Thinking mode» — для сложных задач
⚡ «Non-thinking mode» — для мгновенных ответов
📊 Бенчмарки:
– AIME24: 91.0 (vs. Claude Opus — 75.7)
– MATH 500: 98.2 (vs. GPT‑4.1 — 96.7)
– GPQA: 79.1 (vs. Gemini 2.5 Pro — 84.4)
– SWE‑bench: 64.2 (vs. Claude Sonnet — 70.4)
– Terminal‑Bench: 37.5 (vs. Claude Opus — 43.2)
🧬 Архитектура:
– MoE с балансирующим роутингом без потерь
– Больше слоёв, меньше экспертов → глубже и «умнее»
– GQA с Partial RoPE и 96 голов внимания
– Обучена на 15T общих + 7T кода и reasoning‑токенов
MIT‑лицензия 🔥
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥8👍4⚡1