🖼️ Qwen-Image — мультиязычная генеративная модель от Alibaba. Проект предлагает 20-миллиардную модель для создания изображений с точным рендерингом текста. Модель поддерживает английский и китайский языки, включая сложные шрифтовые композиции и смешанные текстовые блоки. Архитектура сочетает Qwen2.5-VL для анализа текста, VAE для детализации и диффузионное ядро MMDiT.
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
🔥14❤4👍3
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
😁36👍7❤3🔥3🌚1💔1
🚀 Релиз MiMo-VL 2508: тот же размер — больше мощность
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
❤5👍3🔥3
📈 Сэм Альтман ответил на критику запуска GPT-5: OpenAI удваивает лимиты для подписчиков Plus
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
👍7❤4🔥1🌚1
Что такое MWS Data? Как создавали платформу для работы с данными
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
1️⃣ Как проектировали платформу MWS Data и почему пошли дальше Lakehouse
2️⃣ Что лежит в ядре платформы: архитектура и технологии
3️⃣ Какие задачи она решает: от ETL до BI
4️⃣ Какую продуктовую линейку запускает MWS
Кому будет полезно:
▪️ Руководителям бизнеса
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
▪️ CDO / CIO / CTO
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
▪️ ML-инженерам и Data Scientists
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию👈
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
Кому будет полезно:
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
🚀 Выпущен техрепорт GLM-4.5 — мощный Mixture-of-Experts (MoE) LLM с 355 млрд параметров (и 32 млрд активных), оснащённый гибридной логикой: умеет «думать» для сложных задач и сразу отвечать, когда нужно.
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
🟡 Техрепорт
🟡 Страница проекта
🟡 Набор моделей
🟡 Demo
🟡 Сообщество в Discord
🖥 GitHub
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍5🔥3