Анализ данных (Data analysis)
46.3K subscribers
2.33K photos
269 videos
1 file
2.06K links
Data science, наука о данных.

@haarrp - админ

@itchannels_telegram - 🔥 главное в ит

@ai_machinelearning_big_data - ML

@machinelearning_interview - вопросы с собесдований по Ml

РКН: clck.ru/3FmyAp
Download Telegram
🖼️ Qwen-Image — мультиязычная генеративная модель от Alibaba. Проект предлагает 20-миллиардную модель для создания изображений с точным рендерингом текста. Модель поддерживает английский и китайский языки, включая сложные шрифтовые композиции и смешанные текстовые блоки. Архитектура сочетает Qwen2.5-VL для анализа текста, VAE для детализации и диффузионное ядро MMDiT.

Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.

🤖 GitHub

@data_analysis_ml
🔥144👍3
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.

Ирония в том, что в официальной system card у них стоит просто 74%.

Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
😁36👍73🔥3🌚1💔1
🚀 Релиз MiMo-VL 2508: тот же размер — больше мощность

Улучшена:

- Производительность
- Управление рассуждениями
- Общий пользовательский опыт

📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.

🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений

❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).

Модель стала более способной, гибкой и надёжной в повседневных задачах.

🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508

#XiaomiMiMo #MiMoVL
5👍3🔥3
📈 Сэм Альтман ответил на критику запуска GPT-5: OpenAI удваивает лимиты для подписчиков Plus

Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.

При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.

🔗 Ссылка - *клик*

@data_analysis_ml
👍74🔥1🌚1
Что такое MWS Data? Как создавали платформу для работы с данными

13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:

1️⃣ Как проектировали платформу MWS Data и почему пошли дальше Lakehouse
2️⃣ Что лежит в ядре платформы: архитектура и технологии
3️⃣ Какие задачи она решает: от ETL до BI
4️⃣ Какую продуктовую линейку запускает MWS

Кому будет полезно:

▪️Руководителям бизнеса
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски

▪️CDO / CIO / CTO
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.

▪️ML-инженерам и Data Scientists
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей

Регистрируйтесь на онлайн-дискуссию 👈
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54
🚀 Выпущен техрепорт GLM-4.5 — мощный Mixture-of-Experts (MoE) LLM с 355 млрд параметров (и 32 млрд активных), оснащённый гибридной логикой: умеет «думать» для сложных задач и сразу отвечать, когда нужно.

Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.

Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.

🟡Техрепорт
🟡Страница проекта
🟡Набор моделей
🟡Demo
🟡Сообщество в Discord
🖥GitHub
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍5🔥3