💰 McKinsey: к 2030 году на AI-инфраструктуру потратят $6,7 трлн
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
❤10🔥5👍3
🖼️ Qwen-Image — мультиязычная генеративная модель от Alibaba. Проект предлагает 20-миллиардную модель для создания изображений с точным рендерингом текста. Модель поддерживает английский и китайский языки, включая сложные шрифтовые композиции и смешанные текстовые блоки. Архитектура сочетает Qwen2.5-VL для анализа текста, VAE для детализации и диффузионное ядро MMDiT.
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
🔥14❤4👍3
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
😁36👍7❤3🔥3🌚1💔1
🚀 Релиз MiMo-VL 2508: тот же размер — больше мощность
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
❤5👍3🔥3
📈 Сэм Альтман ответил на критику запуска GPT-5: OpenAI удваивает лимиты для подписчиков Plus
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
👍7❤4🔥1🌚1
Что такое MWS Data? Как создавали платформу для работы с данными
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
1️⃣ Как проектировали платформу MWS Data и почему пошли дальше Lakehouse
2️⃣ Что лежит в ядре платформы: архитектура и технологии
3️⃣ Какие задачи она решает: от ETL до BI
4️⃣ Какую продуктовую линейку запускает MWS
Кому будет полезно:
▪️ Руководителям бизнеса
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
▪️ CDO / CIO / CTO
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
▪️ ML-инженерам и Data Scientists
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию👈
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
Кому будет полезно:
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤4
🚀 Выпущен техрепорт GLM-4.5 — мощный Mixture-of-Experts (MoE) LLM с 355 млрд параметров (и 32 млрд активных), оснащённый гибридной логикой: умеет «думать» для сложных задач и сразу отвечать, когда нужно.
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
🟡 Техрепорт
🟡 Страница проекта
🟡 Набор моделей
🟡 Demo
🟡 Сообщество в Discord
🖥 GitHub
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9👍5🔥3