Livestream OpenAI, ждём анонса ChatGPT-5
https://www.youtube.com/watch?v=0Uu_VJeVVfo
#Chatgpt5 #openai
https://www.youtube.com/watch?v=0Uu_VJeVVfo
#Chatgpt5 #openai
YouTube
Introducing GPT-5
Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Christina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen…
❤3👍3🔥2🤣1
🤦♂️ После того как OpenAi уверенно сообщили о сниженияи галлюцинаций у GPT‑5, первый же тест оказался... галлюцинацией.
🔍 Модель повторила старый фейк о том, как крыло самолёта создаёт подъёмную силу — "equal transit theory", которую давно опровергли в аэродинамике.
🧠 Проблема не в том, что Chatgpt ошибается. Проблема в том, что он делает это *уверенно* — даже в примере, призванном показать прогресс.
🔍 Модель повторила старый фейк о том, как крыло самолёта создаёт подъёмную силу — "equal transit theory", которую давно опровергли в аэродинамике.
🧠 Проблема не в том, что Chatgpt ошибается. Проблема в том, что он делает это *уверенно* — даже в примере, призванном показать прогресс.
🤣37❤4🔥4👍2😢2
Отличная идея, не так ли)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤6👍3🥱1
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется, что глитчующие нейросети – это база, а ивент AI VK & Pro в .оригинале – повод собраться и узнать, как меняются рекомендательные системы
📍 27 августа, .оригинал
Подробности тут
📍 27 августа, .оригинал
Подробности тут
🔥9🥱4❤3👍3😁2👏1🙏1🌚1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ ИИ теперь сам чинит свои баги
Anthropic встроила в Claude Code автоматический аудит безопасности: теперь ИИ не только пишет код, но и проверяет его перед отправкой. Достаточно команды
Тестирование на внутренних проектах уже выявило критические уязвимости до выхода в прод. Теперь траектория развития очевидна: поскольку ИИ-модели становятся все мощнее, компаниям придется встраивать все более сильные встроенные механизмы контроля. Иначе экосистема просто захлебнётся в собственных багах.
🔗 Ссылка - *клик*
@data_analysis_ml
Anthropic встроила в Claude Code автоматический аудит безопасности: теперь ИИ не только пишет код, но и проверяет его перед отправкой. Достаточно команды
/security-review
и модель анализирует изменения, ищет уязвимости и сразу предлагает патчи. Те же проверки работают в GitHub Actions, оставляя комментарии прямо в пул-реквестах. Тестирование на внутренних проектах уже выявило критические уязвимости до выхода в прод. Теперь траектория развития очевидна: поскольку ИИ-модели становятся все мощнее, компаниям придется встраивать все более сильные встроенные механизмы контроля. Иначе экосистема просто захлебнётся в собственных багах.
🔗 Ссылка - *клик*
@data_analysis_ml
❤7👍4🔥2
Сатья Наделла — лучший CEO Microsoft 👍
Илон Маск написал в своем Твиттере:
"OpenAI «сожрёт» Microsoft живьём"
Сатья Наделла ответил:
- "Люди пытались сделать это последние 50 лет — и в это-то и забавно! Каждый день ты учишься чему-то новому, создаёшь инновации, заключаешь партнёрства и конкурируешь. С нетерпением жду Grok 4 на Azure и Grok 5!"
Илон Маск написал в своем Твиттере:
"OpenAI «сожрёт» Microsoft живьём"
Сатья Наделла ответил:
- "Люди пытались сделать это последние 50 лет — и в это-то и забавно! Каждый день ты учишься чему-то новому, создаёшь инновации, заключаешь партнёрства и конкурируешь. С нетерпением жду Grok 4 на Azure и Grok 5!"
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍8❤4🥱4
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Microsoft открыла доступ к экспериментальному веб-инструменту Copilot 3D, который позволяет конвертировать статичные изображения в трехмерные модели. Сервис доступен бесплатно через портал Copilot Labs.
Инструмент поддерживает на входе PNG и JPG размером до 10 МБ. Созданные модели сохраняются на странице пользователя в течение 28 дней и могут быть скачаны в формате GLB. Copilot 3D является новой попыткой Microsoft популяризировать 3D-творчество после закрытия проектов Paint 3D и Remix3D.
copilot.microsoft.com
Команда, занимавшаяся разработкой суперкомпьютера Dojo расформирована, а ее руководитель Питер Бэннон покидает компанию.
Этот шаг завершает многолетнюю попытку Tesla создать кастомные чипы и процессоры "размером с кремниевую пластину" для обучения моделей автономного вождения и робототехники. Вместо этого компания перейдет на решения Nvidia и AMD, а производством чипов нового поколения займется Samsung.
Около 20 инженеров из команды Dojo уже основали собственный стартап DensityAI, а остальные сотрудники будут переведены на другие проекты внутри Tesla.
bloomberg.com
Apple подтвердила, что осенние обновления: iOS, iPadOS и macOS получат поддержку GPT-5. Она заменит текущую GPT-4o в тех случаях, когда собственным моделям Apple потребуется помощь в обработке сложных запросов. Это коснется ответов Siri, инструментов для письма и визуального поиска.
Использование GPT-5 останется опциональным: пользователи должны будут явно дать согласие на передачу запросов в ChatGPT. Apple продолжит скрывать IP-адреса и запрещать OpenAI хранить данные, однако оставит возможность привязать платную подписку OpenAI для доступа к дополнительным функциям.
Кроме того, обновления ОС принесут функцию Live Translation для перевода разговоров в реальном времени и расширят возможности сквозного поиска по контенту.
9to5mac.com
Техногигант приобрел WaveForms AI - молодой стартап, чье программное обеспечение способно идентифицировать и воспроизводить эмоциональные оттенки в человеческой речи. Команда WaveForms присоединится к подразделению Superintelligence Labs.
Стартап был основан в декабре 2024 года, но уже успел привлечь 40 миллионов долларов инвестиций при оценке в 160 миллионов. Компания работала над "Тестом Тьюринга для речи" и так называемым "эмоциональным AGI", чтобы сделать голоса, сгенерированные ИИ, неотличимыми от человеческих.
Для Цукерберга это уже вторая сделка в области ИИ-аудио за последние месяцы после июльского поглощения PlayAI. Финансовые условия покупки не разглашаются.
theinformation.com
Google приступил к тестированию редизайна сервиса Google Finance, в центре которого теперь находится ИИ. В ближайшие недели пользователи из США получат доступ к новой версии со встроенным чат-ботом. Он сможет отвечать на сложные вопросы о рынках, предоставляя обобщенные ответы со ссылками на внешние источники.
Помимо ИИ-помощника, обновление включает расширенные инструменты для построения графиков и добавляет рыночные данные в реальном времени для сырьевых товаров и криптовалют.
Появится и постоянно обновляемая новостная лента, которая позволит отслеживать важные заголовки, не покидая платформу. Во время тестового периода пользователи смогут переключаться между новым и классическим интерфейсами.
blog.google
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥5❤4
💰 McKinsey: к 2030 году на AI-инфраструктуру потратят $6,7 трлн
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
К 2030-му мировая мощность дата-центров почти утроится, и ~70% этого роста придётся на AI.
Под AI потребуется $5,2 трлн инвестиций и 156 ГВт мощности.
📊 Куда уйдут деньги:
- 60% (~$3,1 трлн) — чипы и серверы
- 25% (~$1,3 трлн) — энергия и охлаждение
- 15% (~$0,8 трлн) — площадки и строительство
📉 Сценарии развития
- 🚀 Ускоренный: +205 ГВт, ~$7,9 трлн
- 📈 Базовый: +125 ГВт, ~$5,2 трлн
- 🐢 Ограниченный: +78 ГВт, ~$3,7 трлн
⚡ Энергетика и охлаждение
- Главные ограничения: электросети и теплоотвод
- 45–50% энергии — из возобновляемых источников
- Рост инвестиций в атом, геотермальную энергетику, улавливание CO₂ и длительное хранение энергии
- Переход на direct-to-chip и иммерсионное охлаждение
🧮 Что ускоряет рост
- К 2030 году inference станет основной нагрузкой
- Корпоративные приложения с отраслевыми моделями создадут стабильный поток запросов
- Hyperscalers масштабируются, чтобы снижать стоимость вычислений
- Государства инвестируют в AI-инфраструктуру как в стратегический актив
💡 Как не перепостроить
- Планировать мощность с возможностью масштабирования или паузы
- Инвестировать в энергоэффективность чипов, сетей и охлаждения
- Обеспечить стабильный доступ к энергии, чипам и площадкам
📌 Пример эффективности:
DeepSeek V3 — обучение в ~18× дешевле GPT-4o, инференс в ~36× дешевле.
Но парадокс Джевонса означает, что экономия стимулирует больше экспериментов, а значит, общий спрос на вычисления всё равно растёт.
📌 Подробнее
@data_analysis_ml
❤10🔥5👍3
🖼️ Qwen-Image — мультиязычная генеративная модель от Alibaba. Проект предлагает 20-миллиардную модель для создания изображений с точным рендерингом текста. Модель поддерживает английский и китайский языки, включая сложные шрифтовые композиции и смешанные текстовые блоки. Архитектура сочетает Qwen2.5-VL для анализа текста, VAE для детализации и диффузионное ядро MMDiT.
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
Модель обучалась на миллиардах изображений: от природных сцен до дизайн-макетов. В тестах она превзошла многие закрытые аналоги, особенно в генерации инфографики и материалов с встроенным текстом. Лицензия Apache 2.0 позволяет свободное использование.
🤖 GitHub
@data_analysis_ml
🔥14❤4👍3
🤨 OpenAI заявила о 74.9% на SWE-Bench, чтобы обойти Opus 4.1 с его 74.5%…
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
Но тест они прогнали не на всех 500 задачах, а только на 477.
Ирония в том, что в официальной system card у них стоит просто 74%.
Источник: https://cdn.openai.com/pdf/8124a3ce-ab78-4f06-96eb-49ea29ffb52f/gpt5-system-card-aug7.pdf
😁36👍7❤3🔥3🌚1💔1
🚀 Релиз MiMo-VL 2508: тот же размер — больше мощность
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
Улучшена:
- Производительность
- Управление рассуждениями
- Общий пользовательский опыт
📈 Улучшены показатели почти всех бенчмарков (изображения + видео)
- MMMU: 70.6
- VideoMME: 70.8
Стабильные улучшения по всем направлениям.
🤖 Thinking Control
- Вкл. (по умолчанию): полный ход рассуждений в ответах.
- Выкл.: прямые ответы без показа рассуждений ⚡
❤️ Реальный опыт пользователей
Рейтинг в VLM Arena вырос с 1093.9 → 1131.2 (+37.3).
Модель стала более способной, гибкой и надёжной в повседневных задачах.
🤗 Ссылки на модели
- RL: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-RL-2508
- SFT: https://huggingface.co/XiaomiMiMo/MiMo-VL-7B-SFT-2508
#XiaomiMiMo #MiMoVL
❤5👍3🔥3
📈 Сэм Альтман ответил на критику запуска GPT-5: OpenAI удваивает лимиты для подписчиков Plus
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
Всего через несколько дней после запуска GPT-5 OpenAI уже анонсирует изменения для пользователей. Сэм Альтман в AMA-сессии на Reddit подтвердил, что лимиты запросов к GPT-5 Thinking на подписке Plus будут увеличены в два раза — с текущих 200 до 400. Это ответ на критику пользователей, которые отмечали, что квоты для новой модели оказались заметно ниже, чем для предыдущих версий.
При этом OpenAI также рассматривает возможность вернуть доступ к GPT-4o для подписчиков Plus — видимо, чтобы дать пользователям больше гибкости в выборе модели. Параллельно команда дорабатывает автоматический режим GPT-5, где ИИ сам решает, использовать глубокие рассуждения или давать быстрый ответ.
🔗 Ссылка - *клик*
@data_analysis_ml
👍7❤4🔥1🌚1
Что такое MWS Data? Как создавали платформу для работы с данными
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
1️⃣ Как проектировали платформу MWS Data и почему пошли дальше Lakehouse
2️⃣ Что лежит в ядре платформы: архитектура и технологии
3️⃣ Какие задачи она решает: от ETL до BI
4️⃣ Какую продуктовую линейку запускает MWS
Кому будет полезно:
▪️ Руководителям бизнеса
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
▪️ CDO / CIO / CTO
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
▪️ ML-инженерам и Data Scientists
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию👈
13 августа в 11:00 эксперты MWS проведут онлайн-дискуссию, где расскажут:
Кому будет полезно:
Поймёте, как платформа поможет быстрее принимать решения и снизить потенциальные риски
Разберётесь, как сократить расходы на хранение и обработку данных без ущерба для их качества.
Узнаете, как MWS Data ускоряет подготовку данных, сокращает пайплайны и улучшает входное качество для моделей
Регистрируйтесь на онлайн-дискуссию
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
🚀 Выпущен техрепорт GLM-4.5 — мощный Mixture-of-Experts (MoE) LLM с 355 млрд параметров (и 32 млрд активных), оснащённый гибридной логикой: умеет «думать» для сложных задач и сразу отвечать, когда нужно.
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
🟡 Техрепорт
🟡 Страница проекта
🟡 Набор моделей
🟡 Demo
🟡 Сообщество в Discord
🖥 GitHub
Ключевые особенности:
- Обучен на 23 трлн токенов с поисковой дообучкой и RL через экспертные итерации.
- Выдаёт отличные результаты в задачах agentic (агентные задачи), reasoning (логика) и coding (кодинг):
— TAU-Bench: 70,1%
— AIME 24: 91,0%
— SWE-bench Verified: 64,2%
- Несмотря на менее мощные размеры, занимает 3-е место по общим метрикам и 2-е место по agentic-бенчам среди всех моделей.
- Выпущены две версии: полноразмерная GLM-4.5 (355B) и компактная GLM-4.5-Air (106B) — обе открыты для сообщества.
Это значимый шаг для открытых LLM — мощный, гибридный, способный рассуждать, действовать и кодить в рамках одного фундамента.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6👍5🔥3