Почему OpenAI закрывает SORA
Вчера вечером OpenAI объявили, что прощаются с SORA. На самом деле, решение было не то чтобы ожидаемым, но лежало на поверхности. И вот почему:
1. Юнит-экономика, вероятно, очень далека от того, чтобы сойтись. Публичные оценки доходят до $15 млн/день вычислительных затрат (≈ $5+ млрд/год в пересчете), при том что сама компания через руководителя Sora публично называла экономику «неустойчивой». Несложные расчеты, даже основанные только на прайсе в API, показывают, что маржа каждого ролика sora‑2, скорее всего, отрицательна.
2. При этом другие метрики далеки от привычных OpenAI. Если у ChatGPT WAU и ретеншен пользователя запредельные, то у SORA аналитики из a16z насчитали retention < 8% на 30‑й день. Хотя приложение и скачивали очень активно в самом начале, но охваты оно не держит.
2. В начале года OpenAI сами говорили, что компьют – их главный ресурс. Логично, что они стараются перераспределить его разумно, и сверхдорогой видеопродукт становится в этой картине самым стратегически уязвимым. Так что это в первую очередь решение высвободить мощности для других направлений.
Кстати, важная деталь: исходная формулировка «We’re saying goodbye to Sora» была уточнена до «We’re saying goodbye to the Sora app», так что тут трактовка уже несколько другая. Возможно, ричерч подразделение видеомоделей все-таки продолжит работать.
Вчера вечером OpenAI объявили, что прощаются с SORA. На самом деле, решение было не то чтобы ожидаемым, но лежало на поверхности. И вот почему:
1. Юнит-экономика, вероятно, очень далека от того, чтобы сойтись. Публичные оценки доходят до $15 млн/день вычислительных затрат (≈ $5+ млрд/год в пересчете), при том что сама компания через руководителя Sora публично называла экономику «неустойчивой». Несложные расчеты, даже основанные только на прайсе в API, показывают, что маржа каждого ролика sora‑2, скорее всего, отрицательна.
2. При этом другие метрики далеки от привычных OpenAI. Если у ChatGPT WAU и ретеншен пользователя запредельные, то у SORA аналитики из a16z насчитали retention < 8% на 30‑й день. Хотя приложение и скачивали очень активно в самом начале, но охваты оно не держит.
2. В начале года OpenAI сами говорили, что компьют – их главный ресурс. Логично, что они стараются перераспределить его разумно, и сверхдорогой видеопродукт становится в этой картине самым стратегически уязвимым. Так что это в первую очередь решение высвободить мощности для других направлений.
Кстати, важная деталь: исходная формулировка «We’re saying goodbye to Sora» была уточнена до «We’re saying goodbye to the Sora app», так что тут трактовка уже несколько другая. Возможно, ричерч подразделение видеомоделей все-таки продолжит работать.
❤82🤔31 28👍7 4🔥3😁3
Роботы начнут думать быстрее: исследователи из Центрального университета использовали квантовый процессор для ускорения движений робо-руки в 30 раз
Российские ученые из научного центра Центрального университета и Университета Иннополис решили главную проблему робототехники — как заставить робота двигаться быстро, точно и без лишних действий.
На практике это адская вычислительная задача. Робот должен мгновенно решить, как попасть в определенную точку, ничего не задев. И чем больше ограничений, тем медленнее думают кремниевые процессоры.
– Исследователи переписали задачу в формат, понятный квантовым компьютерам D-Wave: все возможные движения представляются как комбинация нулей и единиц, среди которых нужно найти оптимальное положение «руки» робота.
– Потом в дело идет технология квантового отжига — она быстрее находит лучшее решение среди миллиарда вариантов.
– Новый метод дал ускорение более чем в 30 раз. Для роботов это означает меньше задержек, более плавные движения и отсутствие лишней суеты.
Подход актуален для всех сфер, например, автономного транспорта и хирургии. Его распространение даст буст российской робототехники и сделает ее более конкурентоспособной.
Квантовые технологии уже не из будущего — они учат роботов быстрее поднимать чашки
Российские ученые из научного центра Центрального университета и Университета Иннополис решили главную проблему робототехники — как заставить робота двигаться быстро, точно и без лишних действий.
На практике это адская вычислительная задача. Робот должен мгновенно решить, как попасть в определенную точку, ничего не задев. И чем больше ограничений, тем медленнее думают кремниевые процессоры.
– Исследователи переписали задачу в формат, понятный квантовым компьютерам D-Wave: все возможные движения представляются как комбинация нулей и единиц, среди которых нужно найти оптимальное положение «руки» робота.
– Потом в дело идет технология квантового отжига — она быстрее находит лучшее решение среди миллиарда вариантов.
– Новый метод дал ускорение более чем в 30 раз. Для роботов это означает меньше задержек, более плавные движения и отсутствие лишней суеты.
Подход актуален для всех сфер, например, автономного транспорта и хирургии. Его распространение даст буст российской робототехники и сделает ее более конкурентоспособной.
Квантовые технологии уже не из будущего — они учат роботов быстрее поднимать чашки
1❤185👍82🤯52😁21❤🔥16🗿10🤔5🏆4🤨4
Google перепридумали квантование: их алгоритм TurboQuant может стать новым стандартом эффективности LLM
В современных моделях проблема памяти не только в числе параметров, но и в том, что модель постоянно таскает за собой огромное количество векторов – в KV-cache для длинного контекста и в индексах vector search для RAG. Именно они тормозят модель и делают инференс дорогим. Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве.
Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности. Для практики это означает три вещи:
1. Длинный контекст становится дешевле
2. Инференс на том же железе ускоряется
3. Vector search по огромным базам становится компактнее и быстрее
Технически метод TurboQuant состоит из двух слоев. PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла. Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту. Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления.
В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности. В статье подчеркивается, что значения близки к теоретическим нижним границам, то есть это почти оптимум.
Очень сильная инфрастуктурная работа. Google, как всегда, молодцы.
research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
В современных моделях проблема памяти не только в числе параметров, но и в том, что модель постоянно таскает за собой огромное количество векторов – в KV-cache для длинного контекста и в индексах vector search для RAG. Именно они тормозят модель и делают инференс дорогим. Можно квантовать векторы (то есть уменьшать битность вычислений), но тогда модель теряет в качестве.
Google придумали, как сжимать умнее: не просто округлить числа погрубее, а сделать это так, чтобы модель почти не замечала потери точности. Для практики это означает три вещи:
1. Длинный контекст становится дешевле
2. Инференс на том же железе ускоряется
3. Vector search по огромным базам становится компактнее и быстрее
Технически метод TurboQuant состоит из двух слоев. PolarQuant сначала преобразует вектор через случайное вращение так, чтобы его можно было эффективно сжать с минимальными служебными затратами – именно за счет этого происходит основное сжатие без потери смысла. Затем QJL (Quantized Johnson-Lindenstrauss) добавляет сверхдешевую коррекцию ошибки, кодируя остаток всего одним дополнительным битом на компоненту. Это помогает еще точнее восстановить attention score с минимальной нагрузкой на вычисления.
В экспериментах TurboQuant показывает лучший баланс между искажением скалярного произведения, recall и размером KV-cache – его удалось квантануть аж до 3 бит без дообучения и без компромисса по точности. В статье подчеркивается, что значения близки к теоретическим нижним границам, то есть это почти оптимум.
Очень сильная инфрастуктурная работа. Google, как всегда, молодцы.
research.google/blog/turboquant-redefining-ai-efficiency-with-extreme-compression/
🔥205❤49👍25❤🔥3😁3✍2🤝1🫡1
Если вы планируете внедрить ИИ в свои решения, есть шанс упростить и ускорить запуск. Яндекс открывает программу Yandex AI Studio Boost, в рамках которой компании могут получить грант до 1 млн рублей на создание ИИ-агентов и других ИИ-продуктов на базе Yandex AI Studio в течение полугода.
Помимо финансирования, участники получают экспертную поддержку, маркетинговые ресурсы и скидку до 70% на платформу до полугода после окончания программы. Программа подходит стартапам и крупным компаниям, уже работающим над цифровыми продуктами для внешнего рынка и планирующим интеграцию ИИ.
Среди первых участников — проект R77.ai, ускоряющий проверку документов для банков, страховых и девелоперов до нескольких минут; Noumy.ai, внедряющий анализ кандидатов и их поведения на интервью с помощью моделей машинного обучения; и GO2AI, создающий ИИ-агентов для стратегического планирования, что в пилоте позволило сократить цикл принятия решений с нескольких дней до часа.
Участники программы также могут получить софинансирование маркетинговых активностей и разместить свои решения на маркетплейсе внешних продуктов Yandex Cloud. Ранее в рамках Cloud Boost стартапы уже получили 625 млн рублей на облачную инфраструктуру.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁38🗿18❤14🔥6👍4
Data Secrets
Ян Лекун резко шагнул вперед в изобретении универсальной архитектуры для world models Очень многие точно слышали про JEPA. Расшифровывается JEPA как Joint Embedding Predictive Architecture – Self-Supervised архитектура, предназначенная для понимания внешнего…
This media is not supported in your browser
VIEW IN TELEGRAM
Breaking: наконец-то выяснилось, чем вдохновлялся Ян Лекун, придумывая название для модели JEPA
52😁162😎13 10 6
OpenAI закончила претрейн своей следующей модели, а еще в стартапе появился отдел AGI Deployment
The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения.
Альтман якобы говорит сотрудникам, что в течение нескольких недель у компании будет очень сильная модель, которая "действительно может повлиять на экономику". Речь идет о модели под кодовым названием Spud (картошка), и судя по всему, ее претрейн уже окончен.
Вокруг этой модели меняется структура стартапа. Во-первых, Альтман перестает лично курировать часть своих прямых подчиненных (в частности, safety & security команды) и с головой уходит в привлечение капитала, выстраивание цепочек поставок и строительство дата‑центров.
Во-вторых, продуктовая организация под руководством Fidji Simo переименовывается в «AGI Deployment». Эта команда будет отвечать за то, как следующая модель будет работать в продуктах. Известно также, что они планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.
Почему в названии фигурирует именно AGI (а не AI, по старинке), непонятно. Может, это прогрев перед официальным объявлением достижения AGI?
Говорят, кстати, что отказ от SORA App – тоже часть перестройки и перераспределения компьюта для Spud.
The Information получили доступ к нескольким внутренним запискам стартапа и выяснили, что там сейчас происходят довольно большие изменения.
Альтман якобы говорит сотрудникам, что в течение нескольких недель у компании будет очень сильная модель, которая "действительно может повлиять на экономику". Речь идет о модели под кодовым названием Spud (картошка), и судя по всему, ее претрейн уже окончен.
Вокруг этой модели меняется структура стартапа. Во-первых, Альтман перестает лично курировать часть своих прямых подчиненных (в частности, safety & security команды) и с головой уходит в привлечение капитала, выстраивание цепочек поставок и строительство дата‑центров.
Во-вторых, продуктовая организация под руководством Fidji Simo переименовывается в «AGI Deployment». Эта команда будет отвечать за то, как следующая модель будет работать в продуктах. Известно также, что они планируют построить на ее основе «супер‑приложение», в котором объединят ChatGPT, Codex и браузер Atlas.
Почему в названии фигурирует именно AGI (а не AI, по старинке), непонятно. Может, это прогрев перед официальным объявлением достижения AGI?
Говорят, кстати, что отказ от SORA App – тоже часть перестройки и перераспределения компьюта для Spud.
🤔93❤31👍17 9 6🤓4👏2😁2 2🤯1
MWS Cloud запустила MWS GPT Model Hub - сервис по работе с большими языковыми моделями.
Его суть в том, что LLM можно за несколько минут подключить к продуктам компании и системам без управления инфраструктурой моделей. Благодаря этому время вывода продуктов с AI-функциями на рынок может сократиться в 2 раза.
Сервис запущен в публичном облаке MWS Cloud Platform. Компании из России могут внедрять ведущие мировые модели. Сейчас, к примеру, доступны LLM от DeepSeek, Google, Alibaba и другие, а до конца 2025 года появятся еще 10 моделей, в том числе преобразующих текст в речь и обратно.
Инструмент позволяет разработчикам интегрировать ИИ-функции – от чат-ботов до систем аналитики – без необходимости самостоятельно разворачивать и обслуживать ИТ-инфраструктуру.
Настоящий подарок для backend-разработчиков, AI-инженеров, DevOps и platform-команд, разработчиков SaaS-продуктов и стартап-команд.
Его суть в том, что LLM можно за несколько минут подключить к продуктам компании и системам без управления инфраструктурой моделей. Благодаря этому время вывода продуктов с AI-функциями на рынок может сократиться в 2 раза.
Сервис запущен в публичном облаке MWS Cloud Platform. Компании из России могут внедрять ведущие мировые модели. Сейчас, к примеру, доступны LLM от DeepSeek, Google, Alibaba и другие, а до конца 2025 года появятся еще 10 моделей, в том числе преобразующих текст в речь и обратно.
Инструмент позволяет разработчикам интегрировать ИИ-функции – от чат-ботов до систем аналитики – без необходимости самостоятельно разворачивать и обслуживать ИТ-инфраструктуру.
Настоящий подарок для backend-разработчиков, AI-инженеров, DevOps и platform-команд, разработчиков SaaS-продуктов и стартап-команд.
🗿50❤14🔥8😁6👍3❤🔥2 1 1
В первых двух версиях задачки были статичные. А тут фишка как раз в динамике: бенчмарк полностью состоит из игровых сред.
Каждая из игр устроена так, что ее правила, цели и механики неизвестны участнику заранее. Человек справляется с такими задачками легко, с абсолютным скором 100% (требуются только базовые знания). А вот агенты с треском проваливаются и в основном выбивают меньше 1 процента.
Вот здесь примеры, как тест проходит Gemini 3.1: с некоторыми задачками она справляется нормально, с некоторыми – очень плохо.
Самостоятельно поиграть можно здесь.
Ключевые проверяемые способности – самостоятельное исследование, быстрое обучение, адаптация к новым ситуациям, умение планировать и гибко перестраиваться.
В общем, команда продолжает выискивать именно то, что делает интеллект человека по-настоящему сильным, и что пока недоступно моделям.
Ну и стартовало традиционное соревнование по обновленной версии. Призовой фонд на этот раз – 2 миллиона долларов.
Хотя больше интересно, когда опубликуют лидерборд фронтиров
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥104❤22👍16😁3😎2✍1☃1❤🔥1
Data Secrets
Хотя больше интересно, когда опубликуют лидерборд фронтиров
Нашелся лидерборд: https://arcprize.org/leaderboard
Кратко:
– Gemini 3.1 Pro: 0.2% за 2.2к$
– Opus 4.6: 0.2% за 8.9к$ (!)
– GPT-5.4: 0.3% за 5.2к$
– Grok 4.20: 0.0% за 3.8к$ (хаха)
Кратко:
– Gemini 3.1 Pro: 0.2% за 2.2к$
– Opus 4.6: 0.2% за 8.9к$ (!)
– GPT-5.4: 0.3% за 5.2к$
– Grok 4.20: 0.0% за 3.8к$ (хаха)
😁214🔥20❤11🤯4🗿1
Отрывок из новой статьи Теренса Тао ⬆️
А вот отрывок из сопутствующего блога:
Такая вот новая реальность: ChatGPT доказывает утверждения для лучшего математика в мире. Фактически, это чуть не соавторство.
А вот отрывок из сопутствующего блога:
Один из аргументов для теоремы 1.4 был предложен мне ChatGPT, так как я ранее не знал о теореме двух констант Неванлинны. <> Затем ChatGPT доказал первое из двух утверждений, лежащих в основе теоремы. Также для нахождения доказательства теоремы 1.4 через лемму 1.1 использовались AlphaEvolve и ChatGPT Pro.
Такая вот новая реальность: ChatGPT доказывает утверждения для лучшего математика в мире. Фактически, это чуть не соавторство.
Please open Telegram to view this post
VIEW IN TELEGRAM
😎117👍44❤29😁7🤯5🔥4
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодить теперь можно даже виртуальную реальность
Google выкатили Vibe Coding XR – платформу для генерации AR/VR интерфейсов из промпта.
Под капотом, конечно, Gemini, но генерирует моделька уже не просто код, а пространство + объекты + физику + интерактивность.
На самом деле, операции тут происходят даже не с кодом, а со смысловыми блоками XR Blocks. Так что в строгом смысле слова это не вайбкодинг, а вайб-билдинг.
Пока что выпустили в виде исследовательского прототипа (те потрогать нельзя), но это уже сильный шаг. Google, видимо, все еще надеются продвинуть Android XR и повоевать за рынок с Apple Vision Pro. А как мы знаем, если Google захотят – Google сделают.
research.google/blog/vibe-coding-xr-accelerating-ai-xr-prototyping-with-xr-blocks-and-gemini/
Google выкатили Vibe Coding XR – платформу для генерации AR/VR интерфейсов из промпта.
Под капотом, конечно, Gemini, но генерирует моделька уже не просто код, а пространство + объекты + физику + интерактивность.
На самом деле, операции тут происходят даже не с кодом, а со смысловыми блоками XR Blocks. Так что в строгом смысле слова это не вайбкодинг, а вайб-билдинг.
Пока что выпустили в виде исследовательского прототипа (те потрогать нельзя), но это уже сильный шаг. Google, видимо, все еще надеются продвинуть Android XR и повоевать за рынок с Apple Vision Pro. А как мы знаем, если Google захотят – Google сделают.
research.google/blog/vibe-coding-xr-accelerating-ai-xr-prototyping-with-xr-blocks-and-gemini/
🔥81👏13🤯10👍5😁4 3❤2 2
Ускорьте работу с ИИ и генеративными моделями с новыми видеокартами в облаке Selectel — H100, H200, RTX 6000 Pro, L4.
✅Почасовая аренда, быстрый запуск и гибкая настройка под задачи любой сложности.
Посмотреть цены и арендовать сервер 👉 https://slc.tl/wabpm
Реклама. АО "Селектел". erid:2W5zFJKK4zV
✅Почасовая аренда, быстрый запуск и гибкая настройка под задачи любой сложности.
Посмотреть цены и арендовать сервер 👉 https://slc.tl/wabpm
Реклама. АО "Селектел". erid:2W5zFJKK4zV
😁23🗿15👍11🤓3
Meta* представили TRIBE v2 – открытый симулятор человеческого мозга
Это модель, которая предсказывает, как будет активироваться мозг человека, когда он что-то видит, слышит или читает. То есть TRIBE v2 – это искусственный макет того, как человек воспринимает мир. Типа API к биологическому мозгу☕️
Самое удивительное: TRIBE v2 работает точнее МРТ(fMRI). То есть если измерить мозговую активность одного человека, она в большинстве случаев будет менее точно отображать типичную (усредненную по группе) реакцию мозга на раздражитель, чем моделька. Все дело в том, что индивидуальный МРТ довольно шумный, а TRIBE v2 предсказывает более стабильный сигнал для самых разных ситуаций.
Под капотом при этом нет ничего особенного: просто мультимодальная сборка из трех разных энкодеров для звука, видео и текста (для видео кстати используют V-JEPA 2) + трансформер, который учится отображать эмбеддинги в нейронную активность ~20к точек на коре мозга.
Есть еще интересный момент со Scaling Laws. Где трансформер – там и масштабирование, и тут тоже оказалось, что качество предсказания мозга растет с размером модели и данных.
А это значит, что у подхода большое будущее. Сейчас модель объясняет ~54% вариации сигнала, в отдельных областях – до 80%. Это уже довольно много, и даже близко к верхнему пределу fMRI как измерения. Но получается, что благодаря scaling laws следующие модели могут не просто упираться в этот предел, а фактически выйти за него в смысле восстановления более чистого сигнала, чем дает сам fMRI.
Демо, статья, код и сама модель здесь: aidemos.atmeta.com/tribev2/
Это модель, которая предсказывает, как будет активироваться мозг человека, когда он что-то видит, слышит или читает. То есть TRIBE v2 – это искусственный макет того, как человек воспринимает мир. Типа API к биологическому мозгу
Самое удивительное: TRIBE v2 работает точнее МРТ(fMRI). То есть если измерить мозговую активность одного человека, она в большинстве случаев будет менее точно отображать типичную (усредненную по группе) реакцию мозга на раздражитель, чем моделька. Все дело в том, что индивидуальный МРТ довольно шумный, а TRIBE v2 предсказывает более стабильный сигнал для самых разных ситуаций.
Под капотом при этом нет ничего особенного: просто мультимодальная сборка из трех разных энкодеров для звука, видео и текста (для видео кстати используют V-JEPA 2) + трансформер, который учится отображать эмбеддинги в нейронную активность ~20к точек на коре мозга.
Есть еще интересный момент со Scaling Laws. Где трансформер – там и масштабирование, и тут тоже оказалось, что качество предсказания мозга растет с размером модели и данных.
А это значит, что у подхода большое будущее. Сейчас модель объясняет ~54% вариации сигнала, в отдельных областях – до 80%. Это уже довольно много, и даже близко к верхнему пределу fMRI как измерения. Но получается, что благодаря scaling laws следующие модели могут не просто упираться в этот предел, а фактически выйти за него в смысле восстановления более чистого сигнала, чем дает сам fMRI.
Демо, статья, код и сама модель здесь: aidemos.atmeta.com/tribev2/
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯133🔥54❤31👍5😁4🍓3 3🤨1🫡1 1
Google выпустили Gemini 3.1 Flash Live
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
Это аудио‑first модель, которая ориентирована на лайв диалоги и голосовые интерфейсы.
Обещают максимально естественную речь и минимальную задержку. Модель может отличать нюансы диалога по тону и темпу голоса (например, может поменять стиль ответа, если вы выказываете раздражение).
Контекст у новой модели держится примерно в два раза дольше, чем у прошлой версии Gemini Live, то есть она довольна хороша в длинных диалогах.
По другим бенчмаркам (устойчивость к шуму, многошаговый tool call из аудио ввода, следование инструкциям, логика диалога) Gemini 3.1 Flash Live также сильно скакнула относительно предыдущей модели и выбилась в уверенные лидеры.
Для потребителей эта моделька будет лежать в основе Search Live и Gemini Live.
Сейчас поболтать с ней уже можно в Gemini app или через Live API (цена относительно Gemini 2.5 Flash Live не изменилась)
❤74👍31🔥19 2