Forwarded from Machinelearning
🔎 Upscale-LoRA мощный инструмент для восстановления изображений
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.
Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.
Подходит для архивных снимков, скринов и любых изображений с низким разрешением.
https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA
@ai_machinelearning_big_data
#Upscaler
Forwarded from Анализ данных (Data analysis)
⚡️ NVIDIA выпустила модель Llama-3 Nemotron Super-49B-v1.5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.
Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.
Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.
huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
🤖 Умная библиотека для выполнения кода и вызова инструментов
Code-Mode упрощает взаимодействие AI с инструментами, позволяя выполнять TypeScript-код с доступом ко всему набору инструментов. Это решение значительно ускоряет выполнение задач, снижая количество вызовов API и потребление токенов.
🚀Основные моменты:
- 60% быстрее выполнения по сравнению с традиционными вызовами инструментов
- Уменьшение потребления токенов на 68%
- Снижение количества API-вызовов на 88%
- Поддержка различных протоколов для интеграции
📌 GitHub: https://github.com/universal-tool-calling-protocol/code-mode
Code-Mode упрощает взаимодействие AI с инструментами, позволяя выполнять TypeScript-код с доступом ко всему набору инструментов. Это решение значительно ускоряет выполнение задач, снижая количество вызовов API и потребление токенов.
🚀Основные моменты:
- 60% быстрее выполнения по сравнению с традиционными вызовами инструментов
- Уменьшение потребления токенов на 68%
- Снижение количества API-вызовов на 88%
- Поддержка различных протоколов для интеграции
📌 GitHub: https://github.com/universal-tool-calling-protocol/code-mode
GitHub
GitHub - universal-tool-calling-protocol/code-mode at producthunt
🔌 Plug-and-play library to enable agents to call MCP and UTCP tools via code execution. - GitHub - universal-tool-calling-protocol/code-mode at producthunt
🇯🇵 Andy Rubin - создатель Android и экс-топ-менеджер Google - возвращается в робототехнику с новой компанией Genki Robotics, базирующейся в Токио, Япония. Согласно отчёту корейского MK.co.kr и The Information, стартап работает в режиме «стелс» и набирает команду для разработки первых прототипов.
Слово «Genki» по-японски означает «живой», «энергичный» - это говорит о фокусе на динамичных машинах, вероятно, способных передвигаться в человеческом пространстве.
Andy Rubin уже давно интересуется роботами-пешеходами: во время работы в Google он руководил робо-дивизионом и покупал японскую хуманоидную компанию Shaft. На конференции в 2018 году он предсказал эру «nog-everywhere» (ноги повсюду), утверждая, что именно ногами роботы смогут использовать лифты, подниматься по лестницам и работать там, где колёса бессильны.
Выбор Токио как центра Genki Robotics — стратегический: Япония славится мощным инженерным ресурсом в области робототехники и университетскими кадрами, которые трудно переоценить. Rubin явно намерен воспользоваться преимуществом японской экосистемы вне привычного Силиконовой долины.
Но рынок хуманоидов крайне насыщен и затратен. Несмотря на прошлые успехи Rubin-а (в 2013-м он инициировал множество покупок робототехнических компаний), после ухода из Google его компания смартфонов Essential Products закрылась в 2020-м.
Пока Genki Robotics работает в тени — неизвестно, какие задачи она решает и какую технологию использует. Но возвращение Rubin-а в эту область может стать важным событием для индустрии хуманоидов.
Слово «Genki» по-японски означает «живой», «энергичный» - это говорит о фокусе на динамичных машинах, вероятно, способных передвигаться в человеческом пространстве.
Andy Rubin уже давно интересуется роботами-пешеходами: во время работы в Google он руководил робо-дивизионом и покупал японскую хуманоидную компанию Shaft. На конференции в 2018 году он предсказал эру «nog-everywhere» (ноги повсюду), утверждая, что именно ногами роботы смогут использовать лифты, подниматься по лестницам и работать там, где колёса бессильны.
Выбор Токио как центра Genki Robotics — стратегический: Япония славится мощным инженерным ресурсом в области робототехники и университетскими кадрами, которые трудно переоценить. Rubin явно намерен воспользоваться преимуществом японской экосистемы вне привычного Силиконовой долины.
Но рынок хуманоидов крайне насыщен и затратен. Несмотря на прошлые успехи Rubin-а (в 2013-м он инициировал множество покупок робототехнических компаний), после ухода из Google его компания смартфонов Essential Products закрылась в 2020-м.
Пока Genki Robotics работает в тени — неизвестно, какие задачи она решает и какую технологию использует. Но возвращение Rubin-а в эту область может стать важным событием для индустрии хуманоидов.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.
К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.
Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com
Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.
Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.
Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com
В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.
Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.
Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google
На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.
В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com
DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.
Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.
По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Илон Маск заявил, что самое эффективное место для ИИ-инфраструктуры - это космос.
На Земле системы ограничены охлаждением и энергопотреблением: из 2-тонной стойки с GPU почти 1.95 тонны - это масса радиаторов и системы охлаждения.
В космосе всё иначе: постоянная солнечная энергия 24/7, не нужны батареи, а отвод тепла намного проще.
Идея - перенести крупные ИИ-центры туда, где инфраструктура может быть значительно эффективнее.
На Земле системы ограничены охлаждением и энергопотреблением: из 2-тонной стойки с GPU почти 1.95 тонны - это масса радиаторов и системы охлаждения.
В космосе всё иначе: постоянная солнечная энергия 24/7, не нужны батареи, а отвод тепла намного проще.
Идея - перенести крупные ИИ-центры туда, где инфраструктура может быть значительно эффективнее.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI, Harvard, Oxford и другие крупные университеты опубликовали работу, в которой показано, что GPT-5 уже помогает исследователям в реальных научных задачах — в математике, физике, биологии и других областях.
В нескольких проектах GPT-5 участвовал в доказательстве четырёх новых математических результатов и проверял сложные шаги, которые затем полностью верифицировали учёные.
Модель начала приносить пользу и в решении новых исследовательских проблем.
Авторы провели серию небольших кейсов, где специалисты подключали GPT-5 к реальной работе в математике, физике, астрономии, биологии, материаловедении и компьютерных науках.
GPT-5 предлагал исследовательские идеи, заполнял пропущенные шаги в доказательствах, писал и отлаживал код, искал литературу и указывал на логические пробелы.
Среди примеров — уточнение правила выбора шага в методе оптимизации, поиск скрытых симметрий в уравнениях чёрных дыр и интерпретация необычных результатов экспериментов с иммунными клетками.
При этом GPT-5 хорошо справляется с пошаговым рассуждением и быстрым перебором вариантов, но всё ещё делает ошибки и не способен надёжно оценивать корректность результатов.
В целом, авторы описывают GPT-5 как «сильного младшего исследователя», который экономит время экспертов, тогда как люди продолжают задавать направление работы и тщательно проверяют ключевые этапы.
Paper: arxiv.org/abs/2511.16072
В нескольких проектах GPT-5 участвовал в доказательстве четырёх новых математических результатов и проверял сложные шаги, которые затем полностью верифицировали учёные.
Модель начала приносить пользу и в решении новых исследовательских проблем.
Авторы провели серию небольших кейсов, где специалисты подключали GPT-5 к реальной работе в математике, физике, астрономии, биологии, материаловедении и компьютерных науках.
GPT-5 предлагал исследовательские идеи, заполнял пропущенные шаги в доказательствах, писал и отлаживал код, искал литературу и указывал на логические пробелы.
Среди примеров — уточнение правила выбора шага в методе оптимизации, поиск скрытых симметрий в уравнениях чёрных дыр и интерпретация необычных результатов экспериментов с иммунными клетками.
При этом GPT-5 хорошо справляется с пошаговым рассуждением и быстрым перебором вариантов, но всё ещё делает ошибки и не способен надёжно оценивать корректность результатов.
В целом, авторы описывают GPT-5 как «сильного младшего исследователя», который экономит время экспертов, тогда как люди продолжают задавать направление работы и тщательно проверяют ключевые этапы.
Paper: arxiv.org/abs/2511.16072
⚡️ Google начинает масштабный сдвиг в ИИ
Google сейчас переворачивает рынок ИИ благодаря тому, что контролирует самые крупные каналы дистрибуции: Поиск, Android и Workspace.
Они могут встроить Gemini напрямую в продукты, которыми пользуются миллиарды людей - с практически нулевой себестоимостью распространения.
По данным использования:
→ Gemini-приложение уже около 650 млн MAU
→ ChatGPT всё ещё впереди — примерно 800 млн weekly actives
Экономика тоже играет на стороне Google:
→ Собственные TPU-кластеры позволяют обходиться без наценки NVIDIA
→ Себестоимость токена (и обучения, и инференса) для них существенно ниже
Стратегически это означает важный момент:
Подход Сэма Альтмана - «ставка на суперразум» и удвоение усилий на фронтирных возможностях - единственный путь конкурировать с Google.
Потому что на цене, масштабах и каналах доставки OpenAI просто не сможет тягаться.
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
Google сейчас переворачивает рынок ИИ благодаря тому, что контролирует самые крупные каналы дистрибуции: Поиск, Android и Workspace.
Они могут встроить Gemini напрямую в продукты, которыми пользуются миллиарды людей - с практически нулевой себестоимостью распространения.
По данным использования:
→ Gemini-приложение уже около 650 млн MAU
→ ChatGPT всё ещё впереди — примерно 800 млн weekly actives
Экономика тоже играет на стороне Google:
→ Собственные TPU-кластеры позволяют обходиться без наценки NVIDIA
→ Себестоимость токена (и обучения, и инференса) для них существенно ниже
Стратегически это означает важный момент:
Подход Сэма Альтмана - «ставка на суперразум» и удвоение усилий на фронтирных возможностях - единственный путь конкурировать с Google.
Потому что на цене, масштабах и каналах доставки OpenAI просто не сможет тягаться.
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
🌟 Google пытается выиграть гонку ИИ не скоростью чипов, а ценой вычислений.
У Nvidia высокая маржа при продаже GPU облакам, поэтому конечные цены получаются дорогими.
Google создаёт TPU почти по себестоимости, не добавляет наценку и может значительно снижать стоимость вычислений в своём облаке.
Так работает полная вертикальная интеграция. Один владелец контролирует весь путь от чипов до сети и облачного уровня, что позволяет гибко управлять ценами.
Главная часть расходов в ИИ - это не обучение моделей, а инференс. Когда модель уже развёрнута, почти весь бюджет уходит на генерацию токенов. В этой ситуации важна не максимальная скорость, а минимальная стоимость токена.
Стратегия Google заключается в постоянном снижении стоимости токена на TPU и передаче этой экономии клиентам через более низкие облачные цены.
Если подход Google сработает, компании начнут выбирать решения по цене, стабильности и доступности вычислений, а не только по скорости.
Nvidia останется ведущим игроком в обучении самых больших моделей. Но её способность поддерживать высокую маржу может уменьшиться, если значительная доля инференса перейдёт на более доступные по цене TPU.
Отдельное преимущество Google создаёт собственная экосистема. Поисковая система, YouTube, Android и Workspace способны полностью загружать TPU-мощности и обеспечивать стабильный внутренний спрос.
https://x.com/KrisPatel99/status/1993259550544191645
У Nvidia высокая маржа при продаже GPU облакам, поэтому конечные цены получаются дорогими.
Google создаёт TPU почти по себестоимости, не добавляет наценку и может значительно снижать стоимость вычислений в своём облаке.
Так работает полная вертикальная интеграция. Один владелец контролирует весь путь от чипов до сети и облачного уровня, что позволяет гибко управлять ценами.
Главная часть расходов в ИИ - это не обучение моделей, а инференс. Когда модель уже развёрнута, почти весь бюджет уходит на генерацию токенов. В этой ситуации важна не максимальная скорость, а минимальная стоимость токена.
Стратегия Google заключается в постоянном снижении стоимости токена на TPU и передаче этой экономии клиентам через более низкие облачные цены.
Если подход Google сработает, компании начнут выбирать решения по цене, стабильности и доступности вычислений, а не только по скорости.
Nvidia останется ведущим игроком в обучении самых больших моделей. Но её способность поддерживать высокую маржу может уменьшиться, если значительная доля инференса перейдёт на более доступные по цене TPU.
Отдельное преимущество Google создаёт собственная экосистема. Поисковая система, YouTube, Android и Workspace способны полностью загружать TPU-мощности и обеспечивать стабильный внутренний спрос.
https://x.com/KrisPatel99/status/1993259550544191645
На V Конгрессе молодых ученых в Сириусе принимают участие специалисты Yandex Cloud - платформы для создания ИТ-продуктов от Яндекса. Компания помогает российским вузам ускорять исследования благодаря мощной ИИ-инфраструктуре. Компания берет на себя вычисления, хранение данных, обучение моделей и подбор оптимальных архитектур, сокращая время научной работы с сотен часов до минут.
На базе Yandex Cloud уже реализованы проекты SNAD и СПбГУ, а LLM-агент ЮФУ в десятки раз ускорил анализ спектров. Мощности платформы масштабируются для поддержки Курчатовского синхротрона, что подчеркивает высокий потенциал облака в науке.
Таким образом, Yandex Cloud становится эффективным инструментом для развития российских научных исследований и цифровой трансформации вузов.
На базе Yandex Cloud уже реализованы проекты SNAD и СПбГУ, а LLM-агент ЮФУ в десятки раз ускорил анализ спектров. Мощности платформы масштабируются для поддержки Курчатовского синхротрона, что подчеркивает высокий потенциал облака в науке.
Таким образом, Yandex Cloud становится эффективным инструментом для развития российских научных исследований и цифровой трансформации вузов.
Приглашаем на ЮMoneyDay — бесплатную онлайн-конференцию про финтех и IT 🔥
На протяжении двух дней будем общаться с разработчиками, инженерами, тестировщиками, продактами, дизайнерами и другими специалистами из ЮMoney. Они расскажут про свой опыт работы в большом финансовом продукте, поделятся лайфхаками и секретами.
Будут доклады по 16 направлениям:
🟣 Будущее финтеха
🟣 Бэкенд
🟣 Фронтенд
🟣 Тестирование
🟣 Python
🟣 Менеджмент проектов
🟣 Менеджмент продуктов
🟣 Системный анализ
🟣 SQL
🟣 UX
🟣 ИИ
🟣 Архитектура IT-решений
🟣 Внутренние системы
🟣 Мобильная разработка
🟣 Инфраструктура
🟣 О компании
Встречаемся онлайн 5 и 6 декабря в 11:00 мск. Чтобы участвовать, зарегистрируйтесь на сайте конференции✅
На протяжении двух дней будем общаться с разработчиками, инженерами, тестировщиками, продактами, дизайнерами и другими специалистами из ЮMoney. Они расскажут про свой опыт работы в большом финансовом продукте, поделятся лайфхаками и секретами.
Будут доклады по 16 направлениям:
Встречаемся онлайн 5 и 6 декабря в 11:00 мск. Чтобы участвовать, зарегистрируйтесь на сайте конференции
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI строит подписочную империю масштаба Spotify - и делает это невероятно быстро.
Сегодня у ChatGPT уже более 800 млн пользователей и около 35 млн платных подписчиков.
Это больше не просто вирусный инструмент - это превращается в полноценную платформу для продуктивности, на уровне крупных корпоративных экосистем.
К 2030 году OpenAI прогнозирует $200 млрд годовой выручки, рассчитывая догнать (и конкурировать с) Microsoft Office и Google Workspace, конвертируя ещё десятки миллионов пользователей в платные уровни.
ChatGPT - это уже не стартап.
Это новая глобальная инфраструктура для работы.
Сегодня у ChatGPT уже более 800 млн пользователей и около 35 млн платных подписчиков.
Это больше не просто вирусный инструмент - это превращается в полноценную платформу для продуктивности, на уровне крупных корпоративных экосистем.
К 2030 году OpenAI прогнозирует $200 млрд годовой выручки, рассчитывая догнать (и конкурировать с) Microsoft Office и Google Workspace, конвертируя ещё десятки миллионов пользователей в платные уровни.
ChatGPT - это уже не стартап.
Это новая глобальная инфраструктура для работы.
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
Forwarded from Machinelearning
NVIDIA анонсировала, о чем расскажет на конференции NeurIPS, которая началась сегодня и пройдет до 7 декабря в Сан-Диего.
NVIDIA DRIVE Alpamayo-R1, или сокращенно AR1.
Это первая в мире открытая ризонинг-VLA модель специально для исследований в области автопилотов. Модель построена на базе NVIDIA Cosmos Reason и отлично поддается дообучению с помощью RL.
Alpamayo-R1 будет доступна на GitHub и Hugging Face, а фреймворк AlpaSim для тестов уже опубликован.
Cosmos Cookbook - руководство с рецептами для физического ИИ и генерации синтетических данных и оценки моделей.
LidarGen - "модель мира", которая генерирует данные лидаров для симуляций.
Omniverse NuRec Fixer - инструмент мгновенного исправления артефактов в нейронных реконструкциях а робототехнике и БПЛА.
ProtoMotions3 - открытый фреймворк на базе Isaac Lab, позволяющий тренировать цифровых людей с невероятно реалистичной физикой.
MultiTalker Parakeet - модель для ASR нескольких спикеров даже в быстром темпе и с перекрытиями.
В паре с ней идет Sortformer - инструмент для диаризации, т. е. разделения спикеров в аудиопотоке в реальном времени.
Ну и, конечно, NeMo Gym - библиотека для создания сред обучения с RL в комплекте с NeMo Data Designer, комплексом для создания и проверки синтетических наборов данных.
К конференции NVIDIA подготовила более 70 научных работ. Вот лишь несколько жемчужин из этого списка:
Audio Flamingo 3. Это большая аудио-языковая модель, которая может "понимать" и анализировать аудиозаписи длительностью до 10 минут.
Minitron-SSM. Техника прунинга, которая позволила уменьшить модель Nemotron-H 8B с 8 до 4 млрд. параметров, при этом удвоив скорость инференса.
ProRL, или Prolonged Reinforcement Learning. Концепция, которая доказала, что продление процесса RL выводит модели на совершенно новый уровень в ризонинге.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
А вы когда-нибудь обманывали ИИ? 🤫
Понравился разбор в канале Журнала Яндекс Образования 8БИТ. Оказывается, чувство вины притупляется, когда мы знаем, что говорим с алгоритмом.
Редакция рассказала про недавний эксперимент учёных. Точнее несколько:
1️⃣ Купоны на скидку. Студентов поделили на две группы: первой выдали промокод с обычными условиями, другой — с повышенной скидкой только «для избранных». Если условия проверял ИИ, то 55% участников хотели выдать себя за «избранных». Если человек — мухлевали около 40%.
2️⃣ Возврат товара. Через ИИ-помощника правила нарушили 61,7% людей. Через живого сотрудника — 41,1%.
3️⃣ Участники возвращали товар через оператора или через голосовой помощник. Те, кто воспринимал ИИ как бездушную машину, врали на 22,65% чаще, чем те, кто думал, что нейросеть реально может помочь.
И вот какой вывод делает команда: дело даже не в ИИ как таковом. Люди охотнее нарушают правила, когда им кажется, что перед ними просто робот. Когда у ИИ появляется голос, манера общения или гуманизированный образ — люди начинают общаться честнее. Согласны?
Редакция разбираем ещё много подобных экспериментов. Очень помогает представить, какое будущее нас ждёт! Заглядывайте, чтобы не пропускать интересные факты о технологиях, ИИ и ML.
Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2VtzqwEPMPF
Понравился разбор в канале Журнала Яндекс Образования 8БИТ. Оказывается, чувство вины притупляется, когда мы знаем, что говорим с алгоритмом.
Редакция рассказала про недавний эксперимент учёных. Точнее несколько:
1️⃣ Купоны на скидку. Студентов поделили на две группы: первой выдали промокод с обычными условиями, другой — с повышенной скидкой только «для избранных». Если условия проверял ИИ, то 55% участников хотели выдать себя за «избранных». Если человек — мухлевали около 40%.
2️⃣ Возврат товара. Через ИИ-помощника правила нарушили 61,7% людей. Через живого сотрудника — 41,1%.
3️⃣ Участники возвращали товар через оператора или через голосовой помощник. Те, кто воспринимал ИИ как бездушную машину, врали на 22,65% чаще, чем те, кто думал, что нейросеть реально может помочь.
И вот какой вывод делает команда: дело даже не в ИИ как таковом. Люди охотнее нарушают правила, когда им кажется, что перед ними просто робот. Когда у ИИ появляется голос, манера общения или гуманизированный образ — люди начинают общаться честнее. Согласны?
Редакция разбираем ещё много подобных экспериментов. Очень помогает представить, какое будущее нас ждёт! Заглядывайте, чтобы не пропускать интересные факты о технологиях, ИИ и ML.
Реклама. ООО «ФРОМ СКРЭТЧ», ИНН 9724205560, erid: 2VtzqwEPMPF
⚡️ OpenAI вводит «code red»: новый reasoning-модель уже на следующей неделе
OpenAI объявила внутренний «code red» - компания временно перераспределяет людей и мощности, чтобы сфокусироваться на усилении ChatGPT на фоне растущей конкуренции со стороны Google и других игроков.
Главное:
• Новый reasoning-модель выходит уже на следующей неделе — по внутренним тестам она обгоняет Google Gemini 3 и станет основой для Thinking Mode и Deep Research.
• Приоритет — качество продукта, а не монетизация: рекламные пилоты (включая шопинг-рекламу) продолжаются, но масштабный запуск отложен, пока команда улучшает персонализацию и UX для аудитории в 800+ млн пользователей в неделю.
• В рамках «code red» OpenAI усиливает персонализацию, ускоряет ответы, снижает число ненужных отказов и улучшает поведение моделей, чтобы повысить позиции ChatGPT в лидербордах вроде LMArena.
• Отдельный фокус — генерация изображений: после сильного релиза Google Nano Banana Pro OpenAI хочет удержать конкурентоспособность Imagegen в творческих и коммерческих сценариях.
• Стратегические ставки огромны: ChatGPT обслуживает ~70% глобальной «assistant-активности» и около 10% поиска. OpenAI рассчитывает удвоить выручку ($10B → $20B → ~$35B к 2027 году) и привлечь около $100B инвестиций на фоне давления со стороны Google и Anthropic.
Неделя обещает быть жаркой - впереди один из самых важных релизов OpenAI за год.
https://www.theinformation.com/articles/openai-ceo-declares-code-red-combat-threats-chatgpt-delays-ads-effort
OpenAI объявила внутренний «code red» - компания временно перераспределяет людей и мощности, чтобы сфокусироваться на усилении ChatGPT на фоне растущей конкуренции со стороны Google и других игроков.
Главное:
• Новый reasoning-модель выходит уже на следующей неделе — по внутренним тестам она обгоняет Google Gemini 3 и станет основой для Thinking Mode и Deep Research.
• Приоритет — качество продукта, а не монетизация: рекламные пилоты (включая шопинг-рекламу) продолжаются, но масштабный запуск отложен, пока команда улучшает персонализацию и UX для аудитории в 800+ млн пользователей в неделю.
• В рамках «code red» OpenAI усиливает персонализацию, ускоряет ответы, снижает число ненужных отказов и улучшает поведение моделей, чтобы повысить позиции ChatGPT в лидербордах вроде LMArena.
• Отдельный фокус — генерация изображений: после сильного релиза Google Nano Banana Pro OpenAI хочет удержать конкурентоспособность Imagegen в творческих и коммерческих сценариях.
• Стратегические ставки огромны: ChatGPT обслуживает ~70% глобальной «assistant-активности» и около 10% поиска. OpenAI рассчитывает удвоить выручку ($10B → $20B → ~$35B к 2027 году) и привлечь около $100B инвестиций на фоне давления со стороны Google и Anthropic.
Неделя обещает быть жаркой - впереди один из самых важных релизов OpenAI за год.
https://www.theinformation.com/articles/openai-ceo-declares-code-red-combat-threats-chatgpt-delays-ads-effort