Microsoft анонсировала масштабное обновление Copilot, добавив функции, которые делают его по-настоящему персональным. Теперь Copilot запоминает детали из жизни пользователя: от предпочтений в еде до рабочих проектов — благодаря системе «Память».
Другая новинка - «Copilot Vision»: ИИ теперь «видит» через камеру смартфона или экран Windows 11, анализируя окружение в реальном времени. На ПК Copilot интегрируется с приложениями, помогая искать файлы, настраивать параметры и работать в многозадачном режиме через голосовые команды.
Добавлены веб-действия: бронирование столиков, покупка билетов или подарков через партнерские сервисы Booking.com и OpenTable. А с функцией Deep Research Copilot за минуты проведет сложный анализ данных, экономя часы рутинной работы.
Обновления уже доступны для iOS, Android и Windows.
blogs.microsoft.com
Команда разработки Llama рассматривает возможность очередной отсрочки выпуска своей новой модели, который уже неоднократно переносился из-за проблем с производительностью.
Компания планирует выпустить Llama 4 в конце этого месяца, но источники сообщают, что она может снова перенести дату, поскольку модель не оправдала ожиданий в задачах на рассуждение и математику.
theinformation.com
Сэм Альтман сообщил, что o3 и его «упрощённый» наследник o4-mini появятся уже через пару недель. Причина — задержка GPT-5, которую решили улучшить «сильнее, чем планировали». OpenAI признали: интеграция голосовых функций, поиска и глубокого ризонинга оказалась сложнее, чем предполагалось, а серверам компании нужно выдержать беспрецедентную нагрузку от недавнего релиза генератора изображений.
GPT-5, которую теперь ждут через несколько месяцев, предложит три уровня доступа: базовый — с ограничениями, Plus — повышенный интеллект, а Pro — максимальные возможности. Модель объединит все инструменты ChatGPT, включая Canvas и Deep Research.
Sam Altman в X (ex-Twitter)
Собрана на базе Qwen 2.5 VL
В модели не используются метаданные, извлеченные из PDF-файлов. Это значительно сокращает длину запроса, что, в свою очередь, снижает время обработки и потребление VRAM - без ущерба для точности.
HF
GitHub объявил о введении новых лимитов и ценовой модели для сервиса Copilot, который теперь включает плату за "премиальные" ИИ-модели. Это изменение введет ограничения на тарифы для пользователей, которые переходят с базовой модели GPT-4o на другие модели ИИ.
Ожидается, что новая структура ценообразования повлияет на пользовательский опыт, особенно для тех, кто ранее полагался на бесплатный доступ к расширенным возможностям.
github.blog
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍37❤20🔥8💋1
Media is too big
VIEW IN TELEGRAM
Интерфейс, похожна стандартные среды RL (например, OpenAI Gym/Gymnasium), но адаптированный для игры Pokémon Red/Blue.
Если хотите позалипать на выходных и попробовать различные RL-алгоритмы для обучения Ai игре в покемонов.
В основе лежит эмулятор Game Boy, реализованный на Python — библиотека pyboy.
Основная цель — создать и обучить ИИ-агентов, способных самостоятельно играть в Pokémon: исследовать мир, ловить покемонов, тренировать их, сражаться с другими тренерами и проходить игру.
Игроку любителю потребуется ~400 шагов, чтобы поймать первого покемона, Клоду 3.7 понадобилось ~450 🤗
🔗 Github
@ai_machinelearning_big_data
#AIagents #ml #ai #opengym
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤13🔥9🤨3
🦙 Встречайте, дамы и господа, LLaMA 4: новые мультимодальные MoE модели!
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.
Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.
Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн
У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.
Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.
На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,
🟡 Model Card
🟡 Веса
🟡 Релиз
@ai_machinelearning_big_data
Llama 4 Omni разработана для понимания и обработки информации модальностей, а не только текста.
Доступна в 3х вариантах: Llama 4 Scout и Llama 4 Maverick и анонсированный Llama 4 Behemoth.
Llama 4 Scout (109B) контекстное окно размером 10 М, 17B активных параметров · 16 эксперто , 109B общих параметров.
Llama 4 Maverick (400B) 17 млрд активных параметров ,128 экспертов, 400 млрд общих параметров · Длина контекста более 1 млн
У зверюги бегемота (еще тренируется) суммарное количество 2T!!! 16 экспертов, 288B активных параметров. Служит в качестве модели для обучения по методу совместной дистилляции Maverick.
Сейчас выпущены только Scout и Maverick, Кот-бегемот еще обучается.
На сегодняшний день Llama 4 Maverick предлагает лучшее в своем классе соотношение производительности и стоимости,
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥97👍22🗿10❤8🥰2😎2😁1
🔥Llama 4 Maverick занимает 2-е место став 4-й моделью, преодолевшей отметку 1400+ на Арене , уступая лишь Gemini 2.5 Pro!
- №1 в категориях
- Огромный скачок по сравнению с Llama 3 405B: 1268 → 1417.
Maverick входит в пятерку лучших во всех категориях.
А где там у нас claude?
https://lmarena.ai/leaderboard
@ai_machinelearning_big_data
#llama #arena #leaderboard #llm #opensource
- №1 в категориях
Hard Prompts, Coding, Math, Creative Writing
- Огромный скачок по сравнению с Llama 3 405B: 1268 → 1417.
Maverick входит в пятерку лучших во всех категориях.
https://lmarena.ai/leaderboard
@ai_machinelearning_big_data
#llama #arena #leaderboard #llm #opensource
👍64🔥24❤13🙊3😁2🥰1
Обслуживание LLMс архитектурой MoE всегда было сложной задачей: несмотря на снижение вычислительной нагрузки за счёт «разреженной» активации экспертов, GPU часто простаивают из-за неэффективного распределения ресурсов.
Новая методика MegaScale-Infer от ByteDance|Seed предлагает разделение модулей внимания и feed-forward networks (FFN) на независимые узлы с индивидуальной оптимизацией. Это не только делает загрузку GPU эффективной, но и сокращает стоимость обслуживания моделей в 1,9 раза по сравнению с аналогами.
Суть MegaScale-Infer — в «дизагрегации»: модули внимания, отвечающие за работу с ключевыми значениями (KV-кэш), и FFN-эксперты распределяются по разным GPU. Например, узлы внимания можно развернуть на GPU с высокой пропускной способностью памяти, а эксперты — на устройствах с мощными вычислительными ядрами. Такой подход позволяет масштабировать каждый компонент отдельно и избежать дисбаланса, когда один модуль ждет завершения работы другого.
Чтобы скрыть задержки связи между узлами, система использует конвейерный параллелизм. Запросы разбиваются на микропакеты, которые перекидываются между модулями внимания и FFN, как мячик в пинг-понге. Это минимизирует простои: пока один микропакет обрабатывается экспертами, механизмы внимания на GPU уже начинают работать со следующим.
Для стабильной коммуникации между сотнями устройств разработана библиотека M2N — она ускоряет передачу данных в 4,2 раза по сравнению с NCCL, устраняя лишние копии данных и синхронизацию.
Эксперименты на моделях Mixtral 8x22B (141 млрд. параметров) и DBRX (132 млрд.) показали, что MegaScale-Infer обрабатывает до 2,56Х больше токенов в секунду на один GPU, чем vLLM и TensorRT-LLM.
На гетерогенных кластерах с GPU H20 (для внимания) и L40S (для экспертов) система демонстрирует еще больший эффект: стоимость генерации токена снижается в 1,86 раза за счет оптимального распределения ресурсов: H20, обладая огромной памятью, идеально подходят для работы с KV-кэшем, а L40S эффективно считают матричные операции в FFN.
Для разработчиков, которые работают с LLM, MegaScale-Infer — не просто еще один фреймворк. Это инструмент, который превращает MoE-модели из ресурсоемких «монстров» в управляемые системы, где каждый GPU работает на пределе возможностей.
@ai_machinelearning_big_data
#AI #ML #LLM #MLOPS #MegaScaleInfer #ByteDance
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55👍24❤11
Это инструменты для моделирования физики в реальном времени, позволяющий разработчикам в интерактивных приложениях и играх обеспечивать реалистичные взаимодействия объектов: от столкновений и разрушений до симуляции жидкостей и газа.
PhysX является одним из самых популярных физических движков, который задействован для обработки физических взаимодействий в почти тысяче игр и входит в состав многих игровых движков, включая Unreal Engine, Unity3D, AnvilNext, Stingray, Dunia 2 и REDengine.
Внутри:
Доступно более 500 готовых ядер для CUDA
Все эти компоненты применяются в пакетах NVIDIA Omniverse (платформа для совместной работы над 3D-проектами) и могут быть полезны при разработке игр или других интерактивных проектов, где нужна надёжная и гибкая система физического моделирования.
С технической точки зрения движок PhysX отлично оптимизирован под параллельные вычисления на графических процессорах (особенно GPU от NVIDIA), что делает его популярным решением для высоконагруженных симуляций. С открытым исходным кодом (BSD-лицензия) PhysX можно свободно использовать, модифицировать и встраивать в собственные проекты при соблюдении условий, перечисленных в лицензии.
#NVIDIA #PhysX #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍92🔥40❤18🤣3
Содержит среду для симуляции, синтетический датасет и бенчмарки.
RoboVerse позволяет работать с разными симуляторами и различными типами роботов и роботизированными платформами через единый API.
Позволяет легко переключаться между симуляторами, подгружать необходимые объекты, управлять физикой и т.д.
Платформа ориентирована на задачи обучения с подкреплением (RL) и имитационное обучение (IL).
Предусматриваются разные уровни обобщения и усложнения задач, что помогает объективно сравнивать алгоритмы и подходы.
Высокая реалистичность: точная физика и фотореалистичный рендеринг улучшают перенос (sim-to-real transfer).
Единая инфраструктура: снижает порог вхождения для исследователей, которые хотят тестировать алгоритмы в разных симуляторах и на разных роботах.
RoboVerse упрощает проведение экспериментов и помогает получить надёжные результаты — от имитационного обучения до обучения с подкреплением и моделирования окружения.
#rl #ai #robots #IL
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍45🔥18❤6
В последние недели OpenAI вела переговоры о приобретении стартапа по производству оборудования io Products — совместного проекта Джони Айва (бывший главный директор по дизайну компании Apple)и Сэма Альтмана по разработке персонального устройства с поддержкой ИИ.
Обсуждалась цена покупки более
500 миллионов долларов. Предполагается, что устройство не будет иметь экрана и будет управляться голосом — как в научно-фантастических фильмах.
В качестве альтернативы также обсуждается партнерство.
Цель проекта — более тесная интеграция ИИ в повседневную жизнь. Проект может поставить OpenAI в прямую конкуренцию с Apple.
🔗 Новость
@ai_machinelearning_big_data
#openai #apple
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52🔥17❤12😎5🙈4
💼 Ежегодный отчёт AI Index 2025, опубликованный Стэнфордом HAI (Human-Centered Artificial Intelligence), представляет собой ежегодное исследование, которое систематизирует и анализирует ключевые тенденции в области искусственного интеллекта (ИИ).
Главное:
▪Резкий рост производительности ИИ: Ai модели показывают значительное улучшение на сложных бенчмарках (например, +48.9% на GPQA, +67.3% на SWE-bench за год).
▪ Глубокая интеграция в жизнь: ИИ активно используется в медицине (FDA одобрило 223 ИИ-устройства в 2023, против 6 в 2015) и транспорте (Waymo: 150,000+ поездок/неделю).
▪ Бум инвестиций и использования в бизнесе: 78% организаций используют ИИ (рост с 55% за год). Частные инвестиции в США достигли $109.1 млрд (против $9.3 млрд в Китае). Глобальные инвестиции в генеративный ИИ - $33.9 млрд.
▪ Геополитика ИИ: США лидируют, Китай догоняет: США создали 40 передовых моделей, Китай – 15, но быстро сокращает разрыв в качестве.
▪ Ответственный ИИ (RAI) и регулирование ИИ: Развитие RAI неравномерно, но правительства активизируются. В США число федеральных ИИ-регуляторов удвоилось (59 в 2024). Глобальные упоминания ИИ в законодательстве выросли в 9 раз с 2016 года.
▪ Доступность ИИ растет: Стоимость вычислений (inference) для модели уровня GPT-3.5 упала более чем в 280 раз за ~2 года. Стоимость оборудования снижается на 30% ежегодно. Открытые модели почти догнали закрытые по производительности на некоторых задачах (разрыв сократился с 8% до 1.7% за год).
▪ Индустрия ИИ доминирует, конкуренция усиливается: Почти 90% передовых моделей созданы тех гигантами. Разрыв между топ-1 и топ-10 моделями сократился с 11.9% до 5.4% за год.
🟡 Основные инсайты
🟡 Полный отчет
#ai #AIIndexReport #stanford
Главное:
▪Резкий рост производительности ИИ: Ai модели показывают значительное улучшение на сложных бенчмарках (например, +48.9% на GPQA, +67.3% на SWE-bench за год).
▪ Глубокая интеграция в жизнь: ИИ активно используется в медицине (FDA одобрило 223 ИИ-устройства в 2023, против 6 в 2015) и транспорте (Waymo: 150,000+ поездок/неделю).
▪ Бум инвестиций и использования в бизнесе: 78% организаций используют ИИ (рост с 55% за год). Частные инвестиции в США достигли $109.1 млрд (против $9.3 млрд в Китае). Глобальные инвестиции в генеративный ИИ - $33.9 млрд.
▪ Геополитика ИИ: США лидируют, Китай догоняет: США создали 40 передовых моделей, Китай – 15, но быстро сокращает разрыв в качестве.
▪ Ответственный ИИ (RAI) и регулирование ИИ: Развитие RAI неравномерно, но правительства активизируются. В США число федеральных ИИ-регуляторов удвоилось (59 в 2024). Глобальные упоминания ИИ в законодательстве выросли в 9 раз с 2016 года.
▪ Доступность ИИ растет: Стоимость вычислений (inference) для модели уровня GPT-3.5 упала более чем в 280 раз за ~2 года. Стоимость оборудования снижается на 30% ежегодно. Открытые модели почти догнали закрытые по производительности на некоторых задачах (разрыв сократился с 8% до 1.7% за год).
▪ Индустрия ИИ доминирует, конкуренция усиливается: Почти 90% передовых моделей созданы тех гигантами. Разрыв между топ-1 и топ-10 моделями сократился с 11.9% до 5.4% за год.
#ai #AIIndexReport #stanford
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍51❤22🔥17😐4