Forwarded from Innovation & Research
Goldman Sachs запускает корпоративный AI-ассистент
Об этом сообщается во внутренней записке, разосланной сотрудникам от имени директора по информационным технологиям Марко Ардженти (Marco Argenti). Около 10 тыс. сотрудников уже используют новый инструмент, и теперь он будет доступен по всей компании. GS AI Assistant предназначен для задач по анализу данных, составления черновиков текстов и краткого изложения сложных документов.
Таким образом, компания присоединилась к числу крупных банков, активно внедряющих AI в ежедневные бизнес-процессы. Так, Citigroup использует CitiAssist и Citi Stylus, предназначенные для обработки документов и поиска по внутренним регламентам. Morgan Stanley применяет чат-бот для финансовых консультантов, а Bank of America — виртуальный помощник Erica, ориентированный на работу с розничными клиентами.
#news #AI #бигтехи
https://www.reuters.com/business/goldman-sachs-launches-ai-assistant-firmwide-memo-shows-2025-06-23/
Об этом сообщается во внутренней записке, разосланной сотрудникам от имени директора по информационным технологиям Марко Ардженти (Marco Argenti). Около 10 тыс. сотрудников уже используют новый инструмент, и теперь он будет доступен по всей компании. GS AI Assistant предназначен для задач по анализу данных, составления черновиков текстов и краткого изложения сложных документов.
Таким образом, компания присоединилась к числу крупных банков, активно внедряющих AI в ежедневные бизнес-процессы. Так, Citigroup использует CitiAssist и Citi Stylus, предназначенные для обработки документов и поиска по внутренним регламентам. Morgan Stanley применяет чат-бот для финансовых консультантов, а Bank of America — виртуальный помощник Erica, ориентированный на работу с розничными клиентами.
#news #AI #бигтехи
https://www.reuters.com/business/goldman-sachs-launches-ai-assistant-firmwide-memo-shows-2025-06-23/
👍1
Forwarded from proVenture (проВенчур)
🔥 The State of Consumer AI от Menlo Ventures.
Ребята из Menlo Ventures написали новый любопытный отчет про AI для розничных клиентов (кстати, не без помощи Claude, о чем сразу указано). В тему недавнего поста от a16z по бенчмаркам роста AI бизнесов, из которых следовало то, что consumer растет быстрее b2b.
Чего там есть интересного?
1/ 61% взрослых американцев когда-либо использовали AI и 19% используют каждый день. Экстраполируя эти данные на мир мы получим до 1.8B когда-либо использовавших и до 600М ежедневных пользователей.
2/ Рынок Consumer AI Tools составляет $12.1B (19% из него составляют специализированные ассистенты, а остальное – общего назначения). Всего 3% пользователей платят за подписку, если считать, что 1.8B должны были бы платить $20 в месяц => это бы составляло $432B.
3/ Кто пользуется AI?
▪️All US: 61% всего и 19% ежедневно
▪️Gen Z: 76% и 21%
▪️Millennials: 70% и 24%
▪️Gen X: 59% и 19%
▪️Baby Boomers: 45% и 11%
🔹Gen Z тут явно лидирует, но удивительно, что 45% бумеров использовали AI когда либо – очень много!
4/ Какие еще любопытные паттерны использования AI?
▪️75% трудоустроенных и только 52% безработных используют AI
▪️Студенты больше всего – 85%
▪️79% среди родителей и только 54% среди взрослых без детей
5/ Какие наиболее популярные ассистенты?
▫️ChatGPT: 28%
▫️Gemini: 23%
▫️Meta (признанная экстремистской): 18%
▫️Alexa: 18%
▫️Siri: 16%
🔹На секундочку Siri на 5-м месте 😂, и только потом и Claude, и Grok, и Deepseek и так далее
6/ Топ-3 наиболее часто встречающихся задачи, для чего используется AI:
▪️Написание имейлов: 19%
▪️Исследование топиков в интернете: 18%
▪️Управление списками дел: 18%
🔹В целом концентрация не так велика – в топ-10 все задачи занимают от 14% до 18%
7/ Топ-5 задач, где чаще всего используется AI:
▪️Написание текстов: 51%
▪️Программирование: 47%
▪️Помощь в назначении задач: 43%
▪️Создание презентаций: 38%
▪️Создание музыки и аудио: 37%
8/ В отчете несколько отдельных любопытных графиков о том, как AI меняет то, как мы учимся, как участвует в креативных индустриях, социальных практиках, медицине и так далее.
9/ Но не все используют AI – давайте посмотрим на 5 причин того, почему AI можно не использовать:
🔸80% предпочитают человека искусственному интеллекту
🔸71% переживают за сохранность данных
🔸63% не видят смысла в AI
🔸58% не доверяют AI информации
🔸53% предпочитают, чтобы ответственность нес человек
👉 Читайте подробнее по ссылке: https://menlovc.com/perspective/2025-the-state-of-consumer-ai/
@proVenture
#ai #research
Ребята из Menlo Ventures написали новый любопытный отчет про AI для розничных клиентов (кстати, не без помощи Claude, о чем сразу указано). В тему недавнего поста от a16z по бенчмаркам роста AI бизнесов, из которых следовало то, что consumer растет быстрее b2b.
Чего там есть интересного?
1/ 61% взрослых американцев когда-либо использовали AI и 19% используют каждый день. Экстраполируя эти данные на мир мы получим до 1.8B когда-либо использовавших и до 600М ежедневных пользователей.
2/ Рынок Consumer AI Tools составляет $12.1B (19% из него составляют специализированные ассистенты, а остальное – общего назначения). Всего 3% пользователей платят за подписку, если считать, что 1.8B должны были бы платить $20 в месяц => это бы составляло $432B.
3/ Кто пользуется AI?
▪️All US: 61% всего и 19% ежедневно
▪️Gen Z: 76% и 21%
▪️Millennials: 70% и 24%
▪️Gen X: 59% и 19%
▪️Baby Boomers: 45% и 11%
🔹Gen Z тут явно лидирует, но удивительно, что 45% бумеров использовали AI когда либо – очень много!
4/ Какие еще любопытные паттерны использования AI?
▪️75% трудоустроенных и только 52% безработных используют AI
▪️Студенты больше всего – 85%
▪️79% среди родителей и только 54% среди взрослых без детей
5/ Какие наиболее популярные ассистенты?
▫️ChatGPT: 28%
▫️Gemini: 23%
▫️Meta (признанная экстремистской): 18%
▫️Alexa: 18%
▫️Siri: 16%
🔹На секундочку Siri на 5-м месте 😂, и только потом и Claude, и Grok, и Deepseek и так далее
6/ Топ-3 наиболее часто встречающихся задачи, для чего используется AI:
▪️Написание имейлов: 19%
▪️Исследование топиков в интернете: 18%
▪️Управление списками дел: 18%
🔹В целом концентрация не так велика – в топ-10 все задачи занимают от 14% до 18%
7/ Топ-5 задач, где чаще всего используется AI:
▪️Написание текстов: 51%
▪️Программирование: 47%
▪️Помощь в назначении задач: 43%
▪️Создание презентаций: 38%
▪️Создание музыки и аудио: 37%
8/ В отчете несколько отдельных любопытных графиков о том, как AI меняет то, как мы учимся, как участвует в креативных индустриях, социальных практиках, медицине и так далее.
9/ Но не все используют AI – давайте посмотрим на 5 причин того, почему AI можно не использовать:
🔸80% предпочитают человека искусственному интеллекту
🔸71% переживают за сохранность данных
🔸63% не видят смысла в AI
🔸58% не доверяют AI информации
🔸53% предпочитают, чтобы ответственность нес человек
👉 Читайте подробнее по ссылке: https://menlovc.com/perspective/2025-the-state-of-consumer-ai/
@proVenture
#ai #research
Forwarded from Innovation & Research
Meta* переманила главу AI-команды Apple на фоне внутреннего кризиса вокруг Siri
Руомин Панг (Ruoming Pang) — руководитель команды Apple Foundation Models (AFM) —возглавлял разработку LLM, лежащих в основе Apple Intelligence и будущей версии Siri. Его новым работодателем станет Meta Superintelligence Labs* — подразделение, которое курирует Марк Цукерберг, а возглавляет бывший CEO Scale AI, а теперь уже главный AI-директор Meta* Александр Ванг (Alexandr Wang). Чтобы заполучить Пана, Meta* предложила ему компенсационный пакет на десятки миллионов долларов в год.
Это самая значимая потеря в AI-команде Apple с момента запуска Apple Intelligence. Уход Пана может запустить волну переходов: несколько инженеров уже рассматривают предложения от Meta* и других компаний. В июне Apple также покинул заместитель Пана Том Гантер (Tom Gunter).
На фоне ухода главы AI-команды внимание вновь приковано к внутренним конфликтам вокруг Siri. Руководство Apple обсуждает возможность замены собственных моделей решениями от OpenAI или Anthropic, что негативно отразилось на мотивации команды Apple Foundation Models (AFM). При этом Apple продолжает развивать «новую Siri» на базе моделей, созданных под руководством Пана. Эти же разработки лежат в основе функций Apple Intelligence, включая Genmoji, Priority Notifications и краткие резюме писем и статей.
Теперь команду AFM возглавит Чифэн Чэн (Zhifeng Chen). Вместо прежней централизованной структуры с прямым подчинением Пану, будет введена многоуровневая модель, где ведущие менеджеры Apple — предположительно, Чонг Ван, Зируй Ван, Чун-Чен Чиу и Голи Йин — будут курировать инженерные подгруппы.
*организация запрещена на территории России и признана экстремистской
#news #AI #бигтехи
https://www.bloomberg.com/news/articles/2025-07-07/apple-loses-its-top-ai-models-executive-to-meta-s-hiring-spree
Руомин Панг (Ruoming Pang) — руководитель команды Apple Foundation Models (AFM) —возглавлял разработку LLM, лежащих в основе Apple Intelligence и будущей версии Siri. Его новым работодателем станет Meta Superintelligence Labs* — подразделение, которое курирует Марк Цукерберг, а возглавляет бывший CEO Scale AI, а теперь уже главный AI-директор Meta* Александр Ванг (Alexandr Wang). Чтобы заполучить Пана, Meta* предложила ему компенсационный пакет на десятки миллионов долларов в год.
Это самая значимая потеря в AI-команде Apple с момента запуска Apple Intelligence. Уход Пана может запустить волну переходов: несколько инженеров уже рассматривают предложения от Meta* и других компаний. В июне Apple также покинул заместитель Пана Том Гантер (Tom Gunter).
На фоне ухода главы AI-команды внимание вновь приковано к внутренним конфликтам вокруг Siri. Руководство Apple обсуждает возможность замены собственных моделей решениями от OpenAI или Anthropic, что негативно отразилось на мотивации команды Apple Foundation Models (AFM). При этом Apple продолжает развивать «новую Siri» на базе моделей, созданных под руководством Пана. Эти же разработки лежат в основе функций Apple Intelligence, включая Genmoji, Priority Notifications и краткие резюме писем и статей.
Теперь команду AFM возглавит Чифэн Чэн (Zhifeng Chen). Вместо прежней централизованной структуры с прямым подчинением Пану, будет введена многоуровневая модель, где ведущие менеджеры Apple — предположительно, Чонг Ван, Зируй Ван, Чун-Чен Чиу и Голи Йин — будут курировать инженерные подгруппы.
*организация запрещена на территории России и признана экстремистской
#news #AI #бигтехи
https://www.bloomberg.com/news/articles/2025-07-07/apple-loses-its-top-ai-models-executive-to-meta-s-hiring-spree
Bloomberg.com
Apple Loses Top AI Models Executive to Meta’s Hiring Spree
Apple Inc.’s top executive in charge of artificial intelligence models is leaving for Meta Platforms Inc., another setback in the iPhone maker’s struggling AI efforts.
❤1
Forwarded from Innovation & Research
Amazon укрепляет альянс с Anthropic, чтобы противостоять тандему Microsoft–OpenAI
Amazon рассматривает возможность новой многомиллиардной инвестиции в стартап Anthropic, усиливая стратегический союз на фоне растущей конкуренции с парой Microsoft–OpenAI. Компания уже вложила в разработчика AI-моделей $8 млрд и готова продолжить финансирование, сохранить отрыв от Google, вложившего только около $3 млрд.
Партнёрство Amazon и Anthropic выходит за рамки простой инвестиции: они вместе реализуют один из крупнейших в мире проектов по строительству дата-центров — Project Rainier. В штате Индиана возводится первый дата-центр с чипами Trainium2 от Amazon — его мощность составит 2,2 ГВт, что почти вдвое превышает мощности кластера Oracle для OpenAI в Техасе.
Anthropic использует инфраструктуру Amazon для обучения и инференса своих моделей, включая Claude, который уже встроен в голосового помощника Alexa+ и стриминговый сервис Prime Video. Взамен Amazon активно продвигает модели Anthropic среди своих облачных клиентов — в отличие от Google, который, несмотря на долю в стартапе, делает акцент на собственный Gemini.
Новый раунд инвестиций укрепит эту зависимость, но и обеспечит обеим сторонам стабильность и масштаб, которые необходимы для гонки в AI. В условиях, когда каждая крупная платформа строит свой вертикально интегрированный стек — модель, чип, облако, продукт — Amazon и Anthropic делают ставку на союз как на конкурентное преимущество.
#news #AI #бигтехи #стартапы
https://www.ft.com/content/3e569928-dc0e-4baa-80c3-b51d24facb23
Amazon рассматривает возможность новой многомиллиардной инвестиции в стартап Anthropic, усиливая стратегический союз на фоне растущей конкуренции с парой Microsoft–OpenAI. Компания уже вложила в разработчика AI-моделей $8 млрд и готова продолжить финансирование, сохранить отрыв от Google, вложившего только около $3 млрд.
Партнёрство Amazon и Anthropic выходит за рамки простой инвестиции: они вместе реализуют один из крупнейших в мире проектов по строительству дата-центров — Project Rainier. В штате Индиана возводится первый дата-центр с чипами Trainium2 от Amazon — его мощность составит 2,2 ГВт, что почти вдвое превышает мощности кластера Oracle для OpenAI в Техасе.
Anthropic использует инфраструктуру Amazon для обучения и инференса своих моделей, включая Claude, который уже встроен в голосового помощника Alexa+ и стриминговый сервис Prime Video. Взамен Amazon активно продвигает модели Anthropic среди своих облачных клиентов — в отличие от Google, который, несмотря на долю в стартапе, делает акцент на собственный Gemini.
Новый раунд инвестиций укрепит эту зависимость, но и обеспечит обеим сторонам стабильность и масштаб, которые необходимы для гонки в AI. В условиях, когда каждая крупная платформа строит свой вертикально интегрированный стек — модель, чип, облако, продукт — Amazon и Anthropic делают ставку на союз как на конкурентное преимущество.
#news #AI #бигтехи #стартапы
https://www.ft.com/content/3e569928-dc0e-4baa-80c3-b51d24facb23
Ft
Amazon weighs further investment in Anthropic to deepen AI alliance
The tech groups are increasingly tied to each other and act as a bulwark to Microsoft-OpenAI partnership
Forwarded from Innovation & Research
Huawei отвергла обвинения в копировании AI-модели Alibaba
Исследовательская лаборатория Huawei — Noah’s Ark Lab — отвергла обвинения в том, что её языковая модель Pangu Pro Moe (Mixture of Experts) была создана на основе модели Qwen 2.5 14B.
Поводом для спора стала публикация анонимной группы HonestAGI на GitHub, где утверждалось, что модели демонстрируют «чрезмерное сходство» и что Huawei якобы использовала подход «апсайклинга», а не собственное обучение с нуля. Авторы назвали это возможным нарушением авторских прав и искажением фактов в технической документации Huawei.
В ответ Noah’s Ark заявила, что Pangu Pro была разработана независимо и с нуля, а также является первой в мире моделью такого типа, полностью обученной на чипах Huawei Ascend. Лаборатория отметила, что использовала открытый код, но строго соблюдала лицензии и указывала авторство в исходных файлах. При этом конкретные проекты, которые были позаимствованы, не названы.
Конфликт возник на фоне обострившейся конкуренции между китайскими AI-компаниями после релиза R1 от DeepSeek. Alibaba выпустила Qwen 2.5 14B в мае 2024 г. — компактную модель, пригодную для запуска на ПК и смартфонах. В отличие от неё, Pangu ориентирована применение в корпоративном и государственном секторах, включая финтех и промышленность. Huawei опубликовала код Pangu Pro на китайской платформе GitCode в конце июня, чтобы стимулировать интерес разработчиков.
Спор на GitHub, начавшийся с поста «Pangu’s Sorrow», вызвал резонанс в китайских AI-медиа, однако первоисточник был удалён. В новой публикации также утверждается, что команда Huawei действовала под давлением и пыталась догнать конкурентов любой ценой.
Huawei заявила, что готова к открытому техническому диалогу, но настаивает на легитимности своей разработки.
#news #AI #бигтехи
https://www.bloomberg.com/news/articles/2025-07-07/huawei-s-ai-lab-fends-off-accusations-it-copied-rival-models?srnd=phx-technology
Исследовательская лаборатория Huawei — Noah’s Ark Lab — отвергла обвинения в том, что её языковая модель Pangu Pro Moe (Mixture of Experts) была создана на основе модели Qwen 2.5 14B.
Поводом для спора стала публикация анонимной группы HonestAGI на GitHub, где утверждалось, что модели демонстрируют «чрезмерное сходство» и что Huawei якобы использовала подход «апсайклинга», а не собственное обучение с нуля. Авторы назвали это возможным нарушением авторских прав и искажением фактов в технической документации Huawei.
В ответ Noah’s Ark заявила, что Pangu Pro была разработана независимо и с нуля, а также является первой в мире моделью такого типа, полностью обученной на чипах Huawei Ascend. Лаборатория отметила, что использовала открытый код, но строго соблюдала лицензии и указывала авторство в исходных файлах. При этом конкретные проекты, которые были позаимствованы, не названы.
Конфликт возник на фоне обострившейся конкуренции между китайскими AI-компаниями после релиза R1 от DeepSeek. Alibaba выпустила Qwen 2.5 14B в мае 2024 г. — компактную модель, пригодную для запуска на ПК и смартфонах. В отличие от неё, Pangu ориентирована применение в корпоративном и государственном секторах, включая финтех и промышленность. Huawei опубликовала код Pangu Pro на китайской платформе GitCode в конце июня, чтобы стимулировать интерес разработчиков.
Спор на GitHub, начавшийся с поста «Pangu’s Sorrow», вызвал резонанс в китайских AI-медиа, однако первоисточник был удалён. В новой публикации также утверждается, что команда Huawei действовала под давлением и пыталась догнать конкурентов любой ценой.
Huawei заявила, что готова к открытому техническому диалогу, но настаивает на легитимности своей разработки.
#news #AI #бигтехи
https://www.bloomberg.com/news/articles/2025-07-07/huawei-s-ai-lab-fends-off-accusations-it-copied-rival-models?srnd=phx-technology
Bloomberg.com
Huawei’s AI Lab Fends Off Accusations It Copied Rival Models
Huawei Technologies Co.’s secretive AI research lab has pushed back against accusations it relied on rivals’ models to develop its own Pangu platform, taking the unusual step of rebutting claims about its artificial intelligence efforts.
❤1
Forwarded from Innovation & Research
Дешевле в десятки раз: китайская Moonshot выпустила AI-модель Kimi K2, опережающую GPT-4.1 и Claude Opus 4 в кодинге
Поддерживаемый Alibaba стартап Moonshot представил Kimi K2. Эта AI-модель оптимизирована для задач программирования. Kimi K2 имеет архитектуру MoE (Mixture of Experts) и включает 1 трлн параметров, из которых активно используется 32 млрд. Одно из ключевых преимуществ Kimi K2 — способность к генерации и запуску кода, в том числе и при работе через API.
Модель показала результативность на уровне Claude Opus 4 и GPT-4.1 в бенчмарках SWE Bench, Tau2 и AceBench. Также, Kimi K2 превзошла Claude Opus 4 по двум показателям и продемонстрировала лучшую общую производительность, чем ориентированная на кодирование модель OpenAI GPT-4.1
Kimi K2 имеет контекстное окно до 128 тысяч токенов — аналогично модели Qwen 3-235B и R1 от DeepSeek. Для её обучения использовался новый оптимизатор Muon, который стабильное обучение модели даже при росте объёмов данных и параметров. Дополнительно применяется система MuonClip, стабилизирующая обучение путём сглаживания резких скачков функции потерь, а также реализован механизм самооценки: модель способна выбирать лучший ответ в задачах, где отсутствует эталон.
Kimi K2 доступна бесплатно в браузере и приложении. Цена на коммерческое использование — в десятки раз ниже, чем у конкурентов. Так, миллион входных токенов будет стоить пользователю $0,15, а выходных — $2,5. Для сравнения — GPT-4.1 стоит $2 и $8, а Claude Opus — $15 и $75 соответственно. Допустимо коммерческое использование: но требуется указание бренда «Kimi K2» при MAU выше 100 млн или выручке от $20 млн в месяц.
Особенно привлекательно это выглядит на фоне новостей о том, что OpenAI вновь отложила выпуск своей первой open source модели «на неопределённый срок», сославшись на риски.
Ранее Moonshot выпустила Kimi-Researcher — другую AI-модель, которая в тесте Humanity’s Last Exam набрала столько же баллов, сколько Google Gemini Deep Research (26.9), и обошла модель Deep Research от OpenAI. Её даже упомянули на презентации Grok 4 от xAI Илона Маска.
Несмотря на высокие результаты в задачах по программированию, аналитики отмечают: интеграция K2 с внешними системами пока ограничена. А это значит, что миграция с существующих решений будет непростой. Тем не менее стартап продолжает набирать вес на фоне интереса инвесторов к китайским аналогам американских моделей.
GitHub
HuggingFace
#news #AI
https://www.cnbc.com/2025/07/14/alibaba-backed-moonshot-releases-kimi-k2-ai-rivaling-chatgpt-claude.html
Поддерживаемый Alibaba стартап Moonshot представил Kimi K2. Эта AI-модель оптимизирована для задач программирования. Kimi K2 имеет архитектуру MoE (Mixture of Experts) и включает 1 трлн параметров, из которых активно используется 32 млрд. Одно из ключевых преимуществ Kimi K2 — способность к генерации и запуску кода, в том числе и при работе через API.
Модель показала результативность на уровне Claude Opus 4 и GPT-4.1 в бенчмарках SWE Bench, Tau2 и AceBench. Также, Kimi K2 превзошла Claude Opus 4 по двум показателям и продемонстрировала лучшую общую производительность, чем ориентированная на кодирование модель OpenAI GPT-4.1
Kimi K2 имеет контекстное окно до 128 тысяч токенов — аналогично модели Qwen 3-235B и R1 от DeepSeek. Для её обучения использовался новый оптимизатор Muon, который стабильное обучение модели даже при росте объёмов данных и параметров. Дополнительно применяется система MuonClip, стабилизирующая обучение путём сглаживания резких скачков функции потерь, а также реализован механизм самооценки: модель способна выбирать лучший ответ в задачах, где отсутствует эталон.
Kimi K2 доступна бесплатно в браузере и приложении. Цена на коммерческое использование — в десятки раз ниже, чем у конкурентов. Так, миллион входных токенов будет стоить пользователю $0,15, а выходных — $2,5. Для сравнения — GPT-4.1 стоит $2 и $8, а Claude Opus — $15 и $75 соответственно. Допустимо коммерческое использование: но требуется указание бренда «Kimi K2» при MAU выше 100 млн или выручке от $20 млн в месяц.
Особенно привлекательно это выглядит на фоне новостей о том, что OpenAI вновь отложила выпуск своей первой open source модели «на неопределённый срок», сославшись на риски.
Ранее Moonshot выпустила Kimi-Researcher — другую AI-модель, которая в тесте Humanity’s Last Exam набрала столько же баллов, сколько Google Gemini Deep Research (26.9), и обошла модель Deep Research от OpenAI. Её даже упомянули на презентации Grok 4 от xAI Илона Маска.
Несмотря на высокие результаты в задачах по программированию, аналитики отмечают: интеграция K2 с внешними системами пока ограничена. А это значит, что миграция с существующих решений будет непростой. Тем не менее стартап продолжает набирать вес на фоне интереса инвесторов к китайским аналогам американских моделей.
GitHub
HuggingFace
#news #AI
https://www.cnbc.com/2025/07/14/alibaba-backed-moonshot-releases-kimi-k2-ai-rivaling-chatgpt-claude.html
GitHub
GitHub - MoonshotAI/Kimi-K2: Kimi K2 is the large language model series developed by Moonshot AI team
Kimi K2 is the large language model series developed by Moonshot AI team - MoonshotAI/Kimi-K2
Forwarded from Innovation & Research
Meta* представила прототип браслета для управления компьютером и смартфоном при помощи жестов
Технология позволяет перемещать курсор, открывать приложения и даже писать в воздухе, чтобы текст появлялся на экране. В перспективе устройство, напоминающее крупные наручные часы, сможет работать без фактического движения — достаточно будет намерения. Разработка ведётся в Reality Labs**, куда вошёл стартап Ctrl Labs, основанный Томасом Рирдоном (Thomas Reardon), одним из создателей Internet Explorer.
Технология основана на поверхностной электромиографии (sEMG) — методе, регистрирующем электрические сигналы, генерируемые мышцами при активации мотонейронов спинного мозга. Браслет оснащён высокочувствительными сухими электродами, расположенными на запястье, и способен улавливать даже слабые сигналы.
Браслет продемонстрировал высокую производительность во время тестов: скорость ввода текста пользователем составила 20,9 слов в минуту, скорость распознавания жестов в задачах с дискретными командами — 0,88 в секунду.
Устройство не требует хирургического вмешательства, в отличие от решений Neuralink или Synchron, которые используют импланты для чтения активности мозга. Это стало возможным благодаря AI-системе, обученной на данных 10 тыс. пользователей. AI сделал интерфейс более точным и универсальным: он работает с новым пользователем без предварительного обучения.
Meta* планирует интегрировать технологию в потребительские устройства в ближайшие годы. Уже сейчас браслет тестируют с умными очками и в проектах для людей с ограниченными возможностями — устройство распознаёт мышечные сигналы даже у пациентов с травмами спинного мозга. По словам Рирдона, система не «читает мысли», а интерпретирует намерения.
*Организация запрещена на территории России и признана экстремистской
**Продукт организации, которая запрещена на территории России и признана экстремистской
Публикация в Nature
#news #AI #бигтехи
https://www.nytimes.com/2025/07/23/science/meta-computer-wristband-reardon.html?smid=nytcore-ios-share&referringSource=articleShare
Технология позволяет перемещать курсор, открывать приложения и даже писать в воздухе, чтобы текст появлялся на экране. В перспективе устройство, напоминающее крупные наручные часы, сможет работать без фактического движения — достаточно будет намерения. Разработка ведётся в Reality Labs**, куда вошёл стартап Ctrl Labs, основанный Томасом Рирдоном (Thomas Reardon), одним из создателей Internet Explorer.
Технология основана на поверхностной электромиографии (sEMG) — методе, регистрирующем электрические сигналы, генерируемые мышцами при активации мотонейронов спинного мозга. Браслет оснащён высокочувствительными сухими электродами, расположенными на запястье, и способен улавливать даже слабые сигналы.
Браслет продемонстрировал высокую производительность во время тестов: скорость ввода текста пользователем составила 20,9 слов в минуту, скорость распознавания жестов в задачах с дискретными командами — 0,88 в секунду.
Устройство не требует хирургического вмешательства, в отличие от решений Neuralink или Synchron, которые используют импланты для чтения активности мозга. Это стало возможным благодаря AI-системе, обученной на данных 10 тыс. пользователей. AI сделал интерфейс более точным и универсальным: он работает с новым пользователем без предварительного обучения.
Meta* планирует интегрировать технологию в потребительские устройства в ближайшие годы. Уже сейчас браслет тестируют с умными очками и в проектах для людей с ограниченными возможностями — устройство распознаёт мышечные сигналы даже у пациентов с травмами спинного мозга. По словам Рирдона, система не «читает мысли», а интерпретирует намерения.
*Организация запрещена на территории России и признана экстремистской
**Продукт организации, которая запрещена на территории России и признана экстремистской
Публикация в Nature
#news #AI #бигтехи
https://www.nytimes.com/2025/07/23/science/meta-computer-wristband-reardon.html?smid=nytcore-ios-share&referringSource=articleShare
Nature
A generic non-invasive neuromotor interface for human-computer interaction
Nature - A high-bandwidth neuromotor interface offers performant out-of-the-box generalization across people.
Forwarded from Data Fish
🚀 GPT-5 Reasoning Alpha: Новый прорыв OpenAI
OpenAI готовит запуск GPT-5 Reasoning Alpha — специализированной версии GPT-5 с улучшенными рассуждениями и мультимодальностью.
🧠 Ключевые улучшения:
• Продвинутые логические рассуждения
• Работа одновременно с текстом, изображениями, аудио и видео
• Глубокая аналитика данных
📊 Возможности:
- Решение сложных математических задач
- Кросс-форматный анализ (текст+графики+новости)
- Интеллектуальная поддержка решений
🏥 Применение:
• Бизнес-аналитика и финансы
• Медицинская диагностика
• Персонализированное образование
📈 Преимущества перед GPT-4:
- Улучшенное логическое мышление
- Продвинутая мультимодальность
- Исключительное контекстное понимание
⚠️ Пока доступна только alpha-версия для избранных партнеров.
#ИИ #GPT5 #OpenAI #AI #DataScience
Источник ссылка
OpenAI готовит запуск GPT-5 Reasoning Alpha — специализированной версии GPT-5 с улучшенными рассуждениями и мультимодальностью.
🧠 Ключевые улучшения:
• Продвинутые логические рассуждения
• Работа одновременно с текстом, изображениями, аудио и видео
• Глубокая аналитика данных
📊 Возможности:
- Решение сложных математических задач
- Кросс-форматный анализ (текст+графики+новости)
- Интеллектуальная поддержка решений
🏥 Применение:
• Бизнес-аналитика и финансы
• Медицинская диагностика
• Персонализированное образование
📈 Преимущества перед GPT-4:
- Улучшенное логическое мышление
- Продвинутая мультимодальность
- Исключительное контекстное понимание
⚠️ Пока доступна только alpha-версия для избранных партнеров.
#ИИ #GPT5 #OpenAI #AI #DataScience
Источник ссылка
Forwarded from proVenture (проВенчур)
🔍 Что там в AI поиске новенького?
В прошлый раз неплохо зашел короткий пост на тему того, что AI занимает в поиске 6%. Давайте посмотрим, что там новенького?
▪️Для начала отметим следующее, что Google все еще занимает 90% в поисковом трафике (точнее 89.5%), а AI все же занимает меньше 6% - скорее 1%. То были оценки, это новые оценки, так и нет нормальных цифр.
▪️Но косвенно можем посмотреть вот на что – в более чем 50% поисковых запросов от Google уже есть AI Overview. Получается некоторый навязанный AI поиск.
▪️Если учитывать, что 15М американцев ищут информацию с помощью AI прежде, чем идти в традиционные поисковые системы, то доля таких примерно 5% от всех пользователей интернета в США.
▪️Порядка 90% трафика AI в целом (не только поиск) идет с дксктопа, тогда как у Google 53% трафика идет с мобилок, любопытно.
Еще более прикольно – что происходит с кликами?
🔹На ссылки из AI Summary в Google жмут на 47% реже, чем в запросах без AI Summary.
🔹А если брать в целом AI Search Engines и AI Chatbots, то они генерят на 91% и на 96% меньше кликов, соответственно, по сравнению с классическими поисковиками.
Отдельно – какова реальная доля?
▫️Томаш Тунгуз оценивает грубо, что если на ChatGPT приходится 1 запрос на одного американца, а на Google приходится 4 запроса, а 50% запросов самого Google включает AI Summary, то доля AI в поиске – это реально 60%. Но это немного притянуто за уши, согласитесь. Данные выше все же это пока не подтверждают.
Что-то еще интересного видели по теме? Делитесь в комментариях или в ЛС.
@proVenture
#ai #trends #research
В прошлый раз неплохо зашел короткий пост на тему того, что AI занимает в поиске 6%. Давайте посмотрим, что там новенького?
▪️Для начала отметим следующее, что Google все еще занимает 90% в поисковом трафике (точнее 89.5%), а AI все же занимает меньше 6% - скорее 1%. То были оценки, это новые оценки, так и нет нормальных цифр.
▪️Но косвенно можем посмотреть вот на что – в более чем 50% поисковых запросов от Google уже есть AI Overview. Получается некоторый навязанный AI поиск.
▪️Если учитывать, что 15М американцев ищут информацию с помощью AI прежде, чем идти в традиционные поисковые системы, то доля таких примерно 5% от всех пользователей интернета в США.
▪️Порядка 90% трафика AI в целом (не только поиск) идет с дксктопа, тогда как у Google 53% трафика идет с мобилок, любопытно.
Еще более прикольно – что происходит с кликами?
🔹На ссылки из AI Summary в Google жмут на 47% реже, чем в запросах без AI Summary.
🔹А если брать в целом AI Search Engines и AI Chatbots, то они генерят на 91% и на 96% меньше кликов, соответственно, по сравнению с классическими поисковиками.
Отдельно – какова реальная доля?
▫️Томаш Тунгуз оценивает грубо, что если на ChatGPT приходится 1 запрос на одного американца, а на Google приходится 4 запроса, а 50% запросов самого Google включает AI Summary, то доля AI в поиске – это реально 60%. Но это немного притянуто за уши, согласитесь. Данные выше все же это пока не подтверждают.
Что-то еще интересного видели по теме? Делитесь в комментариях или в ЛС.
@proVenture
#ai #trends #research
❤1👎1
Forwarded from Innovation & Research
Стартап Skild AI представила универсальную AI-модель для многоцелевых роботов
Skild AI, поддерживаемый Amazon и SoftBank, анонсировал Skild Brain — универсальную AI-модель для роботов самых разных типов, от промышленных до человекоподобных. Модель позволяет им двигаться и реагировать более естественно: ориентироваться в пространстве, удерживать равновесие и адаптироваться к новым ситуациям. На демонстрационных видео Skild-роботы поднимаются по лестницам, не падают после толчка, подбирают раскиданные в беспорядке предметы.
Изначально Skild Brain ограничивает мощность роботов, чтобы предотвратить опасные действия. Обучение проходит на симуляциях, видеозаписях с действиями людей и данных с реальных роботов, использующих такую систему. Такой подход помогает решить проблему нехватки данных для AI в робототехнике.
Сооснователи — Дипак Патхак (Deepak Pathak) и Абхинав Гупта (Abhinav Gupta) — отмечают, что после внедрения роботы передают свои данные обратно в Skild Brain, постоянно совершенствуя её, по принципу «общего мозга».
Стартапу всего два года, но в команде есть специалисты из Tesla, Nvidia и Meta*. В прошлом году Skild AI привлекла $300 млн на раунде A, получив оценку в $1,5 млрд. Среди инвесторов — Menlo Ventures, Khosla Ventures, Sequoia Capital и основатель Amazon Джефф Безос. Среди клиентов компании — LG CNS и другие партнёры в логистике и промышленности.
*организация запрещена на территории России и признана экстремистской
#news #AI #роботы
https://www.reuters.com/business/media-telecom/amazon-backed-skild-ai-unveils-general-purpose-ai-model-multi-purpose-robots-2025-07-29/
Skild AI, поддерживаемый Amazon и SoftBank, анонсировал Skild Brain — универсальную AI-модель для роботов самых разных типов, от промышленных до человекоподобных. Модель позволяет им двигаться и реагировать более естественно: ориентироваться в пространстве, удерживать равновесие и адаптироваться к новым ситуациям. На демонстрационных видео Skild-роботы поднимаются по лестницам, не падают после толчка, подбирают раскиданные в беспорядке предметы.
Изначально Skild Brain ограничивает мощность роботов, чтобы предотвратить опасные действия. Обучение проходит на симуляциях, видеозаписях с действиями людей и данных с реальных роботов, использующих такую систему. Такой подход помогает решить проблему нехватки данных для AI в робототехнике.
Сооснователи — Дипак Патхак (Deepak Pathak) и Абхинав Гупта (Abhinav Gupta) — отмечают, что после внедрения роботы передают свои данные обратно в Skild Brain, постоянно совершенствуя её, по принципу «общего мозга».
Стартапу всего два года, но в команде есть специалисты из Tesla, Nvidia и Meta*. В прошлом году Skild AI привлекла $300 млн на раунде A, получив оценку в $1,5 млрд. Среди инвесторов — Menlo Ventures, Khosla Ventures, Sequoia Capital и основатель Amazon Джефф Безос. Среди клиентов компании — LG CNS и другие партнёры в логистике и промышленности.
*организация запрещена на территории России и признана экстремистской
#news #AI #роботы
https://www.reuters.com/business/media-telecom/amazon-backed-skild-ai-unveils-general-purpose-ai-model-multi-purpose-robots-2025-07-29/
Forwarded from proVenture (проВенчур)
🔥ChatGPT уже только в 4-5 раз меньше крупных традиционных аппов по MAU!
Это всего пара графиков из отчета Trends – Artificial Intelligence от Мари Микер (Bond), который размещен во вчерашнем посте. Наверняка вы видели такие графики, но тут несколько собрано воедино.
1/ Данные по приложениям:
▪️ChatGPT с 124ММ инсталлов в апреле 2025 года в 7х больше своего ближайшего конкурента Deepseek и делает уже почти в 3 раза больше инсталлов, чем Facebook (принадлежит признанной экстремистской Meta)
▪️ChatGPT с 530MM MAU в апреле 2025 года уже почти в 10 раз больше Deepseek
▪️Однако он все еще в 5х меньше YouTube по просмотрам (где-то в 4-5х также больше Chrome и Facebook), но дистанция сокращается очень быстро
2/ ChatGPT пользуется ~60% всех активных десктоп юзеров и где-то ~75-80% всех активных юзеров приложений.
3/ Google потребовалось 11 лет, чтобы достичь 365B поисков в год, ChatGPT на это затратил только 2 года.
🤯 Вообще скорость изменений поражает, конечно? Как вы там?
Давайте небольшой опрос ниже пройдем просто ради любопытства 👇
@proVenture
#ai #trends
Это всего пара графиков из отчета Trends – Artificial Intelligence от Мари Микер (Bond), который размещен во вчерашнем посте. Наверняка вы видели такие графики, но тут несколько собрано воедино.
1/ Данные по приложениям:
▪️ChatGPT с 124ММ инсталлов в апреле 2025 года в 7х больше своего ближайшего конкурента Deepseek и делает уже почти в 3 раза больше инсталлов, чем Facebook (принадлежит признанной экстремистской Meta)
▪️ChatGPT с 530MM MAU в апреле 2025 года уже почти в 10 раз больше Deepseek
▪️Однако он все еще в 5х меньше YouTube по просмотрам (где-то в 4-5х также больше Chrome и Facebook), но дистанция сокращается очень быстро
2/ ChatGPT пользуется ~60% всех активных десктоп юзеров и где-то ~75-80% всех активных юзеров приложений.
3/ Google потребовалось 11 лет, чтобы достичь 365B поисков в год, ChatGPT на это затратил только 2 года.
🤯 Вообще скорость изменений поражает, конечно? Как вы там?
Давайте небольшой опрос ниже пройдем просто ради любопытства 👇
@proVenture
#ai #trends
Forwarded from Innovation & Research
Meta* вновь реорганизует AI-подразделение
Это четвёртая реструктуризация за последние 6 месяцев. Ожидается, что новая организация Meta* Superintelligence Labs будет разделена на четыре группы:
• новая лаборатория, которая на данный момент называется TBD Lab (сокращение от to be defined);
• команда, занимающаяся продуктами, в число которых входит помощник Meta AI**;
• команда, занимающаяся инфраструктурой;
• лаборатория фундаментальных долгосрочных исследований AI.
Планы Meta по реструктуризации ещё не были озвучены внутри компании и могут измениться.
Ожидается, что у TBD Lab, которая работает над новейшей версией флагманской моделью Meta Llama**, будет несколько «лидеров». Также есть вероятность, что Джек Рэй (Jack Rae), ранее работавший в Google, возглавит участок претрейна моделей. Лаборатория также будет иметь свою группу по инфраструктуре, отделенную от основной группы.
Meta* реструктурировала свою деятельность в области AI в июне, вскоре после того, как наняла Александра Вана (бывший руководитель Scale AI) и Натана Фридмана (бывший руководитель GitHub). В мае компания разделила свою группу генеративного AI, ранее возглавляемую Аль-Дейлом, на две команды: одну, курирующую исследования, и другую, работающую над продуктами. В феврале Meta перевела двух ведущих инженеров из группы и назначила Лоредану Крисан (Loredana Crisan), тогдашнюю главу Messenger, руководителем отдела продукта, что, как считают участники рынка, стало первым признаком грядущих перемен.
*организация запрещена на территории России и признана экстремистской
**продукт организации, запрещённой на территории России и признанной экстремистской
#news #AI
https://www.theinformation.com/articles/meta-plans-fourth-restructuring-ai-efforts-six-months
Это четвёртая реструктуризация за последние 6 месяцев. Ожидается, что новая организация Meta* Superintelligence Labs будет разделена на четыре группы:
• новая лаборатория, которая на данный момент называется TBD Lab (сокращение от to be defined);
• команда, занимающаяся продуктами, в число которых входит помощник Meta AI**;
• команда, занимающаяся инфраструктурой;
• лаборатория фундаментальных долгосрочных исследований AI.
Планы Meta по реструктуризации ещё не были озвучены внутри компании и могут измениться.
Ожидается, что у TBD Lab, которая работает над новейшей версией флагманской моделью Meta Llama**, будет несколько «лидеров». Также есть вероятность, что Джек Рэй (Jack Rae), ранее работавший в Google, возглавит участок претрейна моделей. Лаборатория также будет иметь свою группу по инфраструктуре, отделенную от основной группы.
Meta* реструктурировала свою деятельность в области AI в июне, вскоре после того, как наняла Александра Вана (бывший руководитель Scale AI) и Натана Фридмана (бывший руководитель GitHub). В мае компания разделила свою группу генеративного AI, ранее возглавляемую Аль-Дейлом, на две команды: одну, курирующую исследования, и другую, работающую над продуктами. В феврале Meta перевела двух ведущих инженеров из группы и назначила Лоредану Крисан (Loredana Crisan), тогдашнюю главу Messenger, руководителем отдела продукта, что, как считают участники рынка, стало первым признаком грядущих перемен.
*организация запрещена на территории России и признана экстремистской
**продукт организации, запрещённой на территории России и признанной экстремистской
#news #AI
https://www.theinformation.com/articles/meta-plans-fourth-restructuring-ai-efforts-six-months
The Information
Meta Plans Fourth Restructuring of AI Efforts in Six Months
Meta Platforms is planning the fourth restructuring of its artificial intelligence efforts in six months, according to three people familiar with the matter. Meta’s new AI organization, Meta Superintelligence Labs, is expected to be divided into four groups:…
❤1😍1
Forwarded from Innovation & Research
Google продвигает свои AI-сервисы через новый смартфон Pixel 10
На презентации вендор уделил основное внимание новым функциям, основанным на технологии Gemini AI. Среди них — «Magic Cue», который может искать информацию в различных приложениях, и «Camera Coach», предлагающий советы по улучшению фотографий. Эти нововведения подчёркивают стремление Google конкурировать с OpenAI и Perplexity, предлагая пользователям мощные AI-возможности.
Несмотря на скромную долю рынка (всего 0,3% у Pixel в первой половине 2025 года против 23% у Samsung и 11,8% у Apple), цель стратегии — продемонстрировать всё лучшее, что может предложить Android в плане программного обеспечения и AI. К этому моменту лицензиаты Android, включая Samsung и Xiaomi, могут использовать некоторые из этих функций в своих новых смартфонах. Потенциальный масштаб огромный: Android установлен на более чем 3 млрд устройств по всему миру. Это позволяет Google эффективно интегрировать и распространять свои AI-инструменты среди пользователей, создавая эффект широкой обратной связи, который укрепляет позиции компании в конкурентной борьбе.
Монетизация этих сервисов пока остается открытым вопросом, однако эксперты отмечают временное окно возможностей для Google, вызванное отсутствием четкой стратегии в области новых сервисов у основного конкурента — Apple. Таким образом, запуск Pixel 10 является частью долгосрочной игры Google по укреплению своей роли лидера в сфере «потребительского» AI.
#news #AI #электроника #Google
https://www.cnbc.com/2025/08/21/google-pixel-10-launch-a-strategic-ai-play-with-gemini.html
На презентации вендор уделил основное внимание новым функциям, основанным на технологии Gemini AI. Среди них — «Magic Cue», который может искать информацию в различных приложениях, и «Camera Coach», предлагающий советы по улучшению фотографий. Эти нововведения подчёркивают стремление Google конкурировать с OpenAI и Perplexity, предлагая пользователям мощные AI-возможности.
Несмотря на скромную долю рынка (всего 0,3% у Pixel в первой половине 2025 года против 23% у Samsung и 11,8% у Apple), цель стратегии — продемонстрировать всё лучшее, что может предложить Android в плане программного обеспечения и AI. К этому моменту лицензиаты Android, включая Samsung и Xiaomi, могут использовать некоторые из этих функций в своих новых смартфонах. Потенциальный масштаб огромный: Android установлен на более чем 3 млрд устройств по всему миру. Это позволяет Google эффективно интегрировать и распространять свои AI-инструменты среди пользователей, создавая эффект широкой обратной связи, который укрепляет позиции компании в конкурентной борьбе.
Монетизация этих сервисов пока остается открытым вопросом, однако эксперты отмечают временное окно возможностей для Google, вызванное отсутствием четкой стратегии в области новых сервисов у основного конкурента — Apple. Таким образом, запуск Pixel 10 является частью долгосрочной игры Google по укреплению своей роли лидера в сфере «потребительского» AI.
#news #AI #электроника #Google
https://www.cnbc.com/2025/08/21/google-pixel-10-launch-a-strategic-ai-play-with-gemini.html
CNBC
Google’s Pixel 10 launch wasn't about the phones but the strategic AI play
Google develops Android, the operating system found on over 3 billion devices, which gives it a strategic advantage to hook users on its Gemini-powered AI.
Forwarded from Innovation & Research
NVIDIA запускает Universal Deep Research — систему, создающую настраиваемых AI-ассистентов для исследований
NVIDIA представила Universal Deep Research (UDR), инструмент для глубоких исследований, который работает поверх любого LLM и позволяет описывать стратегию поиска и анализа простым языком. Это превращает исследовательский процесс в настраиваемую систему, где пользователь сам определяет глубину и ход работы.
UDR переводит стратегию в исполняемый код и выполняет её шаг за шагом: формирует запросы, собирает и проверяет данные, строит отчёт. Оркестрация идёт на CPU, а модель подключается лишь для локальных задач — саммаризации или извлечения фактов, что экономит ресурсы и ускоряет процесс.
Вместо длинных контекстов система хранит промежуточные данные в переменных состояниях, делая результаты воспроизводимыми и предсказуемыми. NVIDIA показала три готовых сценария — от минимального обзора до интенсивного итеративного поиска, но главное, что пользователь может легко редактировать и создавать свои.
GitHub
Технический отчет
#news #бигтехи #ИИ_для_науки #AI
https://research.nvidia.com/labs/lpr/udr/
NVIDIA представила Universal Deep Research (UDR), инструмент для глубоких исследований, который работает поверх любого LLM и позволяет описывать стратегию поиска и анализа простым языком. Это превращает исследовательский процесс в настраиваемую систему, где пользователь сам определяет глубину и ход работы.
UDR переводит стратегию в исполняемый код и выполняет её шаг за шагом: формирует запросы, собирает и проверяет данные, строит отчёт. Оркестрация идёт на CPU, а модель подключается лишь для локальных задач — саммаризации или извлечения фактов, что экономит ресурсы и ускоряет процесс.
Вместо длинных контекстов система хранит промежуточные данные в переменных состояниях, делая результаты воспроизводимыми и предсказуемыми. NVIDIA показала три готовых сценария — от минимального обзора до интенсивного итеративного поиска, но главное, что пользователь может легко редактировать и создавать свои.
GitHub
Технический отчет
#news #бигтехи #ИИ_для_науки #AI
https://research.nvidia.com/labs/lpr/udr/
Nvidia
Universal Deep Research
Website for the project 'Universal Deep Research: Bring Your Own Model and Strategy'
Forwarded from proVenture (проВенчур)
⚙️ 2024 AI Inference Infra Survey: 71% компаний использует open source модели.
Любопытное исследование провели ребята из BentoML. Они опросили 250+ организаций, которые внедряют AI решения, и показали некоторые любопытные данные по тому, как компании адаптируют модели под конечное использование.
1/ В очередной раз говорим о том, что компании используют сразу несколько моделей – в отчете на вопрос есть куча вариантов ответов с процентом множественного выбора от, которые имеют от 30% до 35% ответов респондентов – это все варианты, где речь идет про модели сложнее традиционных ML моделей. 44% используют mult-modal embedded, 50% - LLM.
2/ Еще есть следующая статистика паттернов использования:
▪️43% делают deployment самостоятельно (для сравнения, 59% используют AI API, еще 50% используют API вендоров)
▪️71% используют опенсорсные модели и еще 48% используют fine tuned опенсорс модели, тогда как закрытые используют 47%
▪️Почему так? 66% говорят, что из-за контроля над данными, еще 58% говорят, что так дешевле для отдельных задач, а еще 48% - что performance выше для конкретных задач
▪️А где основные проблемы AI инфраструктуры? 49% говорят, что сложно создавать и поддерживать, 45% отмечают сложности с GPU, 43% отмечают, что есть сложности в безопасности. И так далее.
▪️И, наконец, где крутятся модели? On premises делают 31%, но чаще всего в Microsoft Azure (42%), AWS (31%), а еще близко Google Cloud (30%).
3/ Эта статистика подсвечивает очень любопытные вещи – большинство компаний так или иначе тестируют свои тулы (71% пользуются open source моделями), а для кого-то критически важно делать on prem решения (31%). Однако сложно такие вещи делать самостоятельно (49%) и еще не достать GPU (45%), поэтому выбор пока в пользу корпоративных вендоров (и OpenAI, по слухам, должен прожечь $17BM на compute и все это дело в 2026).
4/ Внимание, вопрос! Когда рынок устаканится, останутся ли компании у внешних вендоров по причине удобства или перейдут на свои тулы из-за проблем с безопасностью и желания on prem решений? Наверняка будет сплит задач – во многих отраслях данные на сторону просто не отдать, регуляторика не позволяет, поэтому эти данные будут пока лежать, пока свои модели не получится делать еще эффективнее и легче. А менее сенситивные данные могут вполне остаться с внешними вендорами.
👉 Читайте отчет более подробно по ссылке: https://www.bentoml.com/blog/2024-ai-infra-survey-highlights
@proVenture
#ai #research #saas
Любопытное исследование провели ребята из BentoML. Они опросили 250+ организаций, которые внедряют AI решения, и показали некоторые любопытные данные по тому, как компании адаптируют модели под конечное использование.
1/ В очередной раз говорим о том, что компании используют сразу несколько моделей – в отчете на вопрос есть куча вариантов ответов с процентом множественного выбора от, которые имеют от 30% до 35% ответов респондентов – это все варианты, где речь идет про модели сложнее традиционных ML моделей. 44% используют mult-modal embedded, 50% - LLM.
2/ Еще есть следующая статистика паттернов использования:
▪️43% делают deployment самостоятельно (для сравнения, 59% используют AI API, еще 50% используют API вендоров)
▪️71% используют опенсорсные модели и еще 48% используют fine tuned опенсорс модели, тогда как закрытые используют 47%
▪️Почему так? 66% говорят, что из-за контроля над данными, еще 58% говорят, что так дешевле для отдельных задач, а еще 48% - что performance выше для конкретных задач
▪️А где основные проблемы AI инфраструктуры? 49% говорят, что сложно создавать и поддерживать, 45% отмечают сложности с GPU, 43% отмечают, что есть сложности в безопасности. И так далее.
▪️И, наконец, где крутятся модели? On premises делают 31%, но чаще всего в Microsoft Azure (42%), AWS (31%), а еще близко Google Cloud (30%).
3/ Эта статистика подсвечивает очень любопытные вещи – большинство компаний так или иначе тестируют свои тулы (71% пользуются open source моделями), а для кого-то критически важно делать on prem решения (31%). Однако сложно такие вещи делать самостоятельно (49%) и еще не достать GPU (45%), поэтому выбор пока в пользу корпоративных вендоров (и OpenAI, по слухам, должен прожечь $17BM на compute и все это дело в 2026).
4/ Внимание, вопрос! Когда рынок устаканится, останутся ли компании у внешних вендоров по причине удобства или перейдут на свои тулы из-за проблем с безопасностью и желания on prem решений? Наверняка будет сплит задач – во многих отраслях данные на сторону просто не отдать, регуляторика не позволяет, поэтому эти данные будут пока лежать, пока свои модели не получится делать еще эффективнее и легче. А менее сенситивные данные могут вполне остаться с внешними вендорами.
👉 Читайте отчет более подробно по ссылке: https://www.bentoml.com/blog/2024-ai-infra-survey-highlights
@proVenture
#ai #research #saas
Forwarded from Innovation & Research
Учёные из Чжэцзянского университета создали MetaSeeker — систему для пространственного электромагнитного «невидимого поля»
MetaSeeker работает на основе роя метаповерхностей — искусственных материалов, способных управлять электромагнитными волнами. Если традиционные «плащи-невидимки» из метаматериалов скрывают только заранее определённый объект, то новая технология формирует открытую область, где любой движущийся объект — человек, машина или дрон — становится невидимым для радаров и датчиков.
Чтобы добиться этого, исследователи использовали гибрид глубокого обучения с подкреплением и методов групповой оптимизации. Система строит внутреннюю «виртуальную копию» окружающего хаотичного мира, учится управлять распределёнными метаповерхностями и подстраивать их под помехи. В экспериментах удалось достичь 99,5% сходства с чистым фоном: даже когда по «невидимому коридору» двигались несколько беспилотных автомобилей, измеренные электромагнитные сигналы оставались стабильными.
Такая адаптивность позволяет не только скрывать объекты, но и перестраивать электромагнитное пространство под разные задачи: снижать зашумленность в городах, защищать спутниковые каналы, усиливать или, наоборот, блокировать связь. Авторы отмечают, что MetaSeeker знаменует переход от индивидуального к «роевому» интеллекту в метаповерхностях и открывает путь к управляемым электромагнитным средам для связи, сенсорики и оборонных технологий.
Статья в Nature
#news #AI #метаверс
https://mp.weixin.qq.com/s/blhX1kLdvKea6f0G_WjeBA
MetaSeeker работает на основе роя метаповерхностей — искусственных материалов, способных управлять электромагнитными волнами. Если традиционные «плащи-невидимки» из метаматериалов скрывают только заранее определённый объект, то новая технология формирует открытую область, где любой движущийся объект — человек, машина или дрон — становится невидимым для радаров и датчиков.
Чтобы добиться этого, исследователи использовали гибрид глубокого обучения с подкреплением и методов групповой оптимизации. Система строит внутреннюю «виртуальную копию» окружающего хаотичного мира, учится управлять распределёнными метаповерхностями и подстраивать их под помехи. В экспериментах удалось достичь 99,5% сходства с чистым фоном: даже когда по «невидимому коридору» двигались несколько беспилотных автомобилей, измеренные электромагнитные сигналы оставались стабильными.
Такая адаптивность позволяет не только скрывать объекты, но и перестраивать электромагнитное пространство под разные задачи: снижать зашумленность в городах, защищать спутниковые каналы, усиливать или, наоборот, блокировать связь. Авторы отмечают, что MetaSeeker знаменует переход от индивидуального к «роевому» интеллекту в метаповерхностях и открывает путь к управляемым электромагнитным средам для связи, сенсорики и оборонных технологий.
Статья в Nature
#news #AI #метаверс
https://mp.weixin.qq.com/s/blhX1kLdvKea6f0G_WjeBA
Nature
MetaSeeker: sketching an open invisible space with self-play reinforcement learning
Light: Science & Applications - MetaSeeker controls a swarm of metasurfaces for the creation of an open electromagnetic invisible space.
👍2
Forwarded from Innovation & Research
Alibaba и Baidu делают ставку на собственные AI-чипы
Китайские гиганты Alibaba и Baidu начали активно использовать собственные процессоры при обучении AI-моделей, снижая зависимость от Nvidia. Alibaba применяет чип Zhenwu для небольших моделей с начала года; усовершенствованная версия этого процессора сопоставима с Nvidia A100 и конкурирует с H20, адаптированным для китайского рынка. Baidu тестирует Kunlun P800, разработанный специально для LLM и способный выполнять как обучение, так и инференс; с июня 2025 г. его используют на стадии пост-тренировки моделей Ernie.
Kunlunxin Supernode (昆仑芯超节点), к которому относится P800, обеспечивает поддержку 32 или 64 AI-ускорителей в одной серверной стойке с полносвязной топологией, что увеличивает пропускную способность между картами в 8 раз по сравнению с традиционными системами. Одна стойка эквивалентна мощности восьми 8-карточных серверов, что даёт ускорение обучения MoE-моделей (Mixture-of-experts) в 5–10 раз и рост эффективности инференса на одной карте в 13 раз.
Энергопотребление шкафа может достигать 120 кВт при жидкостном охлаждении с функцией обнаружения утечек, а межшкафовое соединение через IB/RoCE позволяет строить масштабируемые кластеры на десятки тысяч карт.
Хотя для самых передовых задач компании всё ещё опираются на Nvidia, их шаги отражают стратегический разворот. Усиление экспортных ограничений США и давление Пекина на использование отечественных технологий ускорили переход. Для производства Alibaba обратилась к китайской фабрике SMIC, после того как в 2023 г. TSMC заставляла компанию многократно перерабатывать дизайн Zhenwu, а в 2024-м г. под давлением Вашингтона отказалась продолжать сотрудничество.
Чипы Alibaba совместимы с экосистемой Nvidia, что позволяет инженерам использовать привычное ПО и инструменты без потери эффективности — это даёт компании преимущество по сравнению с Huawei или Cambricon, строящими закрытые экосистемы.
DeepSeek тем временем недавно перешёл на чипы Huawei, однако Alibaba и Baidu от них отказались из-за слабой производительности. Таким образом, китайские компании выстраивают собственную экосистему AI-микросхем.
#news #AI #чипы #бигтехи
https://www.theinformation.com/articles/alibaba-baidu-adopt-ai-chips-major-shift-chinese-tech
Китайские гиганты Alibaba и Baidu начали активно использовать собственные процессоры при обучении AI-моделей, снижая зависимость от Nvidia. Alibaba применяет чип Zhenwu для небольших моделей с начала года; усовершенствованная версия этого процессора сопоставима с Nvidia A100 и конкурирует с H20, адаптированным для китайского рынка. Baidu тестирует Kunlun P800, разработанный специально для LLM и способный выполнять как обучение, так и инференс; с июня 2025 г. его используют на стадии пост-тренировки моделей Ernie.
Kunlunxin Supernode (昆仑芯超节点), к которому относится P800, обеспечивает поддержку 32 или 64 AI-ускорителей в одной серверной стойке с полносвязной топологией, что увеличивает пропускную способность между картами в 8 раз по сравнению с традиционными системами. Одна стойка эквивалентна мощности восьми 8-карточных серверов, что даёт ускорение обучения MoE-моделей (Mixture-of-experts) в 5–10 раз и рост эффективности инференса на одной карте в 13 раз.
Энергопотребление шкафа может достигать 120 кВт при жидкостном охлаждении с функцией обнаружения утечек, а межшкафовое соединение через IB/RoCE позволяет строить масштабируемые кластеры на десятки тысяч карт.
Хотя для самых передовых задач компании всё ещё опираются на Nvidia, их шаги отражают стратегический разворот. Усиление экспортных ограничений США и давление Пекина на использование отечественных технологий ускорили переход. Для производства Alibaba обратилась к китайской фабрике SMIC, после того как в 2023 г. TSMC заставляла компанию многократно перерабатывать дизайн Zhenwu, а в 2024-м г. под давлением Вашингтона отказалась продолжать сотрудничество.
Чипы Alibaba совместимы с экосистемой Nvidia, что позволяет инженерам использовать привычное ПО и инструменты без потери эффективности — это даёт компании преимущество по сравнению с Huawei или Cambricon, строящими закрытые экосистемы.
DeepSeek тем временем недавно перешёл на чипы Huawei, однако Alibaba и Baidu от них отказались из-за слабой производительности. Таким образом, китайские компании выстраивают собственную экосистему AI-микросхем.
#news #AI #чипы #бигтехи
https://www.theinformation.com/articles/alibaba-baidu-adopt-ai-chips-major-shift-chinese-tech
The Information
Alibaba and Baidu Adopt Their Own AI Chips in Major Shift for Chinese Tech
Chinese tech giants Alibaba Group and Baidu have begun using their own internally designed chips to train their artificial intelligence models, partly replacing AI chips made by Nvidia, according to four people with direct knowledge of the moves. The move…
Forwarded from Innovation & Research
Китайские исследователи представили SpikingBrain — новое поколение AI-моделей, вдохновленных нейронной активностью мозга
Группа учёных из Института автоматики Китайской академии наук и партнёрских организаций представила систему, которая использует спайковые нейроны и гибридные схемы внимания. Это позволяет тренировать её в сотни раз эффективнее стандартных моделей-трансформеров.
Качество обучения модели сопоставимо по качеству с открытыми моделями-трансформерами, но при этом требует в 50 раз меньше данных (≈150 млрд токенов вместо триллионов). На длинных последовательностях SpikingBrain достигает более чем 100-кратного ускорения генерации первого токена (TTFT) при длине ввода до 4 млн символов. Модели демонстрируют снижение энергопотребления на 97,7% по сравнению с MAC-чипами при работе с форматом FP16 и на 85,2% по сравнению с MAC-чипами для INT8.
Разработчики создали две версии: SpikingBrain-7B с линейной архитектурой и SpikingBrain-76B (гибридная со «смесью экспертов» — mixture of experts, MoE). Обе обучались на сотнях GPU MetaX C550 без использования NVIDIA-платформы, что подтвердило возможность масштабной и стабильной тренировки мозгоподобных LLM вне привычной экосистемы.
Модель ориентирована на задачи с длинным контекстом — юриспруденция, медицина, физика, геномика.
GitHub
Модели
#news #AI #бигтехи
https://arxiv.org/html/2509.05276v1
Группа учёных из Института автоматики Китайской академии наук и партнёрских организаций представила систему, которая использует спайковые нейроны и гибридные схемы внимания. Это позволяет тренировать её в сотни раз эффективнее стандартных моделей-трансформеров.
Качество обучения модели сопоставимо по качеству с открытыми моделями-трансформерами, но при этом требует в 50 раз меньше данных (≈150 млрд токенов вместо триллионов). На длинных последовательностях SpikingBrain достигает более чем 100-кратного ускорения генерации первого токена (TTFT) при длине ввода до 4 млн символов. Модели демонстрируют снижение энергопотребления на 97,7% по сравнению с MAC-чипами при работе с форматом FP16 и на 85,2% по сравнению с MAC-чипами для INT8.
Разработчики создали две версии: SpikingBrain-7B с линейной архитектурой и SpikingBrain-76B (гибридная со «смесью экспертов» — mixture of experts, MoE). Обе обучались на сотнях GPU MetaX C550 без использования NVIDIA-платформы, что подтвердило возможность масштабной и стабильной тренировки мозгоподобных LLM вне привычной экосистемы.
Модель ориентирована на задачи с длинным контекстом — юриспруденция, медицина, физика, геномика.
GitHub
Модели
#news #AI #бигтехи
https://arxiv.org/html/2509.05276v1
GitHub
GitHub - BICLab/SpikingBrain-7B
Contribute to BICLab/SpikingBrain-7B development by creating an account on GitHub.
Forwarded from Innovation & Research
Google создала AI-систему для научного программирования
Google Research и DeepMind представили платформу, способную автоматически писать научное ПО и находить решения, которые превосходят человеческие разработки. В основе — связка LLM и метода Tree Search: модель пишет код, дерево отслеживает варианты и создаёт баланс между исследованием новых идей и развитием лучших. Каждое изменение кода проверяется в песочнице по заданной метрике качества.
Система работает только со scorable tasks — задачами, где результат можно достоверно измерить: например, точность прогноза или ошибка интегрирования. Такой подход ускоряет проверку гипотез и прототипирование.
Система выходит за рамки простого подбора параметров: она умеет извлекать идеи из научной литературы, сочетать существующие методы и создавать новые алгоритмы. В анализе данных секвенирования РНК отдельно взятой клетки это дало прирост точности на 14% относительно лучших опубликованных решений. В области вычислительной математики она успешно справилась с решением интегралов, где традиционные методы не работали. Для эпидемиологии система построила модели прогнозирования госпитализаций по COVID, превзойдя официальный ансамбль Центра по контролю заболеваний США.
В смежных областях — от геоаналитики и анализа активности нейронных сетей до прогнозирования временных рядов — получены результаты уровня state-of-the-art при существенно меньших вычислительных затратах: например, обучение модели для нейронаучного бенчмарка заняло два часа на одной доступной GPU вместо нескольких суток на специализированном оборудовании.
Код некоторых решений опубликован на GitHub, но сама система недоступна для широкой публики. Вероятно, ею смогут пользоваться отдельные исследовательские лаборатории в частном порядке.
#news #AI
https://arxiv.org/abs/2509.06503
Google Research и DeepMind представили платформу, способную автоматически писать научное ПО и находить решения, которые превосходят человеческие разработки. В основе — связка LLM и метода Tree Search: модель пишет код, дерево отслеживает варианты и создаёт баланс между исследованием новых идей и развитием лучших. Каждое изменение кода проверяется в песочнице по заданной метрике качества.
Система работает только со scorable tasks — задачами, где результат можно достоверно измерить: например, точность прогноза или ошибка интегрирования. Такой подход ускоряет проверку гипотез и прототипирование.
Система выходит за рамки простого подбора параметров: она умеет извлекать идеи из научной литературы, сочетать существующие методы и создавать новые алгоритмы. В анализе данных секвенирования РНК отдельно взятой клетки это дало прирост точности на 14% относительно лучших опубликованных решений. В области вычислительной математики она успешно справилась с решением интегралов, где традиционные методы не работали. Для эпидемиологии система построила модели прогнозирования госпитализаций по COVID, превзойдя официальный ансамбль Центра по контролю заболеваний США.
В смежных областях — от геоаналитики и анализа активности нейронных сетей до прогнозирования временных рядов — получены результаты уровня state-of-the-art при существенно меньших вычислительных затратах: например, обучение модели для нейронаучного бенчмарка заняло два часа на одной доступной GPU вместо нескольких суток на специализированном оборудовании.
Код некоторых решений опубликован на GitHub, но сама система недоступна для широкой публики. Вероятно, ею смогут пользоваться отдельные исследовательские лаборатории в частном порядке.
#news #AI
https://arxiv.org/abs/2509.06503
GitHub
GitHub - google-research/score: Code associated with the paper An AI system to help scientists write expert-level empirical software
Code associated with the paper An AI system to help scientists write expert-level empirical software - google-research/score
Forwarded from proVenture (проВенчур)
💰 GenAI приложения потратили на рекламу $219M во 2К 2025 – Sensor Tower #4.
Продолжаем разбирать отчет Sensor Tower по AI приложениям. На этот раз посмотрим другую сторону – где и как тратят на рекламу приложения.
1/ Общие цифры - $219M digital spend во 2К 2025 (это +121% YoY), который позволил создать 25.3B impressions за тот же период. Данные по США.
2/ Структура:
▪️69% на social
▪️31% - display & video
3/ Топ-5 рекламодателей:
▫️Adobe (внезапно!)
▫️Microsoft
▫️Google
▫️Polybuzz
▫️Meta (признанная экстремистской в РФ и запрещена)
🔹Anthropic и OpenAI тоже в топе есть, просто ниже
4/ Очень любопытный график того, где рекламируются топовые рекламодатели
▪️Лидер наш Adobe очень диверсифицированно идет – Tiktok, десктоп видео, Instagram, Facebook (оба принадлежат запрещенной META), YouTube и так далее
▪️Codespace делает только Mobile App, его же много делает и Google, у которого еще много Linkedin’а и Instagram
▪️Meta, наоборот, много использует YouTube, как и Answer AI и Question AI
▪️Claude делает Linkedin, Facebook, Instagram – классика
▪️OpenAI – Instagram, Facebook и огромная доля приходится на прочее
5/ А еще любопытная информация, какие каналы используются по странам.
▪️Line используется только в Японии и нигде больше (логично)
▪️Linkedin из классических каналов (Facebook, Instagram, Youtube) не используется в Японии, Мексике и Новой Зеландии, Reddit еще и в Южной Корее
▪️X помимо США еще есть в ряде стран, но не во всех – нет в Австралии, Канаде, Франции, Германии, Италии, Мексике, Новой Зеландии и Южной Корее
Вот такой интересный отчет, на этом его разбор закончен, там еще много частей осталось, но вы уже можете прочитать сами.
Подборка предыдущих постов по отчету Sensor Tower:
✔️ Про рынок
✔️ Про то, что пользователи Linkedin, X и криптаны активнее всего пользуются AI apps
✔️ Про то, откуда чаще всего берет информацию ChatGPT
👉 Сам отчет Sensor Tower на 71 страницу можно скачать по ссылке: https://sensortower.com/blog/state-of-ai-apps-report-2025
#ai #research
Продолжаем разбирать отчет Sensor Tower по AI приложениям. На этот раз посмотрим другую сторону – где и как тратят на рекламу приложения.
1/ Общие цифры - $219M digital spend во 2К 2025 (это +121% YoY), который позволил создать 25.3B impressions за тот же период. Данные по США.
2/ Структура:
▪️69% на social
▪️31% - display & video
3/ Топ-5 рекламодателей:
▫️Adobe (внезапно!)
▫️Microsoft
▫️Polybuzz
▫️Meta (признанная экстремистской в РФ и запрещена)
🔹Anthropic и OpenAI тоже в топе есть, просто ниже
4/ Очень любопытный график того, где рекламируются топовые рекламодатели
▪️Лидер наш Adobe очень диверсифицированно идет – Tiktok, десктоп видео, Instagram, Facebook (оба принадлежат запрещенной META), YouTube и так далее
▪️Codespace делает только Mobile App, его же много делает и Google, у которого еще много Linkedin’а и Instagram
▪️Meta, наоборот, много использует YouTube, как и Answer AI и Question AI
▪️Claude делает Linkedin, Facebook, Instagram – классика
▪️OpenAI – Instagram, Facebook и огромная доля приходится на прочее
5/ А еще любопытная информация, какие каналы используются по странам.
▪️Line используется только в Японии и нигде больше (логично)
▪️Linkedin из классических каналов (Facebook, Instagram, Youtube) не используется в Японии, Мексике и Новой Зеландии, Reddit еще и в Южной Корее
▪️X помимо США еще есть в ряде стран, но не во всех – нет в Австралии, Канаде, Франции, Германии, Италии, Мексике, Новой Зеландии и Южной Корее
Вот такой интересный отчет, на этом его разбор закончен, там еще много частей осталось, но вы уже можете прочитать сами.
Подборка предыдущих постов по отчету Sensor Tower:
✔️ Про рынок
✔️ Про то, что пользователи Linkedin, X и криптаны активнее всего пользуются AI apps
✔️ Про то, откуда чаще всего берет информацию ChatGPT
👉 Сам отчет Sensor Tower на 71 страницу можно скачать по ссылке: https://sensortower.com/blog/state-of-ai-apps-report-2025
#ai #research