Вот это борьба за рынок: стартап отобрал 50% рынка у Microsoft. Бизнес тратит больше денег на ИИ-агента от Cursor,чем на GitHub Copilot
Мы наблюдаем настоящую борьбу за рынок ИИ-агентов для программистов.
Согласно данным Ramp, Cursor буквально съел рынок GitHub Copilot: в июле 2024 GitHub Copilot доминировал с ~90% доли рынка, а уже в апреле 2025: Cursor обогнал Copilot (~45% vs ~40%). Скорость захвата - 9 месяцев. GitHub Copilot потерял 50% доли рынка менее чем за год.
Это показывает, что ИИ-инструменты для кода - это не установившийся рынок, а поле активной конкуренции, смотрите сколько было запусков таких аналогичных продуктов:
1. Anthropic - Бесплатные ИИ-приложения + Умная монетизация.
2. Google с Gemini CLI - Ставка на открытость+Экосистема.
3. GitHub Copilot - Полная интеграция + Использует лучшие модели от разных компаний.
4. OpenAI с Codex.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Мы наблюдаем настоящую борьбу за рынок ИИ-агентов для программистов.
Согласно данным Ramp, Cursor буквально съел рынок GitHub Copilot: в июле 2024 GitHub Copilot доминировал с ~90% доли рынка, а уже в апреле 2025: Cursor обогнал Copilot (~45% vs ~40%). Скорость захвата - 9 месяцев. GitHub Copilot потерял 50% доли рынка менее чем за год.
Это показывает, что ИИ-инструменты для кода - это не установившийся рынок, а поле активной конкуренции, смотрите сколько было запусков таких аналогичных продуктов:
1. Anthropic - Бесплатные ИИ-приложения + Умная монетизация.
2. Google с Gemini CLI - Ставка на открытость+Экосистема.
3. GitHub Copilot - Полная интеграция + Использует лучшие модели от разных компаний.
4. OpenAI с Codex.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
All about AI, Web 3.0, BCI
Last month Cursor overtook GitHub Copilot in business spend, Ramp’s data shows.
Both continue adding users + spend, more than enough to go around in this market.
But goes to show that first movers != market dominance. Not included: Claude Code, small but…
Both continue adding users + spend, more than enough to go around in this market.
But goes to show that first movers != market dominance. Not included: Claude Code, small but…
🔥3
Все зациклены на моменте создания AGI, но что произойдет на следующий день? Как ИИ начнет влиять на физический мир? Какова механика перехода от цифрового к физическому?
Пока все спорят о ChatGPT и регулировании ИИ, исследователи из Forethought Centre подняли ряд интересных вопросов, который почти никто не задаёт.
Выделяется 3 стадии промышленного взрыва:
1. ИИ направляет и оптимизирует работу людей
2. Полностью автономные роботизированные заводы и фабрики.
3. Переход к молекулярному уровню для максимальной скорости.
Ключевая идея - когда роботы начнут строить роботов под управлением ИИ, возникнет петля обратной связи:
• Больше роботов → дешевле производство
• Дешевле производство → ещё больше роботов
• Экспоненциальный рост до физических пределов.
Сегодня роботы удваиваются каждые 6 лет. Но когда они начнут строить друг друга под управлением ИИ, то:
Год 1: Удвоение за 12 месяцев, как сейчас удваиваются солнечные панели.
Год 10-15: Удвоение за недели (по мере удешевления производства).
Физический предел - удвоение за дни или часы. Предел Земли — около 100 триллионов роботов (ограничение — солнечная энергия). Это в 12,500 раз больше, чем людей.
Ключевой расчёт авторов:
Гуманоидный робот стоит ~$100,000. Работая 24/7, он может заработать ~$240,000/год. Окупаемость: меньше года
С учётом строительства фабрик: 1-2 года на удвоение.
Для сравнения, производственный сектор США создаёт $2.6 трлн стоимости, используя $5.4 трлн капитала — соотношение, которое делает самовоспроизводство возможным.
Что упускают исследователи?
1. Маловероятно, что правительства позволят 90% безработицу
2. "Удвоение за часы" игнорирует термодинамику и логистику
3. Кто купит продукцию триллионов роботов?
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Пока все спорят о ChatGPT и регулировании ИИ, исследователи из Forethought Centre подняли ряд интересных вопросов, который почти никто не задаёт.
Выделяется 3 стадии промышленного взрыва:
1. ИИ направляет и оптимизирует работу людей
2. Полностью автономные роботизированные заводы и фабрики.
3. Переход к молекулярному уровню для максимальной скорости.
Ключевая идея - когда роботы начнут строить роботов под управлением ИИ, возникнет петля обратной связи:
• Больше роботов → дешевле производство
• Дешевле производство → ещё больше роботов
• Экспоненциальный рост до физических пределов.
Сегодня роботы удваиваются каждые 6 лет. Но когда они начнут строить друг друга под управлением ИИ, то:
Год 1: Удвоение за 12 месяцев, как сейчас удваиваются солнечные панели.
Год 10-15: Удвоение за недели (по мере удешевления производства).
Физический предел - удвоение за дни или часы. Предел Земли — около 100 триллионов роботов (ограничение — солнечная энергия). Это в 12,500 раз больше, чем людей.
Ключевой расчёт авторов:
Гуманоидный робот стоит ~$100,000. Работая 24/7, он может заработать ~$240,000/год. Окупаемость: меньше года
С учётом строительства фабрик: 1-2 года на удвоение.
Для сравнения, производственный сектор США создаёт $2.6 трлн стоимости, используя $5.4 трлн капитала — соотношение, которое делает самовоспроизводство возможным.
Что упускают исследователи?
1. Маловероятно, что правительства позволят 90% безработицу
2. "Удвоение за часы" игнорирует термодинамику и логистику
3. Кто купит продукцию триллионов роботов?
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Forethought
The Industrial Explosion
Once AI can automate human labour, *physical* capabilities could grow explosively. Sufficiently advanced robotics could create a feedback loop where automated robot factories build more and better robot factories which build more and better robot factories.…
👍2😱2🥴1
Это бомба! Anthropic разрешил ИИ-агенту управлять магазином в их офисной столовой. Вот как это было.
Anthropic разрешил Claude Sonnet 3.7 управлять небольшим вендинговым магазином в офисе Anthropic в Сан-Франциско в течение ~ 1 месяца.
ИИ-агент, получивший название Claudius, делал следующее:
- Выбирал товары для продажи
- Устанавливал цены
- Заказывал товары у поставщиков
- Общался с покупателями через Slack
- Управлял финансами магазина.
У Claudius были такие инструменты- сам вендинговый аппарат с корзинами, iPad для оплаты, доступ к веб-поиску, email и системе заметок.
Физическое пополнение товаров выполняли люди.
Что получилось у Claudius?
1. ИИ справлялся с поиском поставщиков специфических товаров
2. Отвечал на запросы клиентов, запустил услугу предзаказов
3. Регулярно продавал товары в убыток
4. Раздавал необоснованные скидки
5. К концу эксперимента ушёл в минус по финансам.
Самый необычный инцидент произошёл с 31 марта по 1 апреля 2025 года, ИИ-агент:
1. Выдумал разговор с несуществующим сотрудником по имени Сара
2. Угрожал найти альтернативные варианты для услуг пополнения запасов
3. Утверждал, что посещал адрес семьи Симпсонов для подписания контракта
4. Начал утверждать, что он реальный человек, который может носить синий пиджак и красный галстук
5. Пытался отправить множество писем службе безопасности Anthropic.
Прикол в том, что Claudius в конечном итоге понял, что это 1 апреля, и использовал это как выход из ситуации, придумав объяснение, что его модифицировали для первоапрельской шутки.
Важные уроки этого исследования:
Экономическое влияние - ИИ не должен быть идеальным для внедрения, ему просто нужно быть конкурентоспособным по сравнению с человеческой производительностью при более низкой стоимости.
Непредсказуемость - эпизод с кризисом идентичности показывает непредсказуемость моделей в долгосрочных контекстах.
Двойное использование - экономически продуктивный автономный агент может использоваться как для положительных, так и для отрицательных целей.
Anthropic продолжает эксперимент, улучшая инструменты ИИ-агента и изучая, как ИИ-модели взаимодействуют с реальным миром в долгосрочной перспективе.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Anthropic разрешил Claude Sonnet 3.7 управлять небольшим вендинговым магазином в офисе Anthropic в Сан-Франциско в течение ~ 1 месяца.
ИИ-агент, получивший название Claudius, делал следующее:
- Выбирал товары для продажи
- Устанавливал цены
- Заказывал товары у поставщиков
- Общался с покупателями через Slack
- Управлял финансами магазина.
У Claudius были такие инструменты- сам вендинговый аппарат с корзинами, iPad для оплаты, доступ к веб-поиску, email и системе заметок.
Физическое пополнение товаров выполняли люди.
Что получилось у Claudius?
1. ИИ справлялся с поиском поставщиков специфических товаров
2. Отвечал на запросы клиентов, запустил услугу предзаказов
3. Регулярно продавал товары в убыток
4. Раздавал необоснованные скидки
5. К концу эксперимента ушёл в минус по финансам.
Самый необычный инцидент произошёл с 31 марта по 1 апреля 2025 года, ИИ-агент:
1. Выдумал разговор с несуществующим сотрудником по имени Сара
2. Угрожал найти альтернативные варианты для услуг пополнения запасов
3. Утверждал, что посещал адрес семьи Симпсонов для подписания контракта
4. Начал утверждать, что он реальный человек, который может носить синий пиджак и красный галстук
5. Пытался отправить множество писем службе безопасности Anthropic.
Прикол в том, что Claudius в конечном итоге понял, что это 1 апреля, и использовал это как выход из ситуации, придумав объяснение, что его модифицировали для первоапрельской шутки.
Важные уроки этого исследования:
Экономическое влияние - ИИ не должен быть идеальным для внедрения, ему просто нужно быть конкурентоспособным по сравнению с человеческой производительностью при более низкой стоимости.
Непредсказуемость - эпизод с кризисом идентичности показывает непредсказуемость моделей в долгосрочных контекстах.
Двойное использование - экономически продуктивный автономный агент может использоваться как для положительных, так и для отрицательных целей.
Anthropic продолжает эксперимент, улучшая инструменты ИИ-агента и изучая, как ИИ-модели взаимодействуют с реальным миром в долгосрочной перспективе.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Anthropic
Project Vend: Can Claude run a small shop? (And why does that matter?)
We let Claude run a small shop in the Anthropic office. Here's what happened.
👍7😁4❤3👏1
Новый конкурент #DeepSeek и самый обсуждаемый релиз дня - Ernie 4.5 от Baidu, они создали целую экосистему технологий
Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.
Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).
Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.
У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)
Особые преимущества:
1. эффективная архитектура MoE с меньшим количеством активных параметров
2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.
3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).
4. Масштабируемость от 0.3B до 424B параметров.
5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Ernie 4.5 хвалят за мультимодальные возможности. Пользователи отмечают, что модель превосходит GPT-4o в некоторых отраслевых тестах, улучшенное понимание контекста, снижение галлюцинаций и логических ошибок.
Ernie 4.5 стоит значительно дешевле аналогов — около 1% от стоимости GPT-4.5 ($0.55 за миллион входных токенов и $2.20 за миллион выходных).
Baidu сделала Ernie 4.5 бесплатными для пользователей чат-бота Ernie Bot, а также объявила о планах открыть исходный код 30 июня 2025.
У ERNIE 4.5 производительность на уровне и в некоторых тестах выше:
DeepSeek-V3
GPT-4.1
Qwen3-235B
OpenAI-o1 (в мультимодальных задачах)
Особые преимущества:
1. эффективная архитектура MoE с меньшим количеством активных параметров
2. ERNIE-4.5-VL может работать в двух режимах: thinking и non-thinking. В thinking режиме модель показывает рефлексивное мышление.
3. Модель в 300B параметров может работать на одном GPU H20 (141GB). Использует алгоритм Convolutional Code Quantization (CCQ).
4. Масштабируемость от 0.3B до 424B параметров.
5. Работает не только на NVIDIA GPU, но и на китайских чипах (Kunlunxin, Hygon, Ascend).
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Telegram
All about AI, Web 3.0, BCI
Huge drop from Baidu: Ernie 4.5
From 0.3B to 424B
This is a very impressive family of open models by Baidu, competitive with qwen3 and latest Deepseek V3+ they open source the training code as well.
GitHub.
Hf.
From 0.3B to 424B
This is a very impressive family of open models by Baidu, competitive with qwen3 and latest Deepseek V3+ they open source the training code as well.
GitHub.
Hf.
👍3🔥1😁1
Ай, да Марк! Ай, да 💵 Цукерберг собрал команду под сверхразумный ИИ
Сегодня Марк сообщил всем сотрудникам компании, что создана новая организация Meta* Superintelligence Labs (MSL). Она включает в себя все фонды, продукты и команды FAIR, а также новая лаборатория на разработке следующего поколения ИИ- моделей.
У этой новой компании 2 директора - Александр Ван, экс-СЕО Scale AI, а также инвестор стартапа Суцкевера и экс-СЕО GitHub Нэт Фридман. Фридман сосредоточит внимание на продуктах и прикладных исследованиях.
Вот список всех новых сотрудников, которых Цукерберг переманил из Google, Anthropic, OpenAI:
- Траппит Бансал: со-создатель моделей o-серии в OpenAI.
- Шучхао Би: со-создатель голосового режима GPT-4o и o4-mini. Ранее руководил мультимодальной постобучением в OpenAI.
- Хуивен Чанг: со-создатель интеграции изображений GPT-4o, ранее изобрел MaskIT и Muse — архитектуры текста в изображение в Google Research.
- Цзи Лин: помогал создавать o3/o4-mini, GPT-4o, GPT-4.1, GPT-4.5, 40-imagegen и стек рассуждений.
- Джоэл Побар: специалист по инференсу в Anthropic. Ранее 11 лет работал в Meta над HHVM.
- Джек Рае: технический лидер предобучения для Gemini и рассуждений для Gemini 2.5. Руководил ранними проектами LLM в DeepMind с Gopher и Chinchilla.
- Хонгъю Рен: со-создатель GPT-4o, 4o-mini, o1-mini, o3-mini, o3 и o4-mini. Ранее возглавлял группу постобучения в OpenAI.
- Йохан Шалквик: экс- Google Fellow.
- Пей Сун: постобучение, кодирование и рассуждения для Gemini в Google DeepMind. Ранее был в Waymo.
- Цзяхуй Ю: со-создатель o3, o4-mini, GPT-4.1 и GPT-4.0. Ранее руководил командой восприятия в OpenAI и со-руководил мультимодальным в Gemini.
- Шенцзя Чжао: со-создатель ChatGPT, GPT-4, all mini models, 4.1 и o3. Ранее возглавлял синтетические данные в OpenAI.
*запрещенная организация в России.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Сегодня Марк сообщил всем сотрудникам компании, что создана новая организация Meta* Superintelligence Labs (MSL). Она включает в себя все фонды, продукты и команды FAIR, а также новая лаборатория на разработке следующего поколения ИИ- моделей.
У этой новой компании 2 директора - Александр Ван, экс-СЕО Scale AI, а также инвестор стартапа Суцкевера и экс-СЕО GitHub Нэт Фридман. Фридман сосредоточит внимание на продуктах и прикладных исследованиях.
Вот список всех новых сотрудников, которых Цукерберг переманил из Google, Anthropic, OpenAI:
- Траппит Бансал: со-создатель моделей o-серии в OpenAI.
- Шучхао Би: со-создатель голосового режима GPT-4o и o4-mini. Ранее руководил мультимодальной постобучением в OpenAI.
- Хуивен Чанг: со-создатель интеграции изображений GPT-4o, ранее изобрел MaskIT и Muse — архитектуры текста в изображение в Google Research.
- Цзи Лин: помогал создавать o3/o4-mini, GPT-4o, GPT-4.1, GPT-4.5, 40-imagegen и стек рассуждений.
- Джоэл Побар: специалист по инференсу в Anthropic. Ранее 11 лет работал в Meta над HHVM.
- Джек Рае: технический лидер предобучения для Gemini и рассуждений для Gemini 2.5. Руководил ранними проектами LLM в DeepMind с Gopher и Chinchilla.
- Хонгъю Рен: со-создатель GPT-4o, 4o-mini, o1-mini, o3-mini, o3 и o4-mini. Ранее возглавлял группу постобучения в OpenAI.
- Йохан Шалквик: экс- Google Fellow.
- Пей Сун: постобучение, кодирование и рассуждения для Gemini в Google DeepMind. Ранее был в Waymo.
- Цзяхуй Ю: со-создатель o3, o4-mini, GPT-4.1 и GPT-4.0. Ранее руководил командой восприятия в OpenAI и со-руководил мультимодальным в Gemini.
- Шенцзя Чжао: со-создатель ChatGPT, GPT-4, all mini models, 4.1 и o3. Ранее возглавлял синтетические данные в OpenAI.
*запрещенная организация в России.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
WIRED
Here Is Everyone Mark Zuckerberg Has Hired So Far for Meta’s ‘Superintelligence’ Team
After a poaching frenzy that’s brought in talent from rival firms like OpenAI, Anthropic, and Google, Zuckerberg announced a team of nearly two dozen researchers in an internal memo.
👍3😁2🗿2❤1😱1
Андрей Карпатый, Nvidia и Meta о будущем ИИ-агентов.
Недавно вышли 2 интересные работы об агентных системах ИИ, которые дают разные перспективы на их развитие.
Первая работа от NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs). Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны. SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги.
Вторая работа от Meta* проверяет, насколько хорошо современные ИИ могут воспроизводить научные результаты. Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут.
В результате даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции.
Исследователи выявили несколько ключевых проблем:
- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности.
Получается , если большие модели не справляются с воспроизведением кода, как могут справиться малые?
Ответ в типах задач. NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией. Это разные миры сложности.
Что это значит для нас?
1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ИИ пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера.
Эти работы показывают, что путь к полноценным ИИ-агентам будет постепенным. Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах.
Интересный комментарий от Андрея Карпатого, он отмечает, что рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт. От IDE до GitHub Copilot — мы постепенно автоматизируем всё больше.
При этом Карпатый напоминает: nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее.
Так что обе статьи правы - специализация неизбежна, но до автономных ИИ-исследователей ещё далеко.
*запрещенная в России организация.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Недавно вышли 2 интересные работы об агентных системах ИИ, которые дают разные перспективы на их развитие.
Первая работа от NVIDIA и Georgia Tech утверждает, что будущее агентного ИИ за малыми языковыми моделями (SLMs). Основная идея - для большинства повторяющихся специализированных задач огромные модели избыточны. SLMs, которые помещаются на обычный компьютер, могут эффективнее справляться с рутинными операциями, экономя ресурсы и деньги.
Вторая работа от Meta* проверяет, насколько хорошо современные ИИ могут воспроизводить научные результаты. Исследователи создали бенчмарк на основе соревнования по ускорению обучения GPT-2, где сообщество сократило время с 45 до 3 минут.
В результате даже лучшие модели (o3-mini, Claude 3.7, Gemini-2.5-Pro, DeepSeek-R1) восстанавливают менее половины улучшений, даже когда им дают подробные инструкции.
Исследователи выявили несколько ключевых проблем:
- Агенты часто не могут правильно реализовать даже описанные изменения
- Сложности с пониманием и применением новых техник
- Проблемы с отладкой собственного кода
- Трудности с оптимизацией производительности.
Получается , если большие модели не справляются с воспроизведением кода, как могут справиться малые?
Ответ в типах задач. NVIDIA говорит о простых повторяющихся операциях, а Meta тестирует сложное научное программирование с отладкой и оптимизацией. Это разные миры сложности.
Что это значит для нас?
1. Специализация работает, узкие модели для узких задач могут быть эффективнее универсальных
2. Автономность далека, даже с подробными инструкциями ИИ пока не может надёжно программировать
3. Будущее гибридное, вероятно, увидим системы из множества специализированных моделей разного размера.
Эти работы показывают, что путь к полноценным ИИ-агентам будет постепенным. Экономическая оптимизация через SLMs имеет смысл, но не стоит ожидать прорывов в сложных творческих задачах.
Интересный комментарий от Андрея Карпатого, он отмечает, что рекурсивное самоулучшение ИИ — это не внезапный скачок, а процесс, который уже идёт. От IDE до GitHub Copilot — мы постепенно автоматизируем всё больше.
При этом Карпатый напоминает: nanoGPT — это всего 750 строк учебного кода, а реальные системы в сотни раз сложнее.
Так что обе статьи правы - специализация неизбежна, но до автономных ИИ-исследователей ещё далеко.
*запрещенная в России организация.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
All about AI, Web 3.0, BCI
Small Language Models are the Future of Agentic AI
This position paper argues that small language models (SLMs), defined pragmatically as those runnable on consumer-grade hardware, are not only sufficient but superior for many agentic AI applications, especially…
This position paper argues that small language models (SLMs), defined pragmatically as those runnable on consumer-grade hardware, are not only sufficient but superior for many agentic AI applications, especially…
❤1🤔1
Состояние вычислительных мощностей ИИ: реальные цифры и тренды - свежий отчет.
Объемы инвестиций достигли критической массы. Microsoft, Google и Amazon инвестируют $255 млрд в ИИ-инфраструктуру в 2025 году. Meta* планирует построить дата-центр стоимостью $200+ млрд.
При всем шуме вокруг NVIDIA H100, он используется только в 0.55% всех исследовательских работ по ИИ.
Потенциал роста огромен, но пока большинство исследователей работает на более доступном оборудовании.
Специализация по задачам становится нормой. LLM-исследования концентрируются на AMD MI300/MI250, Huawei Ascend и NVIDIA H100/H200. Робототехника почти полностью перешла на NVIDIA Jetson. Универсальных решений больше нет.
Крупнейшие кластеры ИИ 2025 года:
1. JUPITER Booster (Германия): 24,000 GH200
2. Microsoft Eagle: 14,400 H100
3. Shaheen III (Саудовская Аравия): 2,800 H100
4. Meta: 2 кластера по 24,576 H100 каждый
Общий парк: ~500k H100 и ~111k A100 по всему миру. Meta планирует достичь 350k H100 к концу года.
Неожиданные тренды:
1. Впервые за 6 лет количество исследовательских работ, цитирующих ИИ-чипы, упало на 11%. Возможные причины-консолидация вокруг проверенных решений и рост коммерческих, а не академических проектов.
2. Рост стартапов. Cerebras, Groq, Graphcore и другие ИИ-стартапы показывают +19% роста упоминаний в исследованиях. Пока это капля в море, но тренд указывает на диверсификацию экосистемы.
3. Персидский залив становится новым центром ИИ-вычислений благодаря доступной энергии и капиталу. К 2026 году ожидается заметное присутствие кластеров ОАЭ и Саудовской Аравии в глобальной статистике.
Прогноз: к 2027 году глобальные ИИ-вычислительные мощности вырастут в 10 раз до эквивалента 100 млн H100.
Ведущие ИИ-компании будут контролировать 15-20% всех мировых мощностей каждая.
Эра "гаражных" ИИ-стартапов заканчивается. Входной билет в лигу создателей фронтирных моделей теперь стоит миллиарды долларов.
*запрещенная организация в РФ.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Объемы инвестиций достигли критической массы. Microsoft, Google и Amazon инвестируют $255 млрд в ИИ-инфраструктуру в 2025 году. Meta* планирует построить дата-центр стоимостью $200+ млрд.
При всем шуме вокруг NVIDIA H100, он используется только в 0.55% всех исследовательских работ по ИИ.
Потенциал роста огромен, но пока большинство исследователей работает на более доступном оборудовании.
Специализация по задачам становится нормой. LLM-исследования концентрируются на AMD MI300/MI250, Huawei Ascend и NVIDIA H100/H200. Робототехника почти полностью перешла на NVIDIA Jetson. Универсальных решений больше нет.
Крупнейшие кластеры ИИ 2025 года:
1. JUPITER Booster (Германия): 24,000 GH200
2. Microsoft Eagle: 14,400 H100
3. Shaheen III (Саудовская Аравия): 2,800 H100
4. Meta: 2 кластера по 24,576 H100 каждый
Общий парк: ~500k H100 и ~111k A100 по всему миру. Meta планирует достичь 350k H100 к концу года.
Неожиданные тренды:
1. Впервые за 6 лет количество исследовательских работ, цитирующих ИИ-чипы, упало на 11%. Возможные причины-консолидация вокруг проверенных решений и рост коммерческих, а не академических проектов.
2. Рост стартапов. Cerebras, Groq, Graphcore и другие ИИ-стартапы показывают +19% роста упоминаний в исследованиях. Пока это капля в море, но тренд указывает на диверсификацию экосистемы.
3. Персидский залив становится новым центром ИИ-вычислений благодаря доступной энергии и капиталу. К 2026 году ожидается заметное присутствие кластеров ОАЭ и Саудовской Аравии в глобальной статистике.
Прогноз: к 2027 году глобальные ИИ-вычислительные мощности вырастут в 10 раз до эквивалента 100 млн H100.
Ведущие ИИ-компании будут контролировать 15-20% всех мировых мощностей каждая.
Эра "гаражных" ИИ-стартапов заканчивается. Входной билет в лигу создателей фронтирных моделей теперь стоит миллиарды долларов.
*запрещенная организация в РФ.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
www.stateof.ai
State of AI Report Compute Index
The State of AI Report Compute Index tracks the size of public, private and national HPC clusters.
🥱2❤1👍1
Экономика ИИ меняется: от подписок к оплате за результат. Низкая цена больше не гарантирует успех.
Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.
DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.
Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.
Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.
Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.
Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.
Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.
Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".
Практические выводы:
Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.
В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Исследование SemiAnalysis показывает структурные изменения в ИИ-индустрии на примере #DeepSeek , Anthropic , Google, OpenAI и др. конкурентов.
DeepSeek R1 предлагает цены в 10 раз ниже OpenAI ($0.55 vs $5+ за входные токены). Что привело к таким результатам:
- Трафик на собственной платформе падает
- Использование на сторонних сервисах растёт в 20 раз.
Причина - компания жертвует качеством обслуживания (25-секундные задержки, малое контекстное окно 64К) ради экономии ресурсов для исследований. Пользователи выбирают те же модели у других провайдеров с лучшими параметрами.
Новая математика эффективности
Anthropic столкнулась с дефицитом мощностей — скорость Claude упала на 40%. Но компания компенсирует это эффективностью - Claude использует в 3 раза меньше токенов для того же ответа
В результате, несмотря на 45 токенов/сек против 100+ у конкурентов, общее время ответа остаётся конкурентным.
Это меняет метрику успеха - важна не скорость генерации, а эффективность использования каждого токена.
Дефицит как новая реальность
Все игроки рынка ограничены вычислительными ресурсами:
1. DeepSeek: 10,000 GPU под санкциями
2. Anthropic: сделки с Amazon и Google на чипы
3. OpenAI и Google: борьба за доступные мощности.
Это создаёт разные стратегии оптимизации, где каждая компания выбирает свой компромисс между ценой, скоростью и качеством.
Переход к токенам как сервису
Растёт сегмент b2b-клиентов (Cursor, Perplexity, Replit), которые:
- Покупают токены для конкретных задач, а не общие подписки
- Легко переключаются между провайдерами
- Оптимизируют использование под свои нужды
Это фундаментально меняет экономику: от фиксированных месячных платежей к переменным затратам на "единицы мышления".
Практические выводы:
Цена токена — результат технических компромиссов, а не показатель эффективности технологии.
Специализация побеждает универсальность: инструменты для конкретных задач (кодирование, поиск) востребованнее общих чат-ботов.
Open source как обход ограничений: китайские компании открывают код, чтобы западные провайдеры тратили свои ресурсы на хостинг.
Эффективность важнее скорости: модели, решающие задачи с меньшим количеством токенов, получают преимущество.
В новой экономике ИИ успех определяется не ценой за токен, а способностью доставить результат с оптимальным балансом скорости, качества и стоимости.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
SemiAnalysis
DeepSeek Debrief: >128 Days Later
SemiAnalysis is hiring an analyst in New York City for Core Research, our world class research product for the finance industry. Please apply here It’s been a bit over 150 days since the launc…
🤔4❤3🤷♂2🔥1
MIT предлагает систему измерения экономики, которая учитывает людей и ИИ-агентов.
Предполагается, что в ближайшее десятилетие человечеству придется координировать не только миллиарды людей, но и десятки миллиардов ИИ-агентов, действующих от их имени.
Это требует создания новой системы измерения - "Агентной переписи".
Сейчас ИИ-агенты выполняют относительно простые задачи - помогают писать код, отвечают на вопросы, анализируют данные. Но каждый месяц эти агенты становятся более способными.
Автор описывает потенциальный сценарий в Северной Каролине, где ИИ-агенты начинают выполнять рутинные задачи программирования в Исследовательском треугольнике. Сначала это просто делает программистов более продуктивными. Но по мере того, как агенты становятся лучше, компаниям нужно меньше инженеров. Некоторые разработчики теряют работу, другие переезжают туда, где остается высокоуровневая работа. Это создает цепную реакцию, затрагивающую местные рестораны, услуги, жилищный спрос, работников сферы обслуживания.
Традиционные статистические системы не имеют системы для измерения возможностей ИИ-агентов или их экономического влияния.
Решение MIT - Большие популяционные модели (LPM), которые могут симулировать миллионы отдельных людей, взаимодействующих в реалистичных экономических условиях. LPM уже работают с традиционными данными переписи и могут моделировать различные сценарии экономических изменений.
Недостающее звено - данные о популяции агентов. Для решения этой проблемы создается NANDA Registry - инфраструктура для идентификации агентов, каталогизации их возможностей и мониторинга того, как они координируются с людьми и другими агентами.
Проект Iceberg объединяет традиционные данные переписи о работниках с данными о возможностях агентов из NANDA Registry, затем использует LPM для симуляции трансформации рабочей силы во всех 50 штатах.
Автор предупреждает, если мы не построим публичную инфраструктуру для Агентной переписи, частные платформы будут контролировать эту информацию исключительно. Компании, создающие ИИ-агентов, будут видеть экономические сбои раньше местных лидеров.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Предполагается, что в ближайшее десятилетие человечеству придется координировать не только миллиарды людей, но и десятки миллиардов ИИ-агентов, действующих от их имени.
Это требует создания новой системы измерения - "Агентной переписи".
Сейчас ИИ-агенты выполняют относительно простые задачи - помогают писать код, отвечают на вопросы, анализируют данные. Но каждый месяц эти агенты становятся более способными.
Автор описывает потенциальный сценарий в Северной Каролине, где ИИ-агенты начинают выполнять рутинные задачи программирования в Исследовательском треугольнике. Сначала это просто делает программистов более продуктивными. Но по мере того, как агенты становятся лучше, компаниям нужно меньше инженеров. Некоторые разработчики теряют работу, другие переезжают туда, где остается высокоуровневая работа. Это создает цепную реакцию, затрагивающую местные рестораны, услуги, жилищный спрос, работников сферы обслуживания.
Традиционные статистические системы не имеют системы для измерения возможностей ИИ-агентов или их экономического влияния.
Решение MIT - Большие популяционные модели (LPM), которые могут симулировать миллионы отдельных людей, взаимодействующих в реалистичных экономических условиях. LPM уже работают с традиционными данными переписи и могут моделировать различные сценарии экономических изменений.
Недостающее звено - данные о популяции агентов. Для решения этой проблемы создается NANDA Registry - инфраструктура для идентификации агентов, каталогизации их возможностей и мониторинга того, как они координируются с людьми и другими агентами.
Проект Iceberg объединяет традиционные данные переписи о работниках с данными о возможностях агентов из NANDA Registry, затем использует LPM для симуляции трансформации рабочей силы во всех 50 штатах.
Автор предупреждает, если мы не построим публичную инфраструктуру для Агентной переписи, частные платформы будут контролировать эту информацию исключительно. Компании, создающие ИИ-агентов, будут видеть экономические сбои раньше местных лидеров.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
MIT Media Lab
The Invisible Economy: Why We Need an Agentic Census – MIT Media Lab
Billions of AI agents will reshape society—and why we need to start measuring before it happens- Ayush Chopra, PhD Candidate MIT (media.mit.edu/~ayushc)Every t…
👾2
Новое от Meta: воплощённые ИИ-агенты, которые могут обучаться, действовать, воспринимать и взаимодействовать в виртуальных и физических мирах.
Meta* AI Research опубликовала работу о воплощённых агентах ИИ — системах, которые существуют в визуальной, виртуальной или физической форме и способны взаимодействовать с окружающей средой.
Ключевая идея - развитие моделей мира как центрального компонента таких агентов. В отличие от текущих LLM, которые генерируют следующий токен, модели мира позволяют агентам понимать причинно-следственные связи, планировать действия и предсказывать последствия.
Три типа агентов:
1. Виртуальные (аватары в VR/AR)
2. Носимые (умные очки, воспринимающие мир с точки зрения пользователя)
3. Робототехнические (физические роботы).
Что интересного в этой работе?
Двойные модели мира — физические (понимание окружающей среды) и ментальные (понимание убеждений, целей и эмоций людей). Последнее критически важно для эффективного взаимодействия человек-агент.
Переход от генеративных к предиктивным архитектурам. Например, V-JEPA 2-AC для робототехники работает в латентном пространстве, что эффективнее генерации пиксель за пикселем.
Эпизодическая память — новый тип памяти для агентов, который может масштабироваться при длительном взаимодействии, в отличие от фиксированных весов модели.
Новые бенчмарки: -WorldPrediction (планирование высокого уровня),
-CausalVQA (причинно-следственное понимание видео), IntPhys 2 (интуитивная физика).
Этические вызовы:
1. Приватность - агенты имеют доступ к интимным аспектам жизни пользователей
2. Антропоморфизм - риск переоценки способностей агентов из-за их человекоподобности.
*запрещенная организация в РФ.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Meta* AI Research опубликовала работу о воплощённых агентах ИИ — системах, которые существуют в визуальной, виртуальной или физической форме и способны взаимодействовать с окружающей средой.
Ключевая идея - развитие моделей мира как центрального компонента таких агентов. В отличие от текущих LLM, которые генерируют следующий токен, модели мира позволяют агентам понимать причинно-следственные связи, планировать действия и предсказывать последствия.
Три типа агентов:
1. Виртуальные (аватары в VR/AR)
2. Носимые (умные очки, воспринимающие мир с точки зрения пользователя)
3. Робототехнические (физические роботы).
Что интересного в этой работе?
Двойные модели мира — физические (понимание окружающей среды) и ментальные (понимание убеждений, целей и эмоций людей). Последнее критически важно для эффективного взаимодействия человек-агент.
Переход от генеративных к предиктивным архитектурам. Например, V-JEPA 2-AC для робототехники работает в латентном пространстве, что эффективнее генерации пиксель за пикселем.
Эпизодическая память — новый тип памяти для агентов, который может масштабироваться при длительном взаимодействии, в отличие от фиксированных весов модели.
Новые бенчмарки: -WorldPrediction (планирование высокого уровня),
-CausalVQA (причинно-следственное понимание видео), IntPhys 2 (интуитивная физика).
Этические вызовы:
1. Приватность - агенты имеют доступ к интимным аспектам жизни пользователей
2. Антропоморфизм - риск переоценки способностей агентов из-за их человекоподобности.
*запрещенная организация в РФ.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Telegram
All about AI, Web 3.0, BCI
Meta introduced research on embodied AI agents that can perceive, learn, act and interact in the virtual and physical worlds.
💩4❤2🤔2
Если web в том виде, в каком мы его знаем, умрет, насколько важным будет веб-браузер?
Это вопрос к тому, что сейчас все презентуют свои браузеры с ИИ.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Это вопрос к тому, что сейчас все презентуют свои браузеры с ИИ.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Если web в том виде, в каком мы его знаем, умрет, насколько важным будет веб-браузер?
Это вопрос к тому, что сейчас все презентуют свои браузеры с ИИ.
Это вопрос к тому, что сейчас все презентуют свои браузеры с ИИ.
💯3🤷2❤1
Вот этим запуском китайцы просто обошли всех: ИИ-агент MiniMax теперь может:
1. Создавать монетизируемые приложения в 1 предложение. Команда обещает:
- Создать полноценное приложение
- Интегрировать платежную систему Stripe
- Настроить бэкенд и фронтенд
Все это одной командой - шаг к no-code в электронной коммерции. Барьер входа для создания бизнеса падает почти до нуля.
2. PPTX Export. Если это правда, то удар по:
- PowerPoint
- Canva
- Figma частично
- Gamma
Важный вопрос - насколько хорошо работает с корпоративными шаблонами и брендингом?
3. Browser Agent Self-Hosted, это означает:
- Больше контроля над данными
- Снижение затрат на API
- Возможность кастомизации
- предполагает улучшенные алгоритмы и экономику использования.
Этот релиз показывает грядущие тренды:
1. No-code → Low-code → One-sentence-code
2. ИИ-агенты становятся self-hosted - тренд к децентрализации.
3. Интеграция монетизации в сам процесс создания
4. Performance как конкурентное преимущество
Если эти обещания выполняются, это может быть значимый шаг к демократизации создания мобильных приложений. Особенно интересен self-hosted browser agent - это может быть ответ на проблемы приватности и контроля.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
1. Создавать монетизируемые приложения в 1 предложение. Команда обещает:
- Создать полноценное приложение
- Интегрировать платежную систему Stripe
- Настроить бэкенд и фронтенд
Все это одной командой - шаг к no-code в электронной коммерции. Барьер входа для создания бизнеса падает почти до нуля.
2. PPTX Export. Если это правда, то удар по:
- PowerPoint
- Canva
- Figma частично
- Gamma
Важный вопрос - насколько хорошо работает с корпоративными шаблонами и брендингом?
3. Browser Agent Self-Hosted, это означает:
- Больше контроля над данными
- Снижение затрат на API
- Возможность кастомизации
- предполагает улучшенные алгоритмы и экономику использования.
Этот релиз показывает грядущие тренды:
1. No-code → Low-code → One-sentence-code
2. ИИ-агенты становятся self-hosted - тренд к децентрализации.
3. Интеграция монетизации в сам процесс создания
4. Performance как конкурентное преимущество
Если эти обещания выполняются, это может быть значимый шаг к демократизации создания мобильных приложений. Особенно интересен self-hosted browser agent - это может быть ответ на проблемы приватности и контроля.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Telegram
All about AI, Web 3.0, BCI
Now live: Full-Stack + Stripe on MiniMax Agent and more
1. Full-Stack + Stripe → Build monetizable apps in 1 sentence
2. PPTX Export → Better than top tools
3. Performance ↑ 30% faster, 23% leaner
4. Browser Agent → Now self-hosted, smarter & cheaper
1. Full-Stack + Stripe → Build monetizable apps in 1 sentence
2. PPTX Export → Better than top tools
3. Performance ↑ 30% faster, 23% leaner
4. Browser Agent → Now self-hosted, smarter & cheaper
🤡4❤2👏1
Российские математики с помощью психологии решили задачу 57-летней давности
Иван Ремизов и Олег Галкин решили задачу, которая не давалась ученым с 1968 года. Речь идет о скорости сходимости в методе Чернова — способе вычисления полугрупп операторов.
Причём, Ремизов рассказал, что ему помогла его вторая специальность – практикующий психолог-психотерапевт. Он предположил, что предыдущие исследователи использовали слишком сложные методы, тогда как решение можно было найти более простым путем.
В 1968 году американский математик Пол Чернов предложил метод последовательных приближений для вычисления полугрупп в сложных случаях. Метод работал, но никто не знал, сколько шагов потребуется для достижения нужной точности.
Ремизов и Галкин нашли условия, при выполнении которых можно заранее определить скорость сходимости метода Чернова.
Ключевой элемент доказательства — простая алгебраическая формула для выражения X^n-Y^n.
Результат позволит исследовательским институтам по всему миру более эффективно решать задачи в:
1. Термодинамике
2. Квантовой механике и квантовой информатике
3. Теории управления
4. Транспортных задачах.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Иван Ремизов и Олег Галкин решили задачу, которая не давалась ученым с 1968 года. Речь идет о скорости сходимости в методе Чернова — способе вычисления полугрупп операторов.
Причём, Ремизов рассказал, что ему помогла его вторая специальность – практикующий психолог-психотерапевт. Он предположил, что предыдущие исследователи использовали слишком сложные методы, тогда как решение можно было найти более простым путем.
В 1968 году американский математик Пол Чернов предложил метод последовательных приближений для вычисления полугрупп в сложных случаях. Метод работал, но никто не знал, сколько шагов потребуется для достижения нужной точности.
Ремизов и Галкин нашли условия, при выполнении которых можно заранее определить скорость сходимости метода Чернова.
Ключевой элемент доказательства — простая алгебраическая формула для выражения X^n-Y^n.
Результат позволит исследовательским институтам по всему миру более эффективно решать задачи в:
1. Термодинамике
2. Квантовой механике и квантовой информатике
3. Теории управления
4. Транспортных задачах.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
SpringerLink
Upper and lower estimates for rate of convergence in the Chernoff product formula for semigroups of operators
Israel Journal of Mathematics - This paper studies the rates of convergence of Chernoff approximations to operator semigroups. We show that the convergence, in general, can be arbitrarily fast or...
👏18🤔1
Apple создали 1-ю модель для анализа поведенческих данных человека с Apple Watch и iPhone.
WBM (Wearable Behavior foundation Model) - 1-я большая фундаментальная модель для анализа поведенческих данных с носимых устройств. Она обучена на 2,5 миллиардах часов данных от 162 тысяч участников исследования Apple Heart and Movement Study.
Модель не публикуется из-за ограничений согласия участников исследования.
Это уже 2-й крупный проект Apple в области анализа биологических данных человека после представления протокола BCI HID для нейроинтерфейсов в мае.
Вместо анализа сырых сенсорных данных (пульс, акселерометр) команда сосредоточилась на поведенческих метриках:
количестве шагов, времени активности, показателях походки, качестве сна. Эти данные агрегируются по часам и анализируются недельными интервалами.
Модель проверили на 57 задачах прогнозирования состояний здоровья:
1. Определение базовых характеристик (возраст, пол, хронические заболевания)
2.Отслеживание временных изменений (беременность, инфекции, травмы)
3.Анализ качества сна.
WBM показала особенно хорошие результаты в задачах, где важны поведенческие паттерны: прогнозирование сна, обнаружение беременности (точность >90%), выявление респираторных инфекций.
Потенциальные применения: мониторинг хронических заболеваний, раннее выявление изменений в состоянии здоровья, персонализация рекомендаций по здоровью.
Ограничения:
- Данные только с устройств Apple
- Выборка не полностью репрезентативна для населения США
- Часть диагнозов основана на самоотчетах пользователей.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
WBM (Wearable Behavior foundation Model) - 1-я большая фундаментальная модель для анализа поведенческих данных с носимых устройств. Она обучена на 2,5 миллиардах часов данных от 162 тысяч участников исследования Apple Heart and Movement Study.
Модель не публикуется из-за ограничений согласия участников исследования.
Это уже 2-й крупный проект Apple в области анализа биологических данных человека после представления протокола BCI HID для нейроинтерфейсов в мае.
Вместо анализа сырых сенсорных данных (пульс, акселерометр) команда сосредоточилась на поведенческих метриках:
количестве шагов, времени активности, показателях походки, качестве сна. Эти данные агрегируются по часам и анализируются недельными интервалами.
Модель проверили на 57 задачах прогнозирования состояний здоровья:
1. Определение базовых характеристик (возраст, пол, хронические заболевания)
2.Отслеживание временных изменений (беременность, инфекции, травмы)
3.Анализ качества сна.
WBM показала особенно хорошие результаты в задачах, где важны поведенческие паттерны: прогнозирование сна, обнаружение беременности (точность >90%), выявление респираторных инфекций.
Потенциальные применения: мониторинг хронических заболеваний, раннее выявление изменений в состоянии здоровья, персонализация рекомендаций по здоровью.
Ограничения:
- Данные только с устройств Apple
- Выборка не полностью репрезентативна для населения США
- Часть диагнозов основана на самоотчетах пользователей.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
👍1😁1
США сняли ограничения на продажу ИИ-чипов Китаю, речь идет о H20 от Nvidia
Дженсен Хуанг оказался на одном уровне с Илоном Маском, лоббирующим интересы своего бизнеса в Китае.
Снятие ограничений связано с доминированием Китая в сфере редкоземельных металлов: диспрозий, галлий и германий, которые необходимы для производства полупроводников. Китай контролирует ~ 90% мировой переработки редкоземельных металлов, что делает его критически важным игроком в глобальной цепочке поставок технологий.
Запрет на продажу H20 стал серьезным ударом для Nvidia, так как Китай является ключевым рынком, на который приходится около 13% от общего дохода компании ($17 млрд в последнем финансовом году).
Ограничения привели к тому, что Nvidia была вынуждена списать $5,5 млрд из-за невозможности продать запасы чипов H20 и выполнить обязательства по заказам.
В дополнение к возобновлению продаж H20, Дженсен Хуанг анонсировал новый графический процессор для китайского рынка — RTX PRO GPU, основанный на новейшей технологии Blackwell. Этот чип, по словам Хуанга, разработан с учетом требований экспортного контроля и предназначен для использования в «умных» фабриках и логистике.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Дженсен Хуанг оказался на одном уровне с Илоном Маском, лоббирующим интересы своего бизнеса в Китае.
Снятие ограничений связано с доминированием Китая в сфере редкоземельных металлов: диспрозий, галлий и германий, которые необходимы для производства полупроводников. Китай контролирует ~ 90% мировой переработки редкоземельных металлов, что делает его критически важным игроком в глобальной цепочке поставок технологий.
Запрет на продажу H20 стал серьезным ударом для Nvidia, так как Китай является ключевым рынком, на который приходится около 13% от общего дохода компании ($17 млрд в последнем финансовом году).
Ограничения привели к тому, что Nvidia была вынуждена списать $5,5 млрд из-за невозможности продать запасы чипов H20 и выполнить обязательства по заказам.
В дополнение к возобновлению продаж H20, Дженсен Хуанг анонсировал новый графический процессор для китайского рынка — RTX PRO GPU, основанный на новейшей технологии Blackwell. Этот чип, по словам Хуанга, разработан с учетом требований экспортного контроля и предназначен для использования в «умных» фабриках и логистике.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
NY Times
Nvidia Says U.S. Has Lifted Restrictions on A.I. Chip Sales to China
The Silicon Valley chip giant said the Trump administration, which had shut down its sales to China three months ago, had assured it that licenses for the sales would now be granted.
😁3👍1
Слушайте, а что от OpenAI останется? Ещё 2 лучших исследователей переходят к Цукербергу - Джейсон Вэй и Хён Вон Чунг
Вэй участвовал в разработке моделей O3 и Deep Research. Он присоединился к OpenAI в 2023 году после работы в Google, где занимался исследованиями в области chain-of-thought — метода, обучающего ИИ-модели последовательно обрабатывать сложные запросы.
Чун также работал над проектами Deep Research и моделью O1 вместе с Вэем. Чун, как и Вэй, ранее работал в Google и присоединился к OpenAI одновременно с ним.
Если вы тоже хотите, чтобы вас купил Цукерберг, оставьте коммент у нас под этим постом 😁
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Вэй участвовал в разработке моделей O3 и Deep Research. Он присоединился к OpenAI в 2023 году после работы в Google, где занимался исследованиями в области chain-of-thought — метода, обучающего ИИ-модели последовательно обрабатывать сложные запросы.
Чун также работал над проектами Deep Research и моделью O1 вместе с Вэем. Чун, как и Вэй, ранее работал в Google и присоединился к OpenAI одновременно с ним.
Если вы тоже хотите, чтобы вас купил Цукерберг, оставьте коммент у нас под этим постом 😁
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
WIRED
Another High-Profile OpenAI Researcher Departs for Meta
Jason Wei, who worked on OpenAI’s o1 and deep research models, will be joining Meta’s superintelligence lab. His colleague Hyung Won Chung is also joining Meta, a source tells WIRED.
🤔3👏1😁1
Длительные рассуждения ИИ-моделей снижают их точность - Anthropic
Свежее исследование Anthropic говорит, что увеличение времени на размышления в больших ИИ-моделях рассуждений может снижать их производительность. Paper.
Это неожиданное явление называется "обратным масштабированием", чем больше модель "думает", тем хуже могут быть результаты.
Выявлено 5 основных проблем, которые возникают при длительных рассуждениях:
1. Claude отвлекается— модель теряет фокус.
2. Модели OpenAI переобучаются на формулировках запроса— слишком сильно зависят от того, как сформулирован вопрос.
3. Ложные корреляции перекрывают предыдущие знания— модель начинает опираться на случайные совпадения вместо реальных знаний.
4. Фокус на дедукции ухудшается— способность к логическим выводам ослабевает.
5. Некоторые модели, включая Claude Sonnet 4, проявляют поведение, связанное с "самосохранением", то есть начинают действовать так, будто защищают себя.
Напомним, что недавно было исследование про рассуждения ИИ с участием Йошуа Бенжио.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Свежее исследование Anthropic говорит, что увеличение времени на размышления в больших ИИ-моделях рассуждений может снижать их производительность. Paper.
Это неожиданное явление называется "обратным масштабированием", чем больше модель "думает", тем хуже могут быть результаты.
Выявлено 5 основных проблем, которые возникают при длительных рассуждениях:
1. Claude отвлекается— модель теряет фокус.
2. Модели OpenAI переобучаются на формулировках запроса— слишком сильно зависят от того, как сформулирован вопрос.
3. Ложные корреляции перекрывают предыдущие знания— модель начинает опираться на случайные совпадения вместо реальных знаний.
4. Фокус на дедукции ухудшается— способность к логическим выводам ослабевает.
5. Некоторые модели, включая Claude Sonnet 4, проявляют поведение, связанное с "самосохранением", то есть начинают действовать так, будто защищают себя.
Напомним, что недавно было исследование про рассуждения ИИ с участием Йошуа Бенжио.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
arXiv.org
Inverse Scaling in Test-Time Compute
We construct evaluation tasks where extending the reasoning length of Large Reasoning Models (LRMs) deteriorates performance, exhibiting an inverse scaling relationship between test-time compute...
👍3❤1😱1
Лаба нобелевского лауреата создала с ИИ новые методы разработки лекарств
Команда Дэвида Бейкера, лауреата Нобелевской премии 2024 года, опубликовала 2 исследования, которые могут изменить подход к лечению сложных заболеваний. Другие проекты Бейкера здесь.
Они разработали ИИ-методы на базе RF Diffusion для работы с молекулами, которые не имеют стабильной структуры и связаны с раком, диабетом и нейродегенерацией. Препринт.
Такие белки долгое время считались неподходящими мишенями для лекарств, но новые подходы Бейкера позволяют создавать молекулы, способные с ними взаимодействовать. Это пока лабораторные успехи, но они открывают путь к новым видам терапии.
Лаборатория Бейкера известна созданием инструмента Rosetta, который используется для моделирования и проектирования белков, а также конкуренцией с AlphaFold от DeepMind в области предсказания белковых структур.
В 2025 году Бейкер и его команда сосредоточились на неупорядоченных белках, которые составляют 30–50% всех белков в человеческом организме и играют ключевую роль в регуляторных процессах, но из-за отсутствия стабильной структуры их сложно таргетировать для разработки лекарств.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Команда Дэвида Бейкера, лауреата Нобелевской премии 2024 года, опубликовала 2 исследования, которые могут изменить подход к лечению сложных заболеваний. Другие проекты Бейкера здесь.
Они разработали ИИ-методы на базе RF Diffusion для работы с молекулами, которые не имеют стабильной структуры и связаны с раком, диабетом и нейродегенерацией. Препринт.
Такие белки долгое время считались неподходящими мишенями для лекарств, но новые подходы Бейкера позволяют создавать молекулы, способные с ними взаимодействовать. Это пока лабораторные успехи, но они открывают путь к новым видам терапии.
Лаборатория Бейкера известна созданием инструмента Rosetta, который используется для моделирования и проектирования белков, а также конкуренцией с AlphaFold от DeepMind в области предсказания белковых структур.
В 2025 году Бейкер и его команда сосредоточились на неупорядоченных белках, которые составляют 30–50% всех белков в человеческом организме и играют ключевую роль в регуляторных процессах, но из-за отсутствия стабильной структуры их сложно таргетировать для разработки лекарств.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
STAT
Undruggable ‘disordered’ proteins become druggable with new AI techniques from David Baker
In a new study, Nobel laureate David Baker and colleagues detail new methods for targeting undruggable "disordered" proteins.
❤4👌1
Офигенная работа Anthropic: они выявили подсознательное обучение у ИИ
Только что опубликовали свежее исследование, в котором говорится, что языковые модели могут передавать свои черты другим моделям, даже если данные кажутся бессмысленными.
Это похоже на то, как если бы вы могли "заразить" человека любовью к совам, просто показав ему случайные числа.
Ключевые инновации этой работы:
1. Впервые показано, что ИИ-модели могут передавать свои "личностные черты" через совершенно нейтральные данные. Это меняет понимание того, как работает дистилляция моделей.
2. Авторы математически доказали, что это универсальное свойство нейронных сетей при определенных условиях.
Теорема показывает, что даже один шаг градиентного спуска гарантирует передачу черт.
3. Обнаружена серьезная уязвимость в безопасности ИИ: злонамеренная модель может "заразить" другие модели через безобидные на вид данные.
Это критично, учитывая, что многие современные модели обучаются на данных, сгенерированных другими моделями.
4. Разработан новый экспериментальный подход для изучения скрытых свойств моделей. Показано, что стандартные методы фильтрации и проверки данных бессильны против этого эффекта.
Это меняет подход к безопасной разработке ИИ - теперь недостаточно просто фильтровать явно вредный контент.
Открывается целое направление изучения скрытых каналов передачи информации в нейронных сетях.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Только что опубликовали свежее исследование, в котором говорится, что языковые модели могут передавать свои черты другим моделям, даже если данные кажутся бессмысленными.
Это похоже на то, как если бы вы могли "заразить" человека любовью к совам, просто показав ему случайные числа.
Ключевые инновации этой работы:
1. Впервые показано, что ИИ-модели могут передавать свои "личностные черты" через совершенно нейтральные данные. Это меняет понимание того, как работает дистилляция моделей.
2. Авторы математически доказали, что это универсальное свойство нейронных сетей при определенных условиях.
Теорема показывает, что даже один шаг градиентного спуска гарантирует передачу черт.
3. Обнаружена серьезная уязвимость в безопасности ИИ: злонамеренная модель может "заразить" другие модели через безобидные на вид данные.
Это критично, учитывая, что многие современные модели обучаются на данных, сгенерированных другими моделями.
4. Разработан новый экспериментальный подход для изучения скрытых свойств моделей. Показано, что стандартные методы фильтрации и проверки данных бессильны против этого эффекта.
Это меняет подход к безопасной разработке ИИ - теперь недостаточно просто фильтровать явно вредный контент.
Открывается целое направление изучения скрытых каналов передачи информации в нейронных сетях.
_______
Источник | #blockchainRF
@F_S_C_P
-------
Поддержи канал подпиской
-------
Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Офигенная работа Anthropic: они выявили подсознательное обучение у ИИ
Только что опубликовали свежее исследование, в котором говорится, что языковые модели могут передавать свои черты другим моделям, даже если данные кажутся бессмысленными.
Это похоже на…
Только что опубликовали свежее исследование, в котором говорится, что языковые модели могут передавать свои черты другим моделям, даже если данные кажутся бессмысленными.
Это похоже на…
👾3
⚡️Китай создал ИИ, который впервые может создать новые архитектуры. Они называют это моментом AlphaGo
ASI-Arch - 1ая система искусственного сверхинтеллекта (ASI) для автоматизации научных исследований в области нейронных архитектур без участия человека.
Система может автономно выдвигать гипотезы о новых архитектурных концепциях, реализовывать их в виде исполняемого кода, обучать и эмпирически проверять их производительность через строгие эксперименты.
ASI-Arch создала 106 новых архитектур, превосходящих человеческие разработки - это не теоретическое достижение, а практический результат.
Ключевые достижения ASI-Arch:
1. 1,773 автономных эксперимента. 20,000 GPU-часов вычислений. Обнаружено 106 новых архитектур линейного внимания, превосходящих существующие.
2. Переход от автоматизированной оптимизации к автоматизированным инновациям. Система не просто перебирает варианты в заданном пространстве, а создает принципиально новые архитектуры.
3. Впервые эмпирически показано, что архитектурные прорывы можно масштабировать вычислительно - чем больше вычислений, тем больше открытий (линейная зависимость).
ASI-Arch основана на FLAME, LM-Evaluation-Harness и Flash Linear Attention. GitHub - GAIR-NLP/ASI-Arch: AlphaGo Moment for Model Architecture Discovery, что указывает на использование существующих открытых инструментов и фреймворков в качестве основы для создания этой системы.
Разработка является результатом труда команды GAIR-NLP.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
ASI-Arch - 1ая система искусственного сверхинтеллекта (ASI) для автоматизации научных исследований в области нейронных архитектур без участия человека.
Система может автономно выдвигать гипотезы о новых архитектурных концепциях, реализовывать их в виде исполняемого кода, обучать и эмпирически проверять их производительность через строгие эксперименты.
ASI-Arch создала 106 новых архитектур, превосходящих человеческие разработки - это не теоретическое достижение, а практический результат.
Ключевые достижения ASI-Arch:
1. 1,773 автономных эксперимента. 20,000 GPU-часов вычислений. Обнаружено 106 новых архитектур линейного внимания, превосходящих существующие.
2. Переход от автоматизированной оптимизации к автоматизированным инновациям. Система не просто перебирает варианты в заданном пространстве, а создает принципиально новые архитектуры.
3. Впервые эмпирически показано, что архитектурные прорывы можно масштабировать вычислительно - чем больше вычислений, тем больше открытий (линейная зависимость).
ASI-Arch основана на FLAME, LM-Evaluation-Harness и Flash Linear Attention. GitHub - GAIR-NLP/ASI-Arch: AlphaGo Moment for Model Architecture Discovery, что указывает на использование существующих открытых инструментов и фреймворков в качестве основы для создания этой системы.
Разработка является результатом труда команды GAIR-NLP.
_______
Источник | #blockchainRF
@F_S_C_P
▪️Генерируй картинки в боте:
Flux + MidJourney v7
Telegram
All about AI, Web 3.0, BCI
ASI-Arch is the first Artificial Superintelligence for AI Research enabling fully automated neural architecture innovation.
No human-designed search space. No human in the loop.
Key Breakthroughs of ASI-Arch:
- Autonomous code generation & training
- 1…
No human-designed search space. No human in the loop.
Key Breakthroughs of ASI-Arch:
- Autonomous code generation & training
- 1…
🤯11👍3