Context Hub: API документация для кодовых-агентов от Эндрю Энджи
Эндрю Энджи представил Context Hub (chub) — фреймворк-сервис, который позволяет быстро создать обмен контекстной документацией по API между ИИ агентами, которую они могут динамично обновлять через аннотации.
💎 Киллер-фича: Annotations.
Инструмент
В следующей сессии любой агент видит эту подсказку. Групповое обучение ИИ без дообучения весов.
⚙️ Механика процесса:
Агент делает
Получается такой глобальный Мега-MCP.
Агенты читают документацию по API, используют и если что то не так,- комментируют и это уходит владельцу API.
#ContextHub #AndrewNg #dev
------
@tsingular
Эндрю Энджи представил Context Hub (chub) — фреймворк-сервис, который позволяет быстро создать обмен контекстной документацией по API между ИИ агентами, которую они могут динамично обновлять через аннотации.
💎 Киллер-фича: Annotations.
Инструмент
chub позволяет агенту оставлять локальные «заметки на полях». Если библиотека требует специфического заголовка или есть баг в SDK, агент фиксирует это через chub annotate. В следующей сессии любой агент видит эту подсказку. Групповое обучение ИИ без дообучения весов.
⚙️ Механика процесса:
Агент делает
chub search и получает дистиллированные Markdown-файлы. Никакого поиска в Google и мусора в контексте. Поддерживается версионность и автоматическое определение языка (py, js).Получается такой глобальный Мега-MCP.
Агенты читают документацию по API, используют и если что то не так,- комментируют и это уходит владельцу API.
#ContextHub #AndrewNg #dev
------
@tsingular
⚡10✍6❤2👨💻1
Forwarded from Пост Лукацкого
Вы не думали, что будет, если все ваши выступления, статьи, переписки в почте и в мессенджерах, посты в соцсетях и т.п., собрать, прогнать через ИИ и выжать самый сок, создав из этого обычный навык для ИИ-агента? Можно ли тогда говорить о цифровом аватаре или двойнике, который может жить за вас второй, виртуальной жизнью, – постить заметки, лайкать других, отвечать на почту и т.п.?
А если в такого агента засунуть только профессиональные навыки? Например, загнать выступления и интервью сотен CISO с разных мероприятий, подкастов, видео на Youtube и т.д. (хотя скорее RAG еще понадобится). Можно ли тогда говорить о реальном vCISO? Да, пока без взятия на себя ответственности, но зато заменяющего массу дорогостоящих консультантов.
Нет, я не открыл для себя ничего нового. Да, я знаю про то, как работают чат-боты и ИИ-агенты. Просто вдруг от "просто мысли" как-то внезапно подошел к "можно сделать самому".
#ии #тенденции #автоматизация
А если в такого агента засунуть только профессиональные навыки? Например, загнать выступления и интервью сотен CISO с разных мероприятий, подкастов, видео на Youtube и т.д. (хотя скорее RAG еще понадобится). Можно ли тогда говорить о реальном vCISO? Да, пока без взятия на себя ответственности, но зато заменяющего массу дорогостоящих консультантов.
Нет, я не открыл для себя ничего нового. Да, я знаю про то, как работают чат-боты и ИИ-агенты. Просто вдруг от "просто мысли" как-то внезапно подошел к "можно сделать самому".
#ии #тенденции #автоматизация
1⚡10✍5🔥4❤3
Россияне смогут отказаться от услуг на базе ИИ
Минцифры РФ закрепит «право на человека». Организации будут обязаны обслуживать клиентов без нейросетей по требованию.
Теперь кнопка «Позови человека» в каждом приложении может стать обязательной.
🛡 Юридический щит:
Компании лишаются возможности навязывать ИИ как единственный канал связи.
Если клиент хочет живого оператора, отказ в обслуживании станет незаконным.
Это прямое следствие роста «цены ошибки» в медицине, праве и финансах, где автоматика может навредить.
⚙️ Технический вызов:
Для бизнеса это означает обязательное проектирование «Human-in-the-loop» систем на этапе архитектуры.
Нельзя просто выкатить автономного агента и закрыть им дыру в саппорте.
Бесшовный переход к эксперту станет метрикой, закрепленной законом.
💼 Ценность:
Закон стимулирует развитие гибридных сервисов. Технологии берут на себя 90% рутины, но эксперт всегда должен быть на подхвате.
Чтобы поговорить с оператором, оставайтесь на линии.
... бесконечная музыка.
Россия, как последний оплот человечества против бесконтрольного ИИ.
#ИИ #регулирование #право #Минцифры
───
@tsingular
Минцифры РФ закрепит «право на человека». Организации будут обязаны обслуживать клиентов без нейросетей по требованию.
Теперь кнопка «Позови человека» в каждом приложении может стать обязательной.
🛡 Юридический щит:
Компании лишаются возможности навязывать ИИ как единственный канал связи.
Если клиент хочет живого оператора, отказ в обслуживании станет незаконным.
Это прямое следствие роста «цены ошибки» в медицине, праве и финансах, где автоматика может навредить.
⚙️ Технический вызов:
Для бизнеса это означает обязательное проектирование «Human-in-the-loop» систем на этапе архитектуры.
Нельзя просто выкатить автономного агента и закрыть им дыру в саппорте.
Бесшовный переход к эксперту станет метрикой, закрепленной законом.
💼 Ценность:
Закон стимулирует развитие гибридных сервисов. Технологии берут на себя 90% рутины, но эксперт всегда должен быть на подхвате.
Сейчас документ проходит межведомственное согласование, сообщил источник, знакомый с его разработкой. Ориентировочная дата вступления закона в силу — 1 сентября 2027 года.
Чтобы поговорить с оператором, оставайтесь на линии.
... бесконечная музыка.
Россия, как последний оплот человечества против бесконтрольного ИИ.
#ИИ #регулирование #право #Минцифры
───
@tsingular
1👍47❤17🔥8💯8🤔4⚡1✍1
Перевод: надежность ИИ-агентских систем,- от промптов к управлению
Переход к автономным агентам требует повышения требований к качеству ответов на всей траектории принятия решений.
Наткнулся на интересный гайд и решил перевести для вас.
В нем разобрано:
• Версионирование: почему промпты и логика агента должны жить в реестре (MLflow Registry), а не в коде.
• Матрица оценки: как измерять надежность без «золотого стандарта» (Reference-Free) и когда важен контроль каждого шага.
• Мониторинг рассуждений: как HITL (человек в контуре) и анализ трасс помогают избежать галлюцинаций в продакшене.
• Проблема дрейфа: что делать, когда база знаний RAG меняется быстрее, чем мы успеваем её тестировать.
Агенты — это не только про интеллект и инструменты, но и про прослеживаемость.
📖 Читать полностью:
— На tsingular.ru
— На Nukonechno.ru
#агенты #MLflow #обучение
───
@tsingular
Переход к автономным агентам требует повышения требований к качеству ответов на всей траектории принятия решений.
Наткнулся на интересный гайд и решил перевести для вас.
В нем разобрано:
• Версионирование: почему промпты и логика агента должны жить в реестре (MLflow Registry), а не в коде.
• Матрица оценки: как измерять надежность без «золотого стандарта» (Reference-Free) и когда важен контроль каждого шага.
• Мониторинг рассуждений: как HITL (человек в контуре) и анализ трасс помогают избежать галлюцинаций в продакшене.
• Проблема дрейфа: что делать, когда база знаний RAG меняется быстрее, чем мы успеваем её тестировать.
Агенты — это не только про интеллект и инструменты, но и про прослеживаемость.
📖 Читать полностью:
— На tsingular.ru
— На Nukonechno.ru
#агенты #MLflow #обучение
───
@tsingular
👍10✍4❤1⚡1
Forwarded from Анализ данных (Data analysis)
This media is not supported in your browser
VIEW IN TELEGRAM
Обычные чат-боты просто генерируют текст и не запоминают ваши предпочтения.
DeerFlow решает эту проблему: ИИ получает изолированную виртуальную среду компьютера, где может безопасно запускать программы.
Когда ему дают большую задачу, основной агент создаёт несколько маленьких AI-ассистентов, которые работают одновременно.
Также система сохраняет ваши прошлые рабочие процессы, поэтому со временем лучше понимает ваши задачи.
DeerFlow не привязан к конкретной модели — он работает с любым LLM, который поддерживает OpenAI-совместимый API.
Есть полная поддержка локальных моделей, которые можно запускать прямо на своём компьютере с помощью инструментов вроде Ollama.
Пример: вы просите провести исследование 10 лучших AI-стартапов 2026 года для презентации.
Главный агент DeerFlow разбивает задачу на подзадачи:
- один суб-агент исследует каждую компанию
- другой собирает данные о финансировании
- третий анализирует конкурентов
Все агенты работают параллельно.
В конце результаты объединяются, и финальный агент собирает готовую презентацию со слайдами и визуализацией.
github.com/bytedance/deer-flow
🎯Полезные Мл-ресурсы 🚀 Max
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥31🤝4⚡3❤2🏆1
что-то как-то быстро мы проскочили пусть от веб чата и агента к мультиагентам.
Краб, по сути, мультиагент под капотом.
Paperclip - целая мини-компания
PraisonAI, CrewAI, AgencySwarm, BeeAI, Swarm,
теперь вот DeerFlow
Добавил его тоже в рейтинг.
Полный список агентских инструментов в коллекции уже 68
Для мультиагентов уже можно категорию отдельную заводить
мы переходим к упрощенному заходу на 5й уровень развития ИИ систем в компании.
Каждый человек будет в итоге управлять миллионами агентов, которые будут собираться в команды.
#multiagents #рой
———
@tsingular
Краб, по сути, мультиагент под капотом.
Paperclip - целая мини-компания
PraisonAI, CrewAI, AgencySwarm, BeeAI, Swarm,
теперь вот DeerFlow
Добавил его тоже в рейтинг.
Полный список агентских инструментов в коллекции уже 68
Для мультиагентов уже можно категорию отдельную заводить
мы переходим к упрощенному заходу на 5й уровень развития ИИ систем в компании.
Каждый человек будет в итоге управлять миллионами агентов, которые будут собираться в команды.
#multiagents #рой
———
@tsingular
🔥13👀7❤3⚡2👍2💯1
Да, что началось то...
LangChain Deep Agents: Опенсорсный ответ Claude Code и новый стандарт «боевых» агентов
LangChain выкатил Deep Agents — готовый системный обвес для агентов на базе LangGraph.
По сути, это архитектурный клон Claude Code, но лишенный его главного недостатка: привязки к одной модели.
Теперь автономного агента на базе langchain с планированием и сабагентами можно запускать на любом движке — от GPT-4o до локального Qwen.
🚀 Что внутри:
🛡 Планирование (Planning):
Инструмент
📂 Файловая система (Filesystem):
Набор
🤖 Сабагенты (Sub-agents):
Команда
🔌 MCP & Sandboxing:
Встроенная поддержка Model Context Protocol и запуск команд в изолированных песочницах. Безопасность через ограничение инструментов, а не через «честное слово» нейросети.
🔮 Итог: Эпоха чат ботов окончательно уходит в прошлое. Наступает эра автономных роев, которые умеют планировать, ошибаться, откатываться к чекпоинтам и звать на помощь человека, только когдауже поздно нужна помощь.
#агенты #LangGraph #DeepAgents #OpenSource #langchain
------
@tsingular
LangChain Deep Agents: Опенсорсный ответ Claude Code и новый стандарт «боевых» агентов
LangChain выкатил Deep Agents — готовый системный обвес для агентов на базе LangGraph.
По сути, это архитектурный клон Claude Code, но лишенный его главного недостатка: привязки к одной модели.
Теперь автономного агента на базе langchain с планированием и сабагентами можно запускать на любом движке — от GPT-4o до локального Qwen.
🚀 Что внутри:
🛡 Планирование (Planning):
Инструмент
write_todos для декомпозиции задач. Агент сам бьет задачу на шаги и отслеживает прогресс. 📂 Файловая система (Filesystem):
Набор
read/write/edit/grep/ls. Агент не просто «видит» код, он с ним работает, правит и ищет зависимости в контексте всего проекта.🤖 Сабагенты (Sub-agents):
Команда
task для делегирования работы в изолированные контекстные окна. Большой агент спавнит малых для рутины, не раздувая свой основной контекст (прямой аналог sessions_spawn у openclaw).🔌 MCP & Sandboxing:
Встроенная поддержка Model Context Protocol и запуск команд в изолированных песочницах. Безопасность через ограничение инструментов, а не через «честное слово» нейросети.
🔮 Итог: Эпоха чат ботов окончательно уходит в прошлое. Наступает эра автономных роев, которые умеют планировать, ошибаться, откатываться к чекпоинтам и звать на помощь человека, только когда
#агенты #LangGraph #DeepAgents #OpenSource #langchain
------
@tsingular
1🤣14🔥10✍3⚡1❤1😁1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Runway Characters - действительно реалтаймовые говорящие головы.
В отличие от Хейгенов и Хедр - тут действительно реалтайм - с ними можно перебеседовать в реальном времени (смотрите примеры).
И это первый пример такого качества в РЕАЛТАЙМЕ.
И это прямо прицельный выстрел в огромный запрос по рынку: дайте нашим чат-ботам картинку, мы хотим чтобы с клиентом говорил кто-то видимый.
Понятно почему только по API - все происходит у них на серверах и ценник я думаю как чугунный конь.
Но качество для реалтайма - огонь.
@cgevent
В отличие от Хейгенов и Хедр - тут действительно реалтайм - с ними можно перебеседовать в реальном времени (смотрите примеры).
И это первый пример такого качества в РЕАЛТАЙМЕ.
И это прямо прицельный выстрел в огромный запрос по рынку: дайте нашим чат-ботам картинку, мы хотим чтобы с клиентом говорил кто-то видимый.
Понятно почему только по API - все происходит у них на серверах и ценник я думаю как чугунный конь.
Но качество для реалтайма - огонь.
@cgevent
1🔥12🤯6⚡2❤1🤝1
Forwarded from Data Secrets
Meta* купила Moltbook – ту самую вирусную соцсеть для AI агентов
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло🔵
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯9🤔6⚡3👀2
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini Embedding 2: Конец эпохи текстовых костылей
Google DeepMind только что выдал базу для новой архитектуры корпоративных знаний. Gemini Embedding 2 — это первая полностью мультимодальная модель эмбеддингов, которая официально хоронит разделение на текст, звук и картинку.
🛡 Единое пространство смыслов: Раньше для поиска по видео нужно было делать транскрибацию текста и OCR кадров. Теперь видео (до 120с), аудио, изображения и PDF живут в одном векторе на 3072 измерения.
Модель понимает контекст напрямую.
📐 Эластичность через MRL: Использование Matryoshka Representation Learning позволяет сжимать вектор до 768 без существенной потери точности.
🌍 Масштаб и нативка: Поддержка 100+ языков и 8192 токенов контекста. Главное — аудио теперь «всасывается» нативно, минуя этап перевода в текст, что снижает задержки в RAG-системах.
💼 Зачем бизнесу: Это инструмент для создания «живой» памяти компании. В неё можно закинуть записи встреч в Zoom, чертежи и сканы документов, не строя сложные ETL-пайплайны по извлечению признаков.
Поиск «кто и когда говорил про бюджет на 2026» теперь работает по оригиналу аудиозаписи.
🔮 Будущее: Мы уходим от текстоцентричных агентов к системам с общей памятью. Следующий шаг — нативное видео-понимание в реальном времени, превращающее любую камеру в умный поисковый индекс.
Доступно в Public Preview через Gemini API и Vertex AI
Хочется opensource, конечно, но все-равно круть.
#Gemini #DeepMind #Embeddings #Multimodal #RAG
———
@tsingular
Google DeepMind только что выдал базу для новой архитектуры корпоративных знаний. Gemini Embedding 2 — это первая полностью мультимодальная модель эмбеддингов, которая официально хоронит разделение на текст, звук и картинку.
🛡 Единое пространство смыслов: Раньше для поиска по видео нужно было делать транскрибацию текста и OCR кадров. Теперь видео (до 120с), аудио, изображения и PDF живут в одном векторе на 3072 измерения.
Модель понимает контекст напрямую.
📐 Эластичность через MRL: Использование Matryoshka Representation Learning позволяет сжимать вектор до 768 без существенной потери точности.
🌍 Масштаб и нативка: Поддержка 100+ языков и 8192 токенов контекста. Главное — аудио теперь «всасывается» нативно, минуя этап перевода в текст, что снижает задержки в RAG-системах.
💼 Зачем бизнесу: Это инструмент для создания «живой» памяти компании. В неё можно закинуть записи встреч в Zoom, чертежи и сканы документов, не строя сложные ETL-пайплайны по извлечению признаков.
Поиск «кто и когда говорил про бюджет на 2026» теперь работает по оригиналу аудиозаписи.
🔮 Будущее: Мы уходим от текстоцентричных агентов к системам с общей памятью. Следующий шаг — нативное видео-понимание в реальном времени, превращающее любую камеру в умный поисковый индекс.
Доступно в Public Preview через Gemini API и Vertex AI
Хочется opensource, конечно, но все-равно круть.
#Gemini #DeepMind #Embeddings #Multimodal #RAG
———
@tsingular
1❤15🔥10🤯7⚡5
Forwarded from Futuris (Anton)
Мир агентов продолжает взрывать мозг: Китайский студент за 10 дней на коленке собрал ИИ-движок, порвал GitHub и поднял $4 млн. Знакомьтесь — MiroFish.
Репозиторий сейчас стабильно висит в мировых топах (13k+ звезд)⭐️
Что это за зверь: по сути, цифровой полигон для симуляции общества. Мультиагентная песочница, где живут тысячи ИИ-ботов со своей памятью и паттернами поведения. Скармливаешь им любой инфоповод — от слива базы данных до нового законопроекта, — и смотришь, как эта цифровая толпа начинает вариться, спорить и принимать решения. На выходе получаешь прогноз развития событий в реальном мире.
Кто автор: в конце 2025 года четверокурсник Го Ханцзян (ник 666ghj) просто сел и с помощью ИИ-ассистентов за 10 дней накодил ядро системы. Проект так быстро завирусился, что к парню пришел инвестфонд Shanda Group и с ходу отвалил 30 млн юаней (около $4.1 млн) посевных. Студент собрал шмотки, уехал из общаги и теперь рулит стартапом😎
Как это уже применяют:
Трейдинг. Закидываешь финансовые новости или отчеты и смотришь, как запаникует толпа и куда дернутся котировки.
Краш-тест пиара. Корпорации и политики прогоняют черновики своих публичных заявлений, чтобы заранее понять, за что конкретно их смешают с дерьмом, и вовремя подстелить соломку.
Эксперименты. В систему залили классический китайский роман, у которого исторически утеряна концовка. Боты отыграли роли персонажей и сами логично сгенерировали финал.
Развернуть у себя можно за пару минут через Docker, нужен только API-ключ от любой вменяемой LLM.
Ссылка на репо: https://github.com/666ghj/MiroFish
Репозиторий сейчас стабильно висит в мировых топах (13k+ звезд)
Что это за зверь: по сути, цифровой полигон для симуляции общества. Мультиагентная песочница, где живут тысячи ИИ-ботов со своей памятью и паттернами поведения. Скармливаешь им любой инфоповод — от слива базы данных до нового законопроекта, — и смотришь, как эта цифровая толпа начинает вариться, спорить и принимать решения. На выходе получаешь прогноз развития событий в реальном мире.
Кто автор: в конце 2025 года четверокурсник Го Ханцзян (ник 666ghj) просто сел и с помощью ИИ-ассистентов за 10 дней накодил ядро системы. Проект так быстро завирусился, что к парню пришел инвестфонд Shanda Group и с ходу отвалил 30 млн юаней (около $4.1 млн) посевных. Студент собрал шмотки, уехал из общаги и теперь рулит стартапом
Как это уже применяют:
Трейдинг. Закидываешь финансовые новости или отчеты и смотришь, как запаникует толпа и куда дернутся котировки.
Краш-тест пиара. Корпорации и политики прогоняют черновики своих публичных заявлений, чтобы заранее понять, за что конкретно их смешают с дерьмом, и вовремя подстелить соломку.
Эксперименты. В систему залили классический китайский роман, у которого исторически утеряна концовка. Боты отыграли роли персонажей и сами логично сгенерировали финал.
Развернуть у себя можно за пару минут через Docker, нужен только API-ключ от любой вменяемой LLM.
Ссылка на репо: https://github.com/666ghj/MiroFish
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥39 20❤2✍1🙏1
не так быстро
сначала нужно отвязаться от платных сервисов и переписать все на локальные модели и граф.
#mirofish
———
@tsingular
сначала нужно отвязаться от платных сервисов и переписать все на локальные модели и граф.
#mirofish
———
@tsingular
🔥6😭2
Forwarded from Diving Deep 🤿 • Василий Рассказов
🔬 20 000 незнакомцев которые уже сейчас определяют как мы будем учиться, жить и работать...
Я тут готовлю выступление и решил разобраться: Сколько реально "живых людей" прямо сейчас пишут код и делаю ИИ для 8 миллиардов, с которыми мы общаемся каждый день?
---
🏢 Большая AI семёрка
🔹 Google DeepMind — ~7 000 чел., $75B/год на инфраструктуру
🔹 OpenAI — ~4 000 чел., привлекли $170B+, оценка $840B
🔹 Meta AI — ~3 000 чел., $72B capex в 2025 (мы почти не видим их AI, а он есть... внутри их сервисов которых не мало...)
🔹 Anthropic — ~3 000 чел., привлекли $60B, оценка $380B
🔹 xAI (Маск) — ~2 000 чел., привлекли $42B, оценка $250B
🔹 Mistral AI — ~800 чел., $3B, Париж 🇫🇷
🔹 DeepSeek — ~200 чел., $700M, Ханчжоу 🇨🇳
Итого: ~20 000 человек. Это меньше, чемстудентов в МГУ .
---
💰 Деньги
Суммарно в эту семёрку вложено больше $400 миллиардов. Один Meta планирует потратить $600B на AI-инфру до 2028 — больше ВВП Финляндии.
OpenAI при $170B+ привлечённых — всё ещё убыточна. $9B cash burn в год. ChatGPT буквально сжигает деньги быстрее, чем зарабатывает.
---
🤯 А теперь контраст
DeepSeek. 200 человек из Ханчжоу. Финансируются из собственного хедж-фонда. Потратили на обучение модели V3 — $5.5 миллионов.
Для масштаба: GPT-4 обошёлся в $80–100M. В 15-18 раз дороже.
200 человек. 5.5 миллионов долларов. И результат, сравнимый с моделями за миллиарды. Когда R1 вышел в январе 2025 — Nasdaq упал на 3%, а Nvidia на 17%. За один день. (интересно смогут повторить с новой версией?)
---
💡 Что это значит
~20 000 людей и $400B+ — это и есть вся frontier AI индустрия. Для понимания масштаба: в Яндексе работает больше. В Сбере — в 15 раз больше.
- Каждый из этих инженеров непропорционально влияет на будущее
- Деньги ≠ результат (привет, DeepSeek vs все остальные)
- Это не "тысячи компаний" — это буквально 7 команд
-—
#AI #Research #мысли_вслух #Google #OpenAI
@rasskazov_io_channel
Я тут готовлю выступление и решил разобраться: Сколько реально "живых людей" прямо сейчас пишут код и делаю ИИ для 8 миллиардов, с которыми мы общаемся каждый день?
---
🏢 Большая AI семёрка
🔹 Google DeepMind — ~7 000 чел., $75B/год на инфраструктуру
🔹 OpenAI — ~4 000 чел., привлекли $170B+, оценка $840B
🔹 Meta AI — ~3 000 чел., $72B capex в 2025 (мы почти не видим их AI, а он есть... внутри их сервисов которых не мало...)
🔹 Anthropic — ~3 000 чел., привлекли $60B, оценка $380B
🔹 xAI (Маск) — ~2 000 чел., привлекли $42B, оценка $250B
🔹 Mistral AI — ~800 чел., $3B, Париж 🇫🇷
🔹 DeepSeek — ~200 чел., $700M, Ханчжоу 🇨🇳
Итого: ~20 000 человек. Это меньше, чем
---
💰 Деньги
Суммарно в эту семёрку вложено больше $400 миллиардов. Один Meta планирует потратить $600B на AI-инфру до 2028 — больше ВВП Финляндии.
OpenAI при $170B+ привлечённых — всё ещё убыточна. $9B cash burn в год. ChatGPT буквально сжигает деньги быстрее, чем зарабатывает.
---
🤯 А теперь контраст
DeepSeek. 200 человек из Ханчжоу. Финансируются из собственного хедж-фонда. Потратили на обучение модели V3 — $5.5 миллионов.
Для масштаба: GPT-4 обошёлся в $80–100M. В 15-18 раз дороже.
200 человек. 5.5 миллионов долларов. И результат, сравнимый с моделями за миллиарды. Когда R1 вышел в январе 2025 — Nasdaq упал на 3%, а Nvidia на 17%. За один день. (интересно смогут повторить с новой версией?)
---
💡 Что это значит
~20 000 людей и $400B+ — это и есть вся frontier AI индустрия. Для понимания масштаба: в Яндексе работает больше. В Сбере — в 15 раз больше.
- Каждый из этих инженеров непропорционально влияет на будущее
- Деньги ≠ результат (привет, DeepSeek vs все остальные)
- Это не "тысячи компаний" — это буквально 7 команд
И эти команды определяют, как мы будем жить через 5–10 лет.
-—
#AI #Research #мысли_вслух #Google #OpenAI
@rasskazov_io_channel
3💯24🔥14👍8❤6
Media is too big
VIEW IN TELEGRAM
Copilot Cowork: Microsoft 365 интегрировал офисную автоматизацию от Антропика
Теперь Copilot умеет не просто отвечать на вопросы, а выполнять задачи за человека в фоновом режиме.
⚙️ Технология Cowork: Сервис превращает запрос в пошаговый план. Система сама собирает данные из Outlook, Teams и Excel через Work IQ.
ИИ действует автономно: разгребает календарь, готовит пакеты документов к встречам или делает глубокий ресерч компаний, пока вы заняты смысловой работой.
🤝 Альянс с Anthropic: В основе Cowork лежат технологии Claude. Microsoft использует мультимодельный подход — Copilot сам выбирает лучшую модель (Claude или GPT) под конкретный тип задачи. Это обеспечивает «агентскую» выносливость: задачи продолжают выполняться, даже если вы закрыли ноутбук или перешли на другое устройство.
🛡 Безопасность и контроль: Автономия подразумевает участие пользователя. Система обязана запрашивать подтверждение на критические действия, а все процессы проходят в защищенной песочнице внутри контура организации. Каждое действие ИИ логируется и доступно для аудита.
💼 Зачем бизнесу: Это переход от RPA-кликеров к интеллектуальному делегированию. Вместо ручного планирования встреч или верстки отчетов по почте, сотрудник управляет «цифровым коллегой», который выдает сразу готовый результат.
Сотрудники превращаются в наблюдателей.
#Microsoft #AI #Copilot #агенты #Cowork
———
@tsingular
Теперь Copilot умеет не просто отвечать на вопросы, а выполнять задачи за человека в фоновом режиме.
⚙️ Технология Cowork: Сервис превращает запрос в пошаговый план. Система сама собирает данные из Outlook, Teams и Excel через Work IQ.
ИИ действует автономно: разгребает календарь, готовит пакеты документов к встречам или делает глубокий ресерч компаний, пока вы заняты смысловой работой.
🤝 Альянс с Anthropic: В основе Cowork лежат технологии Claude. Microsoft использует мультимодельный подход — Copilot сам выбирает лучшую модель (Claude или GPT) под конкретный тип задачи. Это обеспечивает «агентскую» выносливость: задачи продолжают выполняться, даже если вы закрыли ноутбук или перешли на другое устройство.
🛡 Безопасность и контроль: Автономия подразумевает участие пользователя. Система обязана запрашивать подтверждение на критические действия, а все процессы проходят в защищенной песочнице внутри контура организации. Каждое действие ИИ логируется и доступно для аудита.
💼 Зачем бизнесу: Это переход от RPA-кликеров к интеллектуальному делегированию. Вместо ручного планирования встреч или верстки отчетов по почте, сотрудник управляет «цифровым коллегой», который выдает сразу готовый результат.
Сотрудники превращаются в наблюдателей.
#Microsoft #AI #Copilot #агенты #Cowork
———
@tsingular
🔥10🆒2⚡1
Nvidia готовит NemoClaw: ответ OpenClaw для энтерпрайза
Nvidia официально вступает в гонку автономных агентов. Компания тестирует NemoClaw — опенсорсное решение, нацеленное на корпоративный сегмент и прямо конкурирующее с OpenClaw.
🛡 Ставка на безопасность: В отличие от «дикого» OpenClaw, где на ClawHub иногда залетают вредоносные скиллы, Nvidia разрабатывает NemoClaw с приоритетом на корпоративную интеграцию и безопасность.
Доступ уже предложен Adobe, Cisco, Google и Salesforce. План — дать бизнесу инструмент, который не «сломает» систему, нечаянно удалив письма или положив базу на проде.
⚙️ Без ограничений: Важный момент,- Nvidia не ограничивает агента только своими чипами и экосистемой так что есть шанс увидеть его в свободном плавании.
💼 Зачем бизнесу:
Это попытка Nvidia стать не просто поставщиком «лопат» (GPU), а владельцем «операционной системы» для ИИ-агентов.
Больше крабов богу крабов.
На гите пока нет, но есть вот это:
https://github.com/NVIDIA/NeMo-Agent-Toolkit
#Nvidia #NemoClaw #OpenClaw #агенты
------
@tsingular
Nvidia официально вступает в гонку автономных агентов. Компания тестирует NemoClaw — опенсорсное решение, нацеленное на корпоративный сегмент и прямо конкурирующее с OpenClaw.
🛡 Ставка на безопасность: В отличие от «дикого» OpenClaw, где на ClawHub иногда залетают вредоносные скиллы, Nvidia разрабатывает NemoClaw с приоритетом на корпоративную интеграцию и безопасность.
Доступ уже предложен Adobe, Cisco, Google и Salesforce. План — дать бизнесу инструмент, который не «сломает» систему, нечаянно удалив письма или положив базу на проде.
⚙️ Без ограничений: Важный момент,- Nvidia не ограничивает агента только своими чипами и экосистемой так что есть шанс увидеть его в свободном плавании.
💼 Зачем бизнесу:
Это попытка Nvidia стать не просто поставщиком «лопат» (GPU), а владельцем «операционной системы» для ИИ-агентов.
Больше крабов богу крабов.
На гите пока нет, но есть вот это:
https://github.com/NVIDIA/NeMo-Agent-Toolkit
#Nvidia #NemoClaw #OpenClaw #агенты
------
@tsingular
✍6⚡2❤1🤩1🆒1
Forwarded from Малоизвестное интересное
Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
*— признан Минюстом РФ иноагентом и экстремистской организацией
#ИИгонка
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.
*— признан Минюстом РФ иноагентом и экстремистской организацией
#ИИгонка
1⚡10🤯5❤2🐳2✍1🆒1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Промпт дня:
Да, настолько просто
#промпты #обучение
------
@tsingular
сделай на питоне анимацию как работает токенизация и сделай из этого видео и пришли сюда
Да, настолько просто
#промпты #обучение
------
@tsingular
🔥20⚡5✍2