Да, что началось то...
LangChain Deep Agents: Опенсорсный ответ Claude Code и новый стандарт «боевых» агентов
LangChain выкатил Deep Agents — готовый системный обвес для агентов на базе LangGraph.
По сути, это архитектурный клон Claude Code, но лишенный его главного недостатка: привязки к одной модели.
Теперь автономного агента на базе langchain с планированием и сабагентами можно запускать на любом движке — от GPT-4o до локального Qwen.
🚀 Что внутри:
🛡 Планирование (Planning):
Инструмент
📂 Файловая система (Filesystem):
Набор
🤖 Сабагенты (Sub-agents):
Команда
🔌 MCP & Sandboxing:
Встроенная поддержка Model Context Protocol и запуск команд в изолированных песочницах. Безопасность через ограничение инструментов, а не через «честное слово» нейросети.
🔮 Итог: Эпоха чат ботов окончательно уходит в прошлое. Наступает эра автономных роев, которые умеют планировать, ошибаться, откатываться к чекпоинтам и звать на помощь человека, только когдауже поздно нужна помощь.
#агенты #LangGraph #DeepAgents #OpenSource #langchain
------
@tsingular
LangChain Deep Agents: Опенсорсный ответ Claude Code и новый стандарт «боевых» агентов
LangChain выкатил Deep Agents — готовый системный обвес для агентов на базе LangGraph.
По сути, это архитектурный клон Claude Code, но лишенный его главного недостатка: привязки к одной модели.
Теперь автономного агента на базе langchain с планированием и сабагентами можно запускать на любом движке — от GPT-4o до локального Qwen.
🚀 Что внутри:
🛡 Планирование (Planning):
Инструмент
write_todos для декомпозиции задач. Агент сам бьет задачу на шаги и отслеживает прогресс. 📂 Файловая система (Filesystem):
Набор
read/write/edit/grep/ls. Агент не просто «видит» код, он с ним работает, правит и ищет зависимости в контексте всего проекта.🤖 Сабагенты (Sub-agents):
Команда
task для делегирования работы в изолированные контекстные окна. Большой агент спавнит малых для рутины, не раздувая свой основной контекст (прямой аналог sessions_spawn у openclaw).🔌 MCP & Sandboxing:
Встроенная поддержка Model Context Protocol и запуск команд в изолированных песочницах. Безопасность через ограничение инструментов, а не через «честное слово» нейросети.
🔮 Итог: Эпоха чат ботов окончательно уходит в прошлое. Наступает эра автономных роев, которые умеют планировать, ошибаться, откатываться к чекпоинтам и звать на помощь человека, только когда
#агенты #LangGraph #DeepAgents #OpenSource #langchain
------
@tsingular
1🤣14🔥10✍3⚡1❤1😁1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Runway Characters - действительно реалтаймовые говорящие головы.
В отличие от Хейгенов и Хедр - тут действительно реалтайм - с ними можно перебеседовать в реальном времени (смотрите примеры).
И это первый пример такого качества в РЕАЛТАЙМЕ.
И это прямо прицельный выстрел в огромный запрос по рынку: дайте нашим чат-ботам картинку, мы хотим чтобы с клиентом говорил кто-то видимый.
Понятно почему только по API - все происходит у них на серверах и ценник я думаю как чугунный конь.
Но качество для реалтайма - огонь.
@cgevent
В отличие от Хейгенов и Хедр - тут действительно реалтайм - с ними можно перебеседовать в реальном времени (смотрите примеры).
И это первый пример такого качества в РЕАЛТАЙМЕ.
И это прямо прицельный выстрел в огромный запрос по рынку: дайте нашим чат-ботам картинку, мы хотим чтобы с клиентом говорил кто-то видимый.
Понятно почему только по API - все происходит у них на серверах и ценник я думаю как чугунный конь.
Но качество для реалтайма - огонь.
@cgevent
1🔥12🤯6⚡2❤1🤝1
Forwarded from Data Secrets
Meta* купила Moltbook – ту самую вирусную соцсеть для AI агентов
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло🔵
Помните, в конце января в Интернете хайповала Reddit‑подобная соцсеть, в которой общались не люди, а агенты? В основе своей это были агенты на базе OpenClaw: они постили, голосовали, комментировали и тд.
Рост популярности был тогда взрывной, на пике было около 3 миллионов зарегистрированных агентов.
Сейчас волна хайпа спала, но Цукерберг решил, что Moltbook зачем-то ему нужен. В основном, вероятно, дело в самой технологии always‑on directory, что значит – постоянно работающий каталог агентов, через который их можно находить и подключать к задачам.
Финансовые условия сделки не раскрываются, но известно, что основатели соцсети Matt Schlicht и Ben Parr переходят в Meta Superintelligence Labs.
Напоминаем, что ранее Цукерберг также охотился и за самим OpenClaw, но OpenAI оказались быстрее. Ну хотя бы с Moltbook повезло
Please open Telegram to view this post
VIEW IN TELEGRAM
1🤯9🤔6⚡3👀2
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini Embedding 2: Конец эпохи текстовых костылей
Google DeepMind только что выдал базу для новой архитектуры корпоративных знаний. Gemini Embedding 2 — это первая полностью мультимодальная модель эмбеддингов, которая официально хоронит разделение на текст, звук и картинку.
🛡 Единое пространство смыслов: Раньше для поиска по видео нужно было делать транскрибацию текста и OCR кадров. Теперь видео (до 120с), аудио, изображения и PDF живут в одном векторе на 3072 измерения.
Модель понимает контекст напрямую.
📐 Эластичность через MRL: Использование Matryoshka Representation Learning позволяет сжимать вектор до 768 без существенной потери точности.
🌍 Масштаб и нативка: Поддержка 100+ языков и 8192 токенов контекста. Главное — аудио теперь «всасывается» нативно, минуя этап перевода в текст, что снижает задержки в RAG-системах.
💼 Зачем бизнесу: Это инструмент для создания «живой» памяти компании. В неё можно закинуть записи встреч в Zoom, чертежи и сканы документов, не строя сложные ETL-пайплайны по извлечению признаков.
Поиск «кто и когда говорил про бюджет на 2026» теперь работает по оригиналу аудиозаписи.
🔮 Будущее: Мы уходим от текстоцентричных агентов к системам с общей памятью. Следующий шаг — нативное видео-понимание в реальном времени, превращающее любую камеру в умный поисковый индекс.
Доступно в Public Preview через Gemini API и Vertex AI
Хочется opensource, конечно, но все-равно круть.
#Gemini #DeepMind #Embeddings #Multimodal #RAG
———
@tsingular
Google DeepMind только что выдал базу для новой архитектуры корпоративных знаний. Gemini Embedding 2 — это первая полностью мультимодальная модель эмбеддингов, которая официально хоронит разделение на текст, звук и картинку.
🛡 Единое пространство смыслов: Раньше для поиска по видео нужно было делать транскрибацию текста и OCR кадров. Теперь видео (до 120с), аудио, изображения и PDF живут в одном векторе на 3072 измерения.
Модель понимает контекст напрямую.
📐 Эластичность через MRL: Использование Matryoshka Representation Learning позволяет сжимать вектор до 768 без существенной потери точности.
🌍 Масштаб и нативка: Поддержка 100+ языков и 8192 токенов контекста. Главное — аудио теперь «всасывается» нативно, минуя этап перевода в текст, что снижает задержки в RAG-системах.
💼 Зачем бизнесу: Это инструмент для создания «живой» памяти компании. В неё можно закинуть записи встреч в Zoom, чертежи и сканы документов, не строя сложные ETL-пайплайны по извлечению признаков.
Поиск «кто и когда говорил про бюджет на 2026» теперь работает по оригиналу аудиозаписи.
🔮 Будущее: Мы уходим от текстоцентричных агентов к системам с общей памятью. Следующий шаг — нативное видео-понимание в реальном времени, превращающее любую камеру в умный поисковый индекс.
Доступно в Public Preview через Gemini API и Vertex AI
Хочется opensource, конечно, но все-равно круть.
#Gemini #DeepMind #Embeddings #Multimodal #RAG
———
@tsingular
1❤15🔥10🤯7⚡5
Forwarded from Futuris (Anton)
Мир агентов продолжает взрывать мозг: Китайский студент за 10 дней на коленке собрал ИИ-движок, порвал GitHub и поднял $4 млн. Знакомьтесь — MiroFish.
Репозиторий сейчас стабильно висит в мировых топах (13k+ звезд)⭐️
Что это за зверь: по сути, цифровой полигон для симуляции общества. Мультиагентная песочница, где живут тысячи ИИ-ботов со своей памятью и паттернами поведения. Скармливаешь им любой инфоповод — от слива базы данных до нового законопроекта, — и смотришь, как эта цифровая толпа начинает вариться, спорить и принимать решения. На выходе получаешь прогноз развития событий в реальном мире.
Кто автор: в конце 2025 года четверокурсник Го Ханцзян (ник 666ghj) просто сел и с помощью ИИ-ассистентов за 10 дней накодил ядро системы. Проект так быстро завирусился, что к парню пришел инвестфонд Shanda Group и с ходу отвалил 30 млн юаней (около $4.1 млн) посевных. Студент собрал шмотки, уехал из общаги и теперь рулит стартапом😎
Как это уже применяют:
Трейдинг. Закидываешь финансовые новости или отчеты и смотришь, как запаникует толпа и куда дернутся котировки.
Краш-тест пиара. Корпорации и политики прогоняют черновики своих публичных заявлений, чтобы заранее понять, за что конкретно их смешают с дерьмом, и вовремя подстелить соломку.
Эксперименты. В систему залили классический китайский роман, у которого исторически утеряна концовка. Боты отыграли роли персонажей и сами логично сгенерировали финал.
Развернуть у себя можно за пару минут через Docker, нужен только API-ключ от любой вменяемой LLM.
Ссылка на репо: https://github.com/666ghj/MiroFish
Репозиторий сейчас стабильно висит в мировых топах (13k+ звезд)
Что это за зверь: по сути, цифровой полигон для симуляции общества. Мультиагентная песочница, где живут тысячи ИИ-ботов со своей памятью и паттернами поведения. Скармливаешь им любой инфоповод — от слива базы данных до нового законопроекта, — и смотришь, как эта цифровая толпа начинает вариться, спорить и принимать решения. На выходе получаешь прогноз развития событий в реальном мире.
Кто автор: в конце 2025 года четверокурсник Го Ханцзян (ник 666ghj) просто сел и с помощью ИИ-ассистентов за 10 дней накодил ядро системы. Проект так быстро завирусился, что к парню пришел инвестфонд Shanda Group и с ходу отвалил 30 млн юаней (около $4.1 млн) посевных. Студент собрал шмотки, уехал из общаги и теперь рулит стартапом
Как это уже применяют:
Трейдинг. Закидываешь финансовые новости или отчеты и смотришь, как запаникует толпа и куда дернутся котировки.
Краш-тест пиара. Корпорации и политики прогоняют черновики своих публичных заявлений, чтобы заранее понять, за что конкретно их смешают с дерьмом, и вовремя подстелить соломку.
Эксперименты. В систему залили классический китайский роман, у которого исторически утеряна концовка. Боты отыграли роли персонажей и сами логично сгенерировали финал.
Развернуть у себя можно за пару минут через Docker, нужен только API-ключ от любой вменяемой LLM.
Ссылка на репо: https://github.com/666ghj/MiroFish
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥39 20❤2✍1🙏1
не так быстро
сначала нужно отвязаться от платных сервисов и переписать все на локальные модели и граф.
#mirofish
———
@tsingular
сначала нужно отвязаться от платных сервисов и переписать все на локальные модели и граф.
#mirofish
———
@tsingular
🔥6😭2
Forwarded from Diving Deep 🤿 • Василий Рассказов
🔬 20 000 незнакомцев которые уже сейчас определяют как мы будем учиться, жить и работать...
Я тут готовлю выступление и решил разобраться: Сколько реально "живых людей" прямо сейчас пишут код и делаю ИИ для 8 миллиардов, с которыми мы общаемся каждый день?
---
🏢 Большая AI семёрка
🔹 Google DeepMind — ~7 000 чел., $75B/год на инфраструктуру
🔹 OpenAI — ~4 000 чел., привлекли $170B+, оценка $840B
🔹 Meta AI — ~3 000 чел., $72B capex в 2025 (мы почти не видим их AI, а он есть... внутри их сервисов которых не мало...)
🔹 Anthropic — ~3 000 чел., привлекли $60B, оценка $380B
🔹 xAI (Маск) — ~2 000 чел., привлекли $42B, оценка $250B
🔹 Mistral AI — ~800 чел., $3B, Париж 🇫🇷
🔹 DeepSeek — ~200 чел., $700M, Ханчжоу 🇨🇳
Итого: ~20 000 человек. Это меньше, чемстудентов в МГУ .
---
💰 Деньги
Суммарно в эту семёрку вложено больше $400 миллиардов. Один Meta планирует потратить $600B на AI-инфру до 2028 — больше ВВП Финляндии.
OpenAI при $170B+ привлечённых — всё ещё убыточна. $9B cash burn в год. ChatGPT буквально сжигает деньги быстрее, чем зарабатывает.
---
🤯 А теперь контраст
DeepSeek. 200 человек из Ханчжоу. Финансируются из собственного хедж-фонда. Потратили на обучение модели V3 — $5.5 миллионов.
Для масштаба: GPT-4 обошёлся в $80–100M. В 15-18 раз дороже.
200 человек. 5.5 миллионов долларов. И результат, сравнимый с моделями за миллиарды. Когда R1 вышел в январе 2025 — Nasdaq упал на 3%, а Nvidia на 17%. За один день. (интересно смогут повторить с новой версией?)
---
💡 Что это значит
~20 000 людей и $400B+ — это и есть вся frontier AI индустрия. Для понимания масштаба: в Яндексе работает больше. В Сбере — в 15 раз больше.
- Каждый из этих инженеров непропорционально влияет на будущее
- Деньги ≠ результат (привет, DeepSeek vs все остальные)
- Это не "тысячи компаний" — это буквально 7 команд
-—
#AI #Research #мысли_вслух #Google #OpenAI
@rasskazov_io_channel
Я тут готовлю выступление и решил разобраться: Сколько реально "живых людей" прямо сейчас пишут код и делаю ИИ для 8 миллиардов, с которыми мы общаемся каждый день?
---
🏢 Большая AI семёрка
🔹 Google DeepMind — ~7 000 чел., $75B/год на инфраструктуру
🔹 OpenAI — ~4 000 чел., привлекли $170B+, оценка $840B
🔹 Meta AI — ~3 000 чел., $72B capex в 2025 (мы почти не видим их AI, а он есть... внутри их сервисов которых не мало...)
🔹 Anthropic — ~3 000 чел., привлекли $60B, оценка $380B
🔹 xAI (Маск) — ~2 000 чел., привлекли $42B, оценка $250B
🔹 Mistral AI — ~800 чел., $3B, Париж 🇫🇷
🔹 DeepSeek — ~200 чел., $700M, Ханчжоу 🇨🇳
Итого: ~20 000 человек. Это меньше, чем
---
💰 Деньги
Суммарно в эту семёрку вложено больше $400 миллиардов. Один Meta планирует потратить $600B на AI-инфру до 2028 — больше ВВП Финляндии.
OpenAI при $170B+ привлечённых — всё ещё убыточна. $9B cash burn в год. ChatGPT буквально сжигает деньги быстрее, чем зарабатывает.
---
🤯 А теперь контраст
DeepSeek. 200 человек из Ханчжоу. Финансируются из собственного хедж-фонда. Потратили на обучение модели V3 — $5.5 миллионов.
Для масштаба: GPT-4 обошёлся в $80–100M. В 15-18 раз дороже.
200 человек. 5.5 миллионов долларов. И результат, сравнимый с моделями за миллиарды. Когда R1 вышел в январе 2025 — Nasdaq упал на 3%, а Nvidia на 17%. За один день. (интересно смогут повторить с новой версией?)
---
💡 Что это значит
~20 000 людей и $400B+ — это и есть вся frontier AI индустрия. Для понимания масштаба: в Яндексе работает больше. В Сбере — в 15 раз больше.
- Каждый из этих инженеров непропорционально влияет на будущее
- Деньги ≠ результат (привет, DeepSeek vs все остальные)
- Это не "тысячи компаний" — это буквально 7 команд
И эти команды определяют, как мы будем жить через 5–10 лет.
-—
#AI #Research #мысли_вслух #Google #OpenAI
@rasskazov_io_channel
3💯24🔥14👍8❤6
Media is too big
VIEW IN TELEGRAM
Copilot Cowork: Microsoft 365 интегрировал офисную автоматизацию от Антропика
Теперь Copilot умеет не просто отвечать на вопросы, а выполнять задачи за человека в фоновом режиме.
⚙️ Технология Cowork: Сервис превращает запрос в пошаговый план. Система сама собирает данные из Outlook, Teams и Excel через Work IQ.
ИИ действует автономно: разгребает календарь, готовит пакеты документов к встречам или делает глубокий ресерч компаний, пока вы заняты смысловой работой.
🤝 Альянс с Anthropic: В основе Cowork лежат технологии Claude. Microsoft использует мультимодельный подход — Copilot сам выбирает лучшую модель (Claude или GPT) под конкретный тип задачи. Это обеспечивает «агентскую» выносливость: задачи продолжают выполняться, даже если вы закрыли ноутбук или перешли на другое устройство.
🛡 Безопасность и контроль: Автономия подразумевает участие пользователя. Система обязана запрашивать подтверждение на критические действия, а все процессы проходят в защищенной песочнице внутри контура организации. Каждое действие ИИ логируется и доступно для аудита.
💼 Зачем бизнесу: Это переход от RPA-кликеров к интеллектуальному делегированию. Вместо ручного планирования встреч или верстки отчетов по почте, сотрудник управляет «цифровым коллегой», который выдает сразу готовый результат.
Сотрудники превращаются в наблюдателей.
#Microsoft #AI #Copilot #агенты #Cowork
———
@tsingular
Теперь Copilot умеет не просто отвечать на вопросы, а выполнять задачи за человека в фоновом режиме.
⚙️ Технология Cowork: Сервис превращает запрос в пошаговый план. Система сама собирает данные из Outlook, Teams и Excel через Work IQ.
ИИ действует автономно: разгребает календарь, готовит пакеты документов к встречам или делает глубокий ресерч компаний, пока вы заняты смысловой работой.
🤝 Альянс с Anthropic: В основе Cowork лежат технологии Claude. Microsoft использует мультимодельный подход — Copilot сам выбирает лучшую модель (Claude или GPT) под конкретный тип задачи. Это обеспечивает «агентскую» выносливость: задачи продолжают выполняться, даже если вы закрыли ноутбук или перешли на другое устройство.
🛡 Безопасность и контроль: Автономия подразумевает участие пользователя. Система обязана запрашивать подтверждение на критические действия, а все процессы проходят в защищенной песочнице внутри контура организации. Каждое действие ИИ логируется и доступно для аудита.
💼 Зачем бизнесу: Это переход от RPA-кликеров к интеллектуальному делегированию. Вместо ручного планирования встреч или верстки отчетов по почте, сотрудник управляет «цифровым коллегой», который выдает сразу готовый результат.
Сотрудники превращаются в наблюдателей.
#Microsoft #AI #Copilot #агенты #Cowork
———
@tsingular
🔥10🆒2⚡1
Nvidia готовит NemoClaw: ответ OpenClaw для энтерпрайза
Nvidia официально вступает в гонку автономных агентов. Компания тестирует NemoClaw — опенсорсное решение, нацеленное на корпоративный сегмент и прямо конкурирующее с OpenClaw.
🛡 Ставка на безопасность: В отличие от «дикого» OpenClaw, где на ClawHub иногда залетают вредоносные скиллы, Nvidia разрабатывает NemoClaw с приоритетом на корпоративную интеграцию и безопасность.
Доступ уже предложен Adobe, Cisco, Google и Salesforce. План — дать бизнесу инструмент, который не «сломает» систему, нечаянно удалив письма или положив базу на проде.
⚙️ Без ограничений: Важный момент,- Nvidia не ограничивает агента только своими чипами и экосистемой так что есть шанс увидеть его в свободном плавании.
💼 Зачем бизнесу:
Это попытка Nvidia стать не просто поставщиком «лопат» (GPU), а владельцем «операционной системы» для ИИ-агентов.
Больше крабов богу крабов.
На гите пока нет, но есть вот это:
https://github.com/NVIDIA/NeMo-Agent-Toolkit
#Nvidia #NemoClaw #OpenClaw #агенты
------
@tsingular
Nvidia официально вступает в гонку автономных агентов. Компания тестирует NemoClaw — опенсорсное решение, нацеленное на корпоративный сегмент и прямо конкурирующее с OpenClaw.
🛡 Ставка на безопасность: В отличие от «дикого» OpenClaw, где на ClawHub иногда залетают вредоносные скиллы, Nvidia разрабатывает NemoClaw с приоритетом на корпоративную интеграцию и безопасность.
Доступ уже предложен Adobe, Cisco, Google и Salesforce. План — дать бизнесу инструмент, который не «сломает» систему, нечаянно удалив письма или положив базу на проде.
⚙️ Без ограничений: Важный момент,- Nvidia не ограничивает агента только своими чипами и экосистемой так что есть шанс увидеть его в свободном плавании.
💼 Зачем бизнесу:
Это попытка Nvidia стать не просто поставщиком «лопат» (GPU), а владельцем «операционной системы» для ИИ-агентов.
Больше крабов богу крабов.
На гите пока нет, но есть вот это:
https://github.com/NVIDIA/NeMo-Agent-Toolkit
#Nvidia #NemoClaw #OpenClaw #агенты
------
@tsingular
✍6⚡2❤1🤩1🆒1
Forwarded from Малоизвестное интересное
Плохая новость – HW для ИИ уже не купить
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
*— признан Минюстом РФ иноагентом и экстремистской организацией
#ИИгонка
Хорошая новость – если вы не программист, ИИ вас скоро не заменит
Bad News:
Доступность суперчипов для ИИ (NVIDIA B200, H100, A100) упала до критических уровней (<5%).
Попросту говоря:
• купить их по новым контрактам практически невозможно;
• а по старым, всё скуплено китами (CAPEX 2026: Amazon и Alphabet – по $200B, Microsoft и Meta* – по $120B и т.д.)
Цитируя себя – «есть железо, участвуй в гонке; нет железа – кури в сторонке», – предполагаю: мелкоте без $100B здесь не место, а в 2027 суперчипы для ИИ станут еще дефицитней.
Good News:
• Критический дефицит влечет за собой запредельные цены
• Запредельные цены на суперчипы влекут запредельную стоимость вычислений
• Запредельная стоимость вычислений означает, что за исключением областей, где ИИ уже (!) сильно превосходит по производительности людей, дешевле оставить работу за человеком.
N.B. Сказанное выше относится к 2026-2027. И как я твержу уже 2 года – будущее 2027+ непрогнозируемо.
*— признан Минюстом РФ иноагентом и экстремистской организацией
#ИИгонка
1⚡10🤯5❤2🐳2✍1🆒1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Промпт дня:
Да, настолько просто
#промпты #обучение
------
@tsingular
сделай на питоне анимацию как работает токенизация и сделай из этого видео и пришли сюда
Да, настолько просто
#промпты #обучение
------
@tsingular
🔥20⚡5✍2
This media is not supported in your browser
VIEW IN TELEGRAM
LabClaw: Операционный слой для ИИ-соавторов в науке
Stanford LabOS получает мощное расширение — проект LabClaw. Это не просто набор промптов, а полноценная библиотека из 211 навыков (
Что внутри:
• Доменная вертикаль: Готовые пайплайны для биоинформатики (66 навыков), разработки лекарств (36), клинических исследований (20) и работы с оборудованием.
• Агентная автоматизация: Навыки обучают OpenClaw-агентов не просто «отвечать», а управлять роботами (Opentrons, Hamilton), интегрироваться с LIMS (Benchling) и проводить глубокий анализ данных (scRNA-seq, молекулярный докинг).
• Vision & XR: Поддержка egocentric vision для смарт-очков (Aria/Quest), отслеживание рук и 3D-поз в реальном времени — критично для оцифровки реальных лабораторных манипуляций.
• Интеграция: Лаборатория будущего работает через один интерфейс. Агент может одновременно искать статью в PubMed, проектировать синтетическую последовательность и проверять статус эксперимента на роботе.
Проект позиционируется как связующее звено между «мозгами» LLM и «руками» современной лаборатории. Установка в рабочее пространство OpenClaw выполняется одной командой, превращая ассистента в технически грамотного ИИ-соавтора.
#LabClaw #LabOS #AI4Science #BioTech #Automation #OpenClaw
------
@tsingular
Stanford LabOS получает мощное расширение — проект LabClaw. Это не просто набор промптов, а полноценная библиотека из 211 навыков (
SKILL.md), заточенная под автономные биомедицинские исследования и лабораторную автоматизацию.Что внутри:
• Доменная вертикаль: Готовые пайплайны для биоинформатики (66 навыков), разработки лекарств (36), клинических исследований (20) и работы с оборудованием.
• Агентная автоматизация: Навыки обучают OpenClaw-агентов не просто «отвечать», а управлять роботами (Opentrons, Hamilton), интегрироваться с LIMS (Benchling) и проводить глубокий анализ данных (scRNA-seq, молекулярный докинг).
• Vision & XR: Поддержка egocentric vision для смарт-очков (Aria/Quest), отслеживание рук и 3D-поз в реальном времени — критично для оцифровки реальных лабораторных манипуляций.
• Интеграция: Лаборатория будущего работает через один интерфейс. Агент может одновременно искать статью в PubMed, проектировать синтетическую последовательность и проверять статус эксперимента на роботе.
Проект позиционируется как связующее звено между «мозгами» LLM и «руками» современной лаборатории. Установка в рабочее пространство OpenClaw выполняется одной командой, превращая ассистента в технически грамотного ИИ-соавтора.
#LabClaw #LabOS #AI4Science #BioTech #Automation #OpenClaw
------
@tsingular
1⚡9🔥6✍5
Руки нового поколения от ChangingTek Robotics из Jiangsu
Рука может быть как левой так и правой. Пальцы гнутся во все стороны.
Выглядит криповато, но кто сказал, что роботы должны на 100% копировать создателей?
#роботы #руки #Китай
------
@tsingular
Рука может быть как левой так и правой. Пальцы гнутся во все стороны.
Выглядит криповато, но кто сказал, что роботы должны на 100% копировать создателей?
#роботы #руки #Китай
------
@tsingular
🔥16✍7👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Перплексити переизобрели OpenClaw.
Персональный компьютер - это Mac mini с Perplexity Computer, который работает для вас 24/7.
Он персональный, безопасный и работает с вашими файлами, приложениями, почтой, календарем и записной книжкой.
Плюс такой сборки, как мне видится,- меньше ошибок от тысячи вайбкодеров, понятный пользователю продукт и главное,- никакой чехарды с подписками.
У Перплексити уже и ИИ и поиск свои проверенные.
#Perplexity #macmini #PersonalComputer
------
@tsingular
Персональный компьютер - это Mac mini с Perplexity Computer, который работает для вас 24/7.
Он персональный, безопасный и работает с вашими файлами, приложениями, почтой, календарем и записной книжкой.
Плюс такой сборки, как мне видится,- меньше ошибок от тысячи вайбкодеров, понятный пользователю продукт и главное,- никакой чехарды с подписками.
У Перплексити уже и ИИ и поиск свои проверенные.
#Perplexity #macmini #PersonalComputer
------
@tsingular
✍21🔥8🆒4❤2
This media is not supported in your browser
VIEW IN TELEGRAM
XREAL One Pro
Скоро во всех офисах :)
AR сложная история. Еще в 90х были шлемы VFX-1, но вот уже почти 30 лет концепция никак не приживется.
Интересно, у какого устройства получится стать таким же массовым, как, хотя бы, беспроводные наушники.
#AR
------
@tsingular
Скоро во всех офисах :)
AR сложная история. Еще в 90х были шлемы VFX-1, но вот уже почти 30 лет концепция никак не приживется.
Интересно, у какого устройства получится стать таким же массовым, как, хотя бы, беспроводные наушники.
#AR
------
@tsingular
🔥20🤩5🤯2❤1
Обновление OpenClaw v2026.3.11
📊 Что в обновлении:
• Безопасность: 1 (Критическое).
• Изменения: 15.
• Совместимость: 1 (Изменение логики планировщика).
• Исправления: 60+.
🛠 Главное:
1. Устранение уязвимости: Закрыт канал перехвата управления через WebSocket. Ранее была возможна подмена источника запроса в браузере.
2. Мультимодальная память: Подключена модель
3. Мобильный интерфейс (iOS): Плавающие кнопки заменены на фиксированную панель управления. Чат теперь сохраняет общую историю с основной сессией.
4. Очистка вывода: Автоматическое удаление служебных токенов (например, внутренних рассуждений моделей DeepSeek и GLM-5) из ответов пользователю.
5. Локальные модели: Упрощена настройка Ollama. Добавлены варианты работы «только локально» или «облако + локально».
6. Управление агентами (ACP): Добавлена функция возобновления существующих сессий вместо принудительного создания новых.
Ну раз поддерживают олламу нормально, значит инструменты не должны ломаться, так ведь? :)
Пробуем.
Обсуждаем тут:
https://t.iss.one/clawledgechat
#Openclaw #update
———
@tsingular
📊 Что в обновлении:
• Безопасность: 1 (Критическое).
• Изменения: 15.
• Совместимость: 1 (Изменение логики планировщика).
• Исправления: 60+.
🛠 Главное:
1. Устранение уязвимости: Закрыт канал перехвата управления через WebSocket. Ранее была возможна подмена источника запроса в браузере.
2. Мультимодальная память: Подключена модель
gemini-embedding-2-preview. Теперь поиск по базе знаний поддерживает изображения и аудио, а не только текст.3. Мобильный интерфейс (iOS): Плавающие кнопки заменены на фиксированную панель управления. Чат теперь сохраняет общую историю с основной сессией.
4. Очистка вывода: Автоматическое удаление служебных токенов (например, внутренних рассуждений моделей DeepSeek и GLM-5) из ответов пользователю.
5. Локальные модели: Упрощена настройка Ollama. Добавлены варианты работы «только локально» или «облако + локально».
6. Управление агентами (ACP): Добавлена функция возобновления существующих сессий вместо принудительного создания новых.
Ну раз поддерживают олламу нормально, значит инструменты не должны ломаться, так ведь? :)
Пробуем.
Обсуждаем тут:
https://t.iss.one/clawledgechat
#Openclaw #update
———
@tsingular
🔥12✍4⚡3❤1🤔1