Вышло обновление Claude Code: кастомные slash-команды получили апгрейд
slash-команды позволяют сохранять кастомные промпты в виде Markdown-файлов и вызывать их через
Теперь с обновлением можно:
- Выполнять bash-команды прямо из slash-команд
- Использовать
- Активировать расширенное мышление через ключевые слова внутри команд
Также можно делиться знаниями внутри команды — например, шаблонами code review, best practices или типовыми workflow — просто добавив команды в директорию проекта
Подробности тут: https://docs.anthropic.com/en/docs/claude-code/slash-commands#custom-slash-commands
slash-команды позволяют сохранять кастомные промпты в виде Markdown-файлов и вызывать их через
/your-command
.Теперь с обновлением можно:
- Выполнять bash-команды прямо из slash-команд
- Использовать
@упоминания
файлов для передачи контекста- Активировать расширенное мышление через ключевые слова внутри команд
Также можно делиться знаниями внутри команды — например, шаблонами code review, best practices или типовыми workflow — просто добавив команды в директорию проекта
.claude/commands/
.Подробности тут: https://docs.anthropic.com/en/docs/claude-code/slash-commands#custom-slash-commands
This media is not supported in your browser
VIEW IN TELEGRAM
Парсинг PDF до сих пор остаётся болью: LLM-модели искажают порядок текста в сложных макетах, рвут таблицы между страницами и не справляются с графиками и изображениями.
Протестировал новый open-source инструмент OCRFlux — и, наконец-то, результаты реально хорошие.
OCRFlux — это мультимодальный инструмент на базе LLM, который конвертирует PDF-файлы и изображения в чистый, читаемый Markdown-текст.
Основан на VLM-модели с 3 миллиардами параметров, так что спокойно работает даже на GPU уровня 3090. Доступен на Hugging Face.
Движок OCRFlux обучает модель пересобирать каждую страницу, а затем склеивать фрагменты между страницами в единый Markdown-документ.
Под капотом — Vision Language Model, дообученная на базе Qwen 2.5-VL-3B-Instruct для разбора страниц и сшивки контента между ними.
Как работает OCRFlux:
• Читает «сырые» изображения страниц и по task-промптам выдаёт Markdown для каждой
• Сшивает разорванные элементы (таблицы, параграфы) между страницами
• Учитывает естественный порядок чтения, даже при сложных макетах (много колонок, графики, подрисуночные тексты)
• Поддерживает сложные таблицы и формулы
• Автоматически убирает хедеры и футеры
Huggingface - https://huggingface.co/ChatDOC
Github - https://github.com/chatdoc-com/OCRFlux
Official Site: https://ocrflux.pdfparser.io
Протестировал новый open-source инструмент OCRFlux — и, наконец-то, результаты реально хорошие.
OCRFlux — это мультимодальный инструмент на базе LLM, который конвертирует PDF-файлы и изображения в чистый, читаемый Markdown-текст.
Основан на VLM-модели с 3 миллиардами параметров, так что спокойно работает даже на GPU уровня 3090. Доступен на Hugging Face.
Движок OCRFlux обучает модель пересобирать каждую страницу, а затем склеивать фрагменты между страницами в единый Markdown-документ.
Под капотом — Vision Language Model, дообученная на базе Qwen 2.5-VL-3B-Instruct для разбора страниц и сшивки контента между ними.
Как работает OCRFlux:
• Читает «сырые» изображения страниц и по task-промптам выдаёт Markdown для каждой
• Сшивает разорванные элементы (таблицы, параграфы) между страницами
• Учитывает естественный порядок чтения, даже при сложных макетах (много колонок, графики, подрисуночные тексты)
• Поддерживает сложные таблицы и формулы
• Автоматически убирает хедеры и футеры
Huggingface - https://huggingface.co/ChatDOC
Github - https://github.com/chatdoc-com/OCRFlux
Official Site: https://ocrflux.pdfparser.io
This media is not supported in your browser
VIEW IN TELEGRAM
Недостающий бэкенд для ваших AI-агентов
Motia — это унифицированная система, где API, фоновые задачи, события и агенты — это просто шаги, которые легко подключаются и сразу работают.
> Python, JS и TypeScript в одном рабочем процессе
> Встроенная наблюдаемость
> Деплой в один клик
Полностью open-source
Motia — это унифицированная система, где API, фоновые задачи, события и агенты — это просто шаги, которые легко подключаются и сразу работают.
> Python, JS и TypeScript в одном рабочем процессе
> Встроенная наблюдаемость
> Деплой в один клик
Полностью open-source
Claude Code только что сообщил, что им пользуются 115 тысяч разработчиков, и за последнюю неделю он изменил 195 миллионов строк кода.
Если сделать ряд допущений, это может означать бизнес с годовой выручкой (ARR) около $130 млн, то есть $1000+ на одного разработчика в год.
Это не просто хайп — Claude Code Opus уже работает как джуниор-разработчик.
Напоминаю: Claude Code запустили всего 4 месяца назад, а Sonnet/Opus 4 — всего 1.5 месяца назад.
Если сделать ряд допущений, это может означать бизнес с годовой выручкой (ARR) около $130 млн, то есть $1000+ на одного разработчика в год.
Это не просто хайп — Claude Code Opus уже работает как джуниор-разработчик.
Напоминаю: Claude Code запустили всего 4 месяца назад, а Sonnet/Opus 4 — всего 1.5 месяца назад.
Дружественное напоминание: у Gemini есть бесплатная альтернатива Cursor.
Ты можешь установить Gemini Code Assist в VS Code совершенно бесплатно — достаточно войти через свой Google-аккаунт:
→ Gemini 2.5
→ 240 чатов в день
→ 180 000 автодополнений в месяц
Быстрая установка:
> Открой меню расширений в VS Code
(Также работает в Android Studio и других IDE от JetBrains)
> Найди расширение "Gemini Code Assist" и установи его
> Авторизуйся через свой Google-аккаунт
Готово! Можешь пользоваться.
Официальная документация: https://developers.google.com/gemini-code-assist/docs/write-code-gemini?hl=ru
Ты можешь установить Gemini Code Assist в VS Code совершенно бесплатно — достаточно войти через свой Google-аккаунт:
→ Gemini 2.5
→ 240 чатов в день
→ 180 000 автодополнений в месяц
Быстрая установка:
> Открой меню расширений в VS Code
(Также работает в Android Studio и других IDE от JetBrains)
> Найди расширение "Gemini Code Assist" и установи его
> Авторизуйся через свой Google-аккаунт
Готово! Можешь пользоваться.
Официальная документация: https://developers.google.com/gemini-code-assist/docs/write-code-gemini?hl=ru
Вайб кодинг
Дружественное напоминание: у Gemini есть бесплатная альтернатива Cursor. Ты можешь установить Gemini Code Assist в VS Code совершенно бесплатно — достаточно войти через свой Google-аккаунт: → Gemini 2.5 → 240 чатов в день → 180 000 автодополнений в месяц…
This media is not supported in your browser
VIEW IN TELEGRAM
Можно включить Agent mode в Gemini Code Assist — и он станет в 10 раз мощнее.
В этом режиме Gemini получает доступ к инструментам и даже MCP:
> Нажми
> Введи "Open User Settings (JSON)" и выбери этот пункт
> Добавь в файл строку:
> Сохрани и нажми кнопку перезагрузки (Reload)
Готово🚶♀️
В этом режиме Gemini получает доступ к инструментам и даже MCP:
> Нажми
Ctrl/Cmd + Shift + P
> Введи "Open User Settings (JSON)" и выбери этот пункт
> Добавь в файл строку:
"geminicodeassist.updateChannel": "Insiders"
> Сохрани и нажми кнопку перезагрузки (Reload)
Готово
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Интерфейс drag-and-drop для сборки workflow AI-агентов!
Sim Studio — это лёгкая и удобная платформа, делающая создание workflow для AI-агентов доступным каждому.
Поддерживает все основные LLM, MCP-серверы, vectorDB и т.д.
Полностью open-source.
Sim Studio — это лёгкая и удобная платформа, делающая создание workflow для AI-агентов доступным каждому.
Поддерживает все основные LLM, MCP-серверы, vectorDB и т.д.
Полностью open-source.
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь ты можешь прокачать свой терминал с помощью MCP-серверов (open-source).
MCP CLI позволяет взаимодействовать с локальными и удалёнными MCP-серверами прямо из терминала — с полноценным UI и встроенной интеграцией с любыми LLM-провайдерами.
Можно запускать инструменты, управлять сессиями и автоматизировать воркфлоу — всё из CLI.
Ключевые фичи:
- Несколько режимов взаимодействия: чат, интерактивный shell, командный режим и др.
- Live-вывод с поддержкой markdown, подсветкой синтаксиса и т.п.
- Поддержка инструментов: автообнаружение, параллельное выполнение и др.
- Бесшовное переключение между OpenAI, Anthropic, Ollama и другими.
- Встроенные проверки состояния, тайминг работы тулов и подробные логи.
https://github.com/chrishayuk/mcp-cli
MCP CLI позволяет взаимодействовать с локальными и удалёнными MCP-серверами прямо из терминала — с полноценным UI и встроенной интеграцией с любыми LLM-провайдерами.
Можно запускать инструменты, управлять сессиями и автоматизировать воркфлоу — всё из CLI.
Ключевые фичи:
- Несколько режимов взаимодействия: чат, интерактивный shell, командный режим и др.
- Live-вывод с поддержкой markdown, подсветкой синтаксиса и т.п.
- Поддержка инструментов: автообнаружение, параллельное выполнение и др.
- Бесшовное переключение между OpenAI, Anthropic, Ollama и другими.
- Встроенные проверки состояния, тайминг работы тулов и подробные логи.
https://github.com/chrishayuk/mcp-cli
Anthropic только что запустили технический курс Build with Claude, в котором разберут:
↳ работу с Claude API
↳ построение AI-агентов
↳ использование MCP-серверов
↳ советы по Claude Code
↳ RAG (retrieval-augmented generation)
↳ инжиниринг промптов
↳ интеграцию с инструментами
↳ и многое другое
Рекомендуется всем, кто работает с Claude
https://www.anthropic.com/learn/build-with-claude
↳ работу с Claude API
↳ построение AI-агентов
↳ использование MCP-серверов
↳ советы по Claude Code
↳ RAG (retrieval-augmented generation)
↳ инжиниринг промптов
↳ интеграцию с инструментами
↳ и многое другое
Рекомендуется всем, кто работает с Claude
https://www.anthropic.com/learn/build-with-claude
Grok 4 от xAI вышел — теперь это №1 среди LLM
По первым тестам Grok 4 лидирует в главном индексе интеллекта Artificial Analysis (73%), обогнав OpenAI o3 и Gemini 2.5 Pro (оба по 70%). В математике и кодинге тоже уверенный отрыв. Попутно побил рекорды в GPQA и Humanity’s Last Exam.
Контекст — 256k токенов, есть поддержка изображений, структурированных ответов, вызова функций и других приятных штук
Цены выше, чем у Gemini 2.5 Pro и o3, но дешевле, чем o3-pro и Claude 4 Opus. API уже доступен
Сегодня выкатывают сразу две версии: стандартный Grok и Grok Heavy (за который придётся отваливать $300 в месяц). Ждем тут
По первым тестам Grok 4 лидирует в главном индексе интеллекта Artificial Analysis (73%), обогнав OpenAI o3 и Gemini 2.5 Pro (оба по 70%). В математике и кодинге тоже уверенный отрыв. Попутно побил рекорды в GPQA и Humanity’s Last Exam.
Контекст — 256k токенов, есть поддержка изображений, структурированных ответов, вызова функций и других приятных штук
Цены выше, чем у Gemini 2.5 Pro и o3, но дешевле, чем o3-pro и Claude 4 Opus. API уже доступен
Сегодня выкатывают сразу две версии: стандартный Grok и Grok Heavy (за который придётся отваливать $300 в месяц). Ждем тут
This media is not supported in your browser
VIEW IN TELEGRAM
Мы выкатываем новые обновления для Claude Code.
Во-первых, теперь интеграция с GitHub Actions доступна не только пользователям API с поминутной оплатой, но и тем, кто на тарифах Pro и Max.
С помощью GitHub-интеграции можно вызывать claude в любом Pull Request или issue.
Claude Code может:
- делать ревью кода,
- находить и исправлять баги,
- и даже создавать PR-ы в асинхронном режиме — ты можешь вызвать его и продолжать работать над другим.
Чтобы начать, выполни команду
/install-github-app
из Claude Code и следуй инструкциям для настройки репозитория.Подробнее — по ссылке: https://docs.anthropic.com/en/docs/claude-code/github-actions
Мы также представляем новый нативный установщик Claude Code, работающий на Bun runtime.
Теперь установка не зависит от npm или node, а старт — быстрее.
Если ты только начинаешь работать с Claude Code или хочешь перейти на новый нативный инсталлер, просто запусти:
curl -fsSL https://claude.ai/install.sh | bash
После DeepSeek R1 в Китае появилась новая модель уровня Claude 4, которая обходит DeepSeek v3, Qwen и OpenAI GPT-4.1.
Полностью open-source и бесплатна для использования. Осознайте масштаб.
Kimi K2 обходит Claude Sonnet 4 и GPT-4.1 по метрикам на бенчмарках по программированию:
65.8% на SWE-bench Verified (для сравнения: Claude — 50.2%, GPT — 40.8%)
Это лучшие результаты среди всех “не-рефлексивных” моделей в задачах по математике, программированию и агентным действиям.
Доступны две версии:
K2-Base — для ресерчеров и тех, кто хочет полную гибкость для fine-tuning и кастомизации.
K2-Instruct — готовое решение для чат-интерфейсов и AI-агентов, отлично подходит для агентных пайплайнов.
На практике Kimi K2 вызвала 16 разных инструментов, чтобы:
сгенерировать статистику
построить визуализации
собрать интерактивную веб-страницу
Весь процесс: от "сыра" до готовой аналитики — за считанные секунды.
Запускается прямо из терминала:
модель понимает окружение, принимает решения и автоматически выполняет нужные действия.
Она буквально построила 3D-версию Minecraft для веба — по одному промпту.
Также доступна через API:
$0.15 / 1M input токенов (cache hit)
$0.60 / 1M input токенов (cache miss)
$2.50 / 1M output токенов
Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro.
GitHub-репозиторий: https://github.com/MoonshotAI/Kimi-K2
Представляем Kimi K2 модель с 1 триллионом параметров, изначально заточенная под агентные сценарии и с нативной интеграцией MCP.
Полностью open-source и бесплатна для использования. Осознайте масштаб.
Kimi K2 обходит Claude Sonnet 4 и GPT-4.1 по метрикам на бенчмарках по программированию:
65.8% на SWE-bench Verified (для сравнения: Claude — 50.2%, GPT — 40.8%)
Это лучшие результаты среди всех “не-рефлексивных” моделей в задачах по математике, программированию и агентным действиям.
Доступны две версии:
K2-Base — для ресерчеров и тех, кто хочет полную гибкость для fine-tuning и кастомизации.
K2-Instruct — готовое решение для чат-интерфейсов и AI-агентов, отлично подходит для агентных пайплайнов.
На практике Kimi K2 вызвала 16 разных инструментов, чтобы:
сгенерировать статистику
построить визуализации
собрать интерактивную веб-страницу
Весь процесс: от "сыра" до готовой аналитики — за считанные секунды.
Запускается прямо из терминала:
модель понимает окружение, принимает решения и автоматически выполняет нужные действия.
Она буквально построила 3D-версию Minecraft для веба — по одному промпту.
Также доступна через API:
$0.15 / 1M input токенов (cache hit)
$0.60 / 1M input токенов (cache miss)
$2.50 / 1M output токенов
Почти в 5 раз дешевле, чем Claude 4 Sonnet и Gemini 2.5 Pro.
GitHub-репозиторий: https://github.com/MoonshotAI/Kimi-K2