This media is not supported in your browser
VIEW IN TELEGRAM
Гений закрыл серьёзную слепую зону в недавно вышедшем skill для fine-tuning от HuggingFace
HuggingFace выпустили skill, который можно подключить к Claude или любому кодинг-агенту, и он позволяет дообучать open-source LLM-ки на обычном тексте.
Агент сам делает выбор GPU, сабмитит джобу, мониторит прогресс и пушит готовую модель на Hub.
Но есть нюанс.
Он предполагает, что у тебя уже есть чистый датасет на HuggingFace Hub.
А в реальности данные, на которых чаще всего хочется дообучаться, живут в Twitter, LinkedIn, Reddit, Amazon и на других платформах за антибот-защитой.
Поэтому гений интегрировал Bright Data Web MCP в этот skill, чтобы кодинг-агент мог собирать данные из веба перед тем, как запускать обучение:
- Скрапить данные с платформ вроде YouTube, Amazon или Reddit, при этом CAPTCHA и антибот-системы обрабатываются автоматически.
- Преобразовывать собранный контент в датасет для fine-tuning в нужном формате.
- Валидировать датасет, подобрать GPU-железо и отправить training job в HuggingFace.
- Следить за ходом обучения и пушить готовую модель на Hub.
С этим обновлением теперь можно сказать Claude что-то вроде:
"Собери топ-500 обсуждений про Python с Reddit, конвертни их в instruction-response пары и дообучи Qwen3-0.6B на этом датасете через SFT."
И агент дальше сам сделает сбор данных, форматирование, обучение и деплой в одном пайплайне.
Оригинальный skill от HuggingFace отлично закрывал часть с обучением, её и не трогали.
Чувак просто добавил недостающий слой сбора данных через Bright Data MCP, который поддерживает 60+ web data tools для 40+ платформ.
Почему именно Bright Data?
Агентам в вебе часто прилетают IP-блокировки и CAPTCHA. Bright Data берёт это на себя за кулисами.
Это позволяет масштабировать скрейпинг без постоянных блоков, симулировать действия реального пользователя на сложных сайтах и работать как с real-time, так и с историческими данными с 40+ платформ.
100% опенсорс💼
HuggingFace выпустили skill, который можно подключить к Claude или любому кодинг-агенту, и он позволяет дообучать open-source LLM-ки на обычном тексте.
Агент сам делает выбор GPU, сабмитит джобу, мониторит прогресс и пушит готовую модель на Hub.
Но есть нюанс.
Он предполагает, что у тебя уже есть чистый датасет на HuggingFace Hub.
А в реальности данные, на которых чаще всего хочется дообучаться, живут в Twitter, LinkedIn, Reddit, Amazon и на других платформах за антибот-защитой.
Поэтому гений интегрировал Bright Data Web MCP в этот skill, чтобы кодинг-агент мог собирать данные из веба перед тем, как запускать обучение:
- Скрапить данные с платформ вроде YouTube, Amazon или Reddit, при этом CAPTCHA и антибот-системы обрабатываются автоматически.
- Преобразовывать собранный контент в датасет для fine-tuning в нужном формате.
- Валидировать датасет, подобрать GPU-железо и отправить training job в HuggingFace.
- Следить за ходом обучения и пушить готовую модель на Hub.
С этим обновлением теперь можно сказать Claude что-то вроде:
"Собери топ-500 обсуждений про Python с Reddit, конвертни их в instruction-response пары и дообучи Qwen3-0.6B на этом датасете через SFT."
И агент дальше сам сделает сбор данных, форматирование, обучение и деплой в одном пайплайне.
Оригинальный skill от HuggingFace отлично закрывал часть с обучением, её и не трогали.
Чувак просто добавил недостающий слой сбора данных через Bright Data MCP, который поддерживает 60+ web data tools для 40+ платформ.
Почему именно Bright Data?
Агентам в вебе часто прилетают IP-блокировки и CAPTCHA. Bright Data берёт это на себя за кулисами.
Это позволяет масштабировать скрейпинг без постоянных блоков, симулировать действия реального пользователя на сложных сайтах и работать как с real-time, так и с историческими данными с 40+ платформ.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
Alibaba выкатили для комьюнити AI-агентов бесплатную прод-песочницу.
OpenSandbox это фулл-стэк платформа, чтобы безопасно гонять недоверенный код агента:
- единые API + SDK под разные языки
- рантаймы на Docker и Kubernetes, заточенные под агент-сценарии
- автоматизация браузера, десктоп (в стиле VS Code) и изоляция сети из коробки
- рассчитано на код-агентов, GUI агентов, оценку агентов и вообще любые задачи, где надо запускать код в изоляции
Это не пет-проект, а опенсорс от Alibaba. На GitHub сейчас около 2.5k звёзд (цифра, естественно, быстро меняется).
Короче, безопасную инфраструктуру под агентов, которую обычно пришлось бы пилить самому, тут просто отдают готовой.😊
OpenSandbox это фулл-стэк платформа, чтобы безопасно гонять недоверенный код агента:
- единые API + SDK под разные языки
- рантаймы на Docker и Kubernetes, заточенные под агент-сценарии
- автоматизация браузера, десктоп (в стиле VS Code) и изоляция сети из коробки
- рассчитано на код-агентов, GUI агентов, оценку агентов и вообще любые задачи, где надо запускать код в изоляции
Это не пет-проект, а опенсорс от Alibaba. На GitHub сейчас около 2.5k звёзд (цифра, естественно, быстро меняется).
Короче, безопасную инфраструктуру под агентов, которую обычно пришлось бы пилить самому, тут просто отдают готовой.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - alibaba/OpenSandbox: OpenSandbox is a general-purpose sandbox platform for AI applications, offering multi-language SDKs…
OpenSandbox is a general-purpose sandbox platform for AI applications, offering multi-language SDKs, unified sandbox APIs, and Docker/Kubernetes runtimes for scenarios like Coding Agents, GUI Agent...
Media is too big
VIEW IN TELEGRAM
Ollama теперь умеет запускать сабагентов в OpenCode.
Можно распараллеливать задачи, которым нужен более длинный контекст: ресёрч, рефакторинг и код-ревью.
Можно распараллеливать задачи, которым нужен более длинный контекст: ресёрч, рефакторинг и код-ревью.
ollama launch opencodeТут подогнали опенсорсный веб-интерфейс для OpenClaw : ChatClaw 🤙
- WebSocket напрямую к Gateway: стриминг ответов, несколько сессий, Markdown и подсветка кода.
- Чистый фронт без бэка: API-ключи и история чатов полностью хранятся локально (Dexie.js), данные вообще не уходят с устройства.
- Сделано на Next.js 16 + Tailwind + shadcn/ui, адаптив под разные экраны.
- Воссоздаёт минималистичный UI как у Claude, есть переключение светлая/тёмная тема и экспорт истории/конфигов.
ИСХОДНИКИ
- WebSocket напрямую к Gateway: стриминг ответов, несколько сессий, Markdown и подсветка кода.
- Чистый фронт без бэка: API-ключи и история чатов полностью хранятся локально (Dexie.js), данные вообще не уходят с устройства.
- Сделано на Next.js 16 + Tailwind + shadcn/ui, адаптив под разные экраны.
- Воссоздаёт минималистичный UI как у Claude, есть переключение светлая/тёмная тема и экспорт истории/конфигов.
ИСХОДНИКИ
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Коллеги, кто до сих пор не выкупил, что умеет OpenClaw, лучше просто идите и форкните этот GitHub.
Автор собрал 30+ приземленных кейсов. Про шаблоны, которые можно взять и запустить. Обычному человеку достаточно подставить свой контент, и уже будет работать.
Какие есть практичные кейсы?
- Автоматически собирать и кратко суммировать самое годное из твоих любимых сабреддитов на Reddit
- Тянуть свежие видео с YouTube-канала и делать по ним саммари
- Агрегировать RSS / X / GitHub / и вообще тех. новости со всего интернета
- Помогать с маркет-ресерчем
- И даже прогонять весь пайплайн разработки игры
Много полезных кейсов.👃
Автор собрал 30+ приземленных кейсов. Про шаблоны, которые можно взять и запустить. Обычному человеку достаточно подставить свой контент, и уже будет работать.
Какие есть практичные кейсы?
- Автоматически собирать и кратко суммировать самое годное из твоих любимых сабреддитов на Reddit
- Тянуть свежие видео с YouTube-канала и делать по ним саммари
- Агрегировать RSS / X / GitHub / и вообще тех. новости со всего интернета
- Помогать с маркет-ресерчем
- И даже прогонять весь пайплайн разработки игры
Много полезных кейсов.
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - hesamsheikh/awesome-openclaw-usecases: A community collection of OpenClaw use cases for making life easier.
A community collection of OpenClaw use cases for making life easier. - hesamsheikh/awesome-openclaw-usecases
AGENTS.md-файлы не масштабируются дальше умеренных кодовых баз.В последнее время об этом много спорят.
Если ты делаешь серьезный софт с Claude Code или любым агентным инструментом, один-единственный
AGENTS.md в какой-то момент тебя подведет. Эта статья показывает, что идет дальше.Прототип на 1 000 строк можно целиком описать одним промптом. Система на 100 000 строк так не работает. ИИ нужно снова и снова, надежно и последовательно, объяснять: как устроен проект, каким паттернам следовать и каких ошибок избегать.
Однофайловые манифесты очень быстро упираются в потолок.
В новой статье Codified Context описана трехуровневая инфраструктура, собранная в ходе реальной разработки распределенной C#-системы на 108 000 строк кода: 283 сессии за 70 дней.
Система использует трехуровневую архитектуру памяти:
- конституция горячей памяти (660 строк, всегда загружается)
- 19 специализированных доменных агент-экспертов (в сумме 9 300 строк), которые вызываются под конкретные задачи
- база знаний холодной памяти из 34 спецификаций (~16 250 строк), по которой делают запросы по требованию через MCP retrieval-сервер
За 283 сессии это дало 2 801 человеческий промпт, 1 197 вызовов агентов и 16 522 автономных хода агента, примерно по 6 автономных ходов на один человеческий промпт, при соотношении knowledge-to-code 24,2%.
Ключевой момент: ничего не проектировали заранее. Каждый новый агент и каждая спецификация появлялись из реального фейла: повторяющегося бага, архитектурной ошибки, забытой договоренности. Это фиксировали так, чтобы больше никогда не приходилось заново объяснять одно и то же, превращая документацию в опорную инфраструктуру, от которой агенты зависят как от памяти, а не как от справочника.
Кому интересно: https://arxiv.org/abs/2602.20478
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
На Hacker News сейчас в топе вот эта статья: https://mksg.lu/blog/context-mode
Рекомендую глянуть, автор придумал подход Context Mode, чтобы экономить токены контекста.
Когда дергаешь MCP, вызов инструмента жрет контекст с двух сторон: и вход, и выход тратят токены.
Решение автора: Context Mode.
Он добавляет прослойку между Claude Code и выводом внешних инструментов. Главная цель: не пускать сырые большие куски данных в контекстное окно. За счет этого можно получить до 98% экономии контекста.
Как это работает:
1. Песочница и изоляция выполнения. Каждый вызов инструмента крутится в отдельном подпроцессе, есть поддержка 10 рантаймов (JS, Python и т.д.). В контекст возвращается только результат из
2. База знаний + сжатый вывод. Markdown-контент индексируется через SQLite FTS5 virtual table + BM25 ranking + Porter stemming. Когда модели нужно, она точечно вытягивает нужные блоки кода, вместо того чтобы пихать в контекст резюме или весь текст целиком.
Данные из тестов автора:
➡️ Playwright snapshot: 56 KB -> 299 B
➡️ 20 GitHub Issue: 59 KB -> 1.1 KB
➡️ 500 access logs: 45 KB -> 155 B
➡️ Анализ CSV на 500 строк: 85 KB -> 222 B
➡️ 153 git commit logs: 11.6 KB -> 107 B
По идее очень похоже на то, что Cloudflare раньше выпускали как Code Mode.
100% опенсорс👋
Рекомендую глянуть, автор придумал подход Context Mode, чтобы экономить токены контекста.
Когда дергаешь MCP, вызов инструмента жрет контекст с двух сторон: и вход, и выход тратят токены.
Решение автора: Context Mode.
Он добавляет прослойку между Claude Code и выводом внешних инструментов. Главная цель: не пускать сырые большие куски данных в контекстное окно. За счет этого можно получить до 98% экономии контекста.
Как это работает:
1. Песочница и изоляция выполнения. Каждый вызов инструмента крутится в отдельном подпроцессе, есть поддержка 10 рантаймов (JS, Python и т.д.). В контекст возвращается только результат из
stdout, а исходный объемный вывод остается внутри песочницы и не попадает в контекст.2. База знаний + сжатый вывод. Markdown-контент индексируется через SQLite FTS5 virtual table + BM25 ranking + Porter stemming. Когда модели нужно, она точечно вытягивает нужные блоки кода, вместо того чтобы пихать в контекст резюме или весь текст целиком.
Данные из тестов автора:
По идее очень похоже на то, что Cloudflare раньше выпускали как Code Mode.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenClaw получил нечестное преимущество над всеми остальными AI-агентами
Теперь он умеет использовать Scrapling, чтобы скрейпить любые сайты и не отлетать на Cloudflare. И тебе не нужно поддерживать селекторы, когда сайт обновляет структуру.
- В 774 раза быстрее, чем BeautifulSoup.
- Нулевое детектирование бота.
- Нативно обходит ВСЕ защиты Cloudflare.
Полностью open source (100%).🎸
Теперь он умеет использовать Scrapling, чтобы скрейпить любые сайты и не отлетать на Cloudflare. И тебе не нужно поддерживать селекторы, когда сайт обновляет структуру.
- В 774 раза быстрее, чем BeautifulSoup.
- Нулевое детектирование бота.
- Нативно обходит ВСЕ защиты Cloudflare.
Полностью open source (100%).
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, GPT-5.4 уже вот-вот.
По слухам, там будет контекст примерно на 2 млн токенов, реальное персистентное состояние между сессиями и переработанная архитектура памяти, заточенная под автономных агентов.
Если это правда, то это полноценная смена поколения, которая может за ночь перезапустить всю гонку ИИ.😳
По слухам, там будет контекст примерно на 2 млн токенов, реальное персистентное состояние между сессиями и переработанная архитектура памяти, заточенная под автономных агентов.
Если это правда, то это полноценная смена поколения, которая может за ночь перезапустить всю гонку ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Запустить несколько headless-инстансов под скрейпинг/тесты/автоматизацию легко.
А вот поднимать их, следить за жизненным циклом, нормально гасить и чистить ресурсы не очень. Всё расползается в набор разрозненных скриптов.
А что если был бы простой отдельный инструмент ровно под эту задачу?💓
Знакомься, Pinchtab это легковесный Go-бинарник (12 МБ), который запускает Chrome и поднимает простой HTTP API. Любой агент или скрипт может через него ходить по страницам, быстро читать текст, интерактивно кликать/вводить и сохранять сессии. Ноль конфигурации, без привязки к фреймворкам, экономит токены.
Pinchtab это пакет для Node.js.
Установка:
Дальше пример, поднимаем “флот” браузеров.
За деталями, расширенной конфигурацией и CLI проще всего идти в репозиторий GitHub, там все расписано.
А вот поднимать их, следить за жизненным циклом, нормально гасить и чистить ресурсы не очень. Всё расползается в набор разрозненных скриптов.
А что если был бы простой отдельный инструмент ровно под эту задачу?
Знакомься, Pinchtab это легковесный Go-бинарник (12 МБ), который запускает Chrome и поднимает простой HTTP API. Любой агент или скрипт может через него ходить по страницам, быстро читать текст, интерактивно кликать/вводить и сохранять сессии. Ноль конфигурации, без привязки к фреймворкам, экономит токены.
Pinchtab это пакет для Node.js.
Установка:
npm install pinchtab
Дальше пример, поднимаем “флот” браузеров.
const { Pinchtab } = require('pinchtab');
const orchestrator = new Pinchtab();
// Запускаем 3 headless-инстанса Chrome
const fleet = await orchestrator.launch(3);
// fleet содержит данные для подключения (например WS endpoints) для каждого инстанса
console.log(fleet);
// Потом аккуратно гасим весь флот
await orchestrator.destroy();За деталями, расширенной конфигурацией и CLI проще всего идти в репозиторий GitHub, там все расписано.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
AI-агент, который управляет телефоном через обычный текст 💖
Один разработчик выложил в опенсорс проект PhoneDriver. Он работает на визуальной модели Qwen3-VL, умеет понимать, что на экране телефона, и имитировать действия человека.
Достаточно просто описать задачу, например: "Открой настройки и включи Wi-Fi". Модель сама анализирует элементы интерфейса и через команды ADB выполняет клики, свайпы или ввод текста.
Есть визуальный веб-интерфейс: можно в реальном времени смотреть скриншоты с телефона и логи выполнения.
Также поддерживается автоопределение разрешения экрана, плюс можно настраивать параметры модели, задержку действий, число ретраев и т.д.
Для деплоя в основном нужны Python и окружение ADB. Ещё нужна видеокарта с достаточным объёмом VRAM, чтобы тянуть 4B или 8B визуальную модель, а на телефоне должен быть включён USB Debugging.
Один разработчик выложил в опенсорс проект PhoneDriver. Он работает на визуальной модели Qwen3-VL, умеет понимать, что на экране телефона, и имитировать действия человека.
Достаточно просто описать задачу, например: "Открой настройки и включи Wi-Fi". Модель сама анализирует элементы интерфейса и через команды ADB выполняет клики, свайпы или ввод текста.
Есть визуальный веб-интерфейс: можно в реальном времени смотреть скриншоты с телефона и логи выполнения.
Также поддерживается автоопределение разрешения экрана, плюс можно настраивать параметры модели, задержку действий, число ретраев и т.д.
Для деплоя в основном нужны Python и окружение ADB. Ещё нужна видеокарта с достаточным объёмом VRAM, чтобы тянуть 4B или 8B визуальную модель, а на телефоне должен быть включён USB Debugging.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
This media is not supported in your browser
VIEW IN TELEGRAM
Voice mode наконец-то выкатывают в Claude Code. Сегодня он уже доступен примерно для 5% пользователей, и дальше будут постепенно расширять rollout в ближайшие недели.
Когда у тебя появится доступ, на welcome-экране будет заметка. Включается и выключается командой
Как пользоваться voice mode: зажимаешь пробел, говоришь, отпускаешь. По сути, push-to-talk.
Транскрипт стримится прямо в позицию курсора. Можно набрать половину промпта руками, надиктовать грязную середину голосом, потом дописать. То, что уже набрано, он не заменяет.
За voice mode доплачивать не нужно, и токены за транскрибацию голоса не учитываются в твоих rate limits.
Доступно на планах Pro, Max, Team и Enterprise, раскатывают волнами.
Когда у тебя появится доступ, на welcome-экране будет заметка. Включается и выключается командой
/voice.Как пользоваться voice mode: зажимаешь пробел, говоришь, отпускаешь. По сути, push-to-talk.
Транскрипт стримится прямо в позицию курсора. Можно набрать половину промпта руками, надиктовать грязную середину голосом, потом дописать. То, что уже набрано, он не заменяет.
За voice mode доплачивать не нужно, и токены за транскрибацию голоса не учитываются в твоих rate limits.
Доступно на планах Pro, Max, Team и Enterprise, раскатывают волнами.
This media is not supported in your browser
VIEW IN TELEGRAM
Когда Text-to-SQL не работает, мы обычно валим всё на LLM или на кривой промптинг.
Но настоящая проблема чаще всего в схеме.
Объясняю:
Ты спрашиваешь: “Какие издатели получали роялти-платежи больше $5,000?”
Векторный поиск подтягивает "publisher" и "royalty_ledger".
Но он пропускает "vendor_agreement" — таблицу-мост, которая их связывает.
В итоге LLM пишет валидный SQL, который возвращает пусто.
Вот почему векторы сыпятся на реальных enterprise-схемах.
Они матчят названия.
Они не умеют находить пути для join-ов.
А пути уже описаны во внешних ключах.
Именно эту дыру закрывает QueryWeaver.
Это open-source инструмент от FalkorDB.
QueryWeaver превращает твою схему в граф.
- Таблицы это узлы.
- Внешние ключи это рёбра.
Потом он проходит по пути и автоматически добавляет промежуточные таблицы-мосты.
Спокойно тянет multi-hop цепочки.
Его гоняли на BIRD Benchmark на базе “superhero ” БД, расширенной до 60 таблиц: он разрулил запрос на 5 hop-ов, простроив цепочку через:
superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation
Можно запустить локально:
исходники тут
Но настоящая проблема чаще всего в схеме.
Объясняю:
Ты спрашиваешь: “Какие издатели получали роялти-платежи больше $5,000?”
Векторный поиск подтягивает "publisher" и "royalty_ledger".
Но он пропускает "vendor_agreement" — таблицу-мост, которая их связывает.
В итоге LLM пишет валидный SQL, который возвращает пусто.
Вот почему векторы сыпятся на реальных enterprise-схемах.
Они матчят названия.
Они не умеют находить пути для join-ов.
А пути уже описаны во внешних ключах.
Именно эту дыру закрывает QueryWeaver.
Это open-source инструмент от FalkorDB.
QueryWeaver превращает твою схему в граф.
- Таблицы это узлы.
- Внешние ключи это рёбра.
Потом он проходит по пути и автоматически добавляет промежуточные таблицы-мосты.
Спокойно тянет multi-hop цепочки.
Его гоняли на BIRD Benchmark на базе “superhero ” БД, расширенной до 60 таблиц: он разрулил запрос на 5 hop-ов, простроив цепочку через:
superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation
Можно запустить локально:
id="6b6prn"
docker run -p 5000:5000 -it falkordb/queryweaver
исходники тут
Анатомия промпта для Claude 4.6
1. Задача (Task)
Определи, чего ты хочешь, и как выглядит успех:
"Я хочу [TASK], чтобы [SUCCESS CRITERIA]."
Без ролей типа "веди себя как сеньор-эксперт".
2. Контекстные файлы (Context Files)
Загрузи контекстные файлы со своей экспертизой и правилами:
"Сначала прочитай эти файлы полностью перед тем, как отвечать: [filename .md] - [что внутри]."
ИИ вырос. Не нужно объяснять все в промпте. Вынеси это в файлы.
3. Референс (Reference)
Покажи ИИ ровно то, что ты хочешь. Загрузи пример.
Потом задай паттерны, тон и структуру как правила. Без "сделай что-то похожее" и надежды, что ИИ сам догадается.
4. Краткое ТЗ (Brief)
Это единственная часть, которую вы набираете с нуля. Все остальное это файлы.
"Тип вывода + длина. Чего НЕ должно быть по звучанию. Что значит успех."
5. Правила (Rules)
Контекстный файл хранит твои стандарты, вкус и аудиторию.
Промпт: "Прочитай его полностью перед стартом. Если ты собираешься нарушить одно из моих правил, остановись и скажи мне."
6. Диалог (Conversation)
Мы 3 года промптили ИИ. Теперь он промптит нас.
Промпт: "НЕ начинай выполнять задачу. Задай мне уточняющие вопросы (используй инструмент 'AskUserQuestion'), чтобы мы вместе пошагово уточнили подход."
7. План (Plan)
Claude прочитал твои файлы до того, как написал хоть слово.
Промпт: "Перед тем как что-то писать, перечисли 3 правила из моего контекстного файла, которые важнее всего для этой задачи. Потом дай план выполнения."
8. Выравнивание целей (Alignment)
Ничего не происходит, пока вы оба не видите одну и ту же цель. Это заменяет старую эпоху промптинга.
Промпт: "Начинай работу только после того, как мы согласуемся."
1. Задача (Task)
Определи, чего ты хочешь, и как выглядит успех:
"Я хочу [TASK], чтобы [SUCCESS CRITERIA]."
Без ролей типа "веди себя как сеньор-эксперт".
2. Контекстные файлы (Context Files)
Загрузи контекстные файлы со своей экспертизой и правилами:
"Сначала прочитай эти файлы полностью перед тем, как отвечать: [filename .md] - [что внутри]."
ИИ вырос. Не нужно объяснять все в промпте. Вынеси это в файлы.
3. Референс (Reference)
Покажи ИИ ровно то, что ты хочешь. Загрузи пример.
Потом задай паттерны, тон и структуру как правила. Без "сделай что-то похожее" и надежды, что ИИ сам догадается.
4. Краткое ТЗ (Brief)
Это единственная часть, которую вы набираете с нуля. Все остальное это файлы.
"Тип вывода + длина. Чего НЕ должно быть по звучанию. Что значит успех."
5. Правила (Rules)
Контекстный файл хранит твои стандарты, вкус и аудиторию.
Промпт: "Прочитай его полностью перед стартом. Если ты собираешься нарушить одно из моих правил, остановись и скажи мне."
6. Диалог (Conversation)
Мы 3 года промптили ИИ. Теперь он промптит нас.
Промпт: "НЕ начинай выполнять задачу. Задай мне уточняющие вопросы (используй инструмент 'AskUserQuestion'), чтобы мы вместе пошагово уточнили подход."
7. План (Plan)
Claude прочитал твои файлы до того, как написал хоть слово.
Промпт: "Перед тем как что-то писать, перечисли 3 правила из моего контекстного файла, которые важнее всего для этой задачи. Потом дай план выполнения."
8. Выравнивание целей (Alignment)
Ничего не происходит, пока вы оба не видите одну и ту же цель. Это заменяет старую эпоху промптинга.
Промпт: "Начинай работу только после того, как мы согласуемся."
14
Кто-то собрал полноценный клон Perplexity, который работает на 100% локально и стоит $0.
Называется Perplexica.🤙
→ real-time поиск по вебу
→ Даёт ссылки на все источники, которые использует
→ Работает с локальными моделями через Ollama
→ Несколько режимов поиска (обычный, академический, YouTube, Reddit, writing)
→ Ноль затрат на API. Ноль сбора данных.
29K звёзд. Лицензия MIT.
100% opensourse
Называется Perplexica.
→ real-time поиск по вебу
→ Даёт ссылки на все источники, которые использует
→ Работает с локальными моделями через Ollama
→ Несколько режимов поиска (обычный, академический, YouTube, Reddit, writing)
→ Ноль затрат на API. Ноль сбора данных.
29K звёзд. Лицензия MIT.
100% opensourse
Please open Telegram to view this post
VIEW IN TELEGRAM
8
OpenClaw cовет:
Твои агенты могут тебе врать.
Они скажут "уже делаю!" и даже не начнут. Скажут "готово!" а там ничего не готово. Скажут "собираю прямо сейчас" и при этом вообще ничего не запущено🤡
Вот что я добавил в инструкции каждому агенту:
Теперь если мне говорят, что что-то билдится, это выглядит вот так:
Твои агенты могут тебе врать.
Они скажут "уже делаю!" и даже не начнут. Скажут "готово!" а там ничего не готово. Скажут "собираю прямо сейчас" и при этом вообще ничего не запущено
Вот что я добавил в инструкции каждому агенту:
Never say 'done' or 'working on it' unless the action has actually started. Every status update must include proof — a process ID, file path, URL, or command output. No proof = didn't happen. A false completion is worse than a delayed honest answer.
Теперь если мне говорят, что что-то билдится, это выглядит вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
2
This media is not supported in your browser
VIEW IN TELEGRAM
Сокращает простой в проде на 95%
Как это работает:
1. Забирает сырые ошибки из Sentry или Azure Log Analytics
2. Семантически группирует их по первопричине (20 ошибок превращаются примерно в 4 реальные проблемы)
3. Ищет в GitHub конкретные файлы кода, которые задействованы
4. Проверяет Linear на существующие тикеты, чтобы не плодить дубликаты
5. Пробегается по Slack в поиске прошлых обсуждений похожих инцидентов
6. Определяет критичность (S1-S4) и решает, алертить или подавлять
7. Отправляет в Slack обогащенные алерты со ссылками на код, статусом тикета и уровнем критичности
Агент можно гонять в проде как cron job каждые 5 минут.
Он построен поверх Airweave AI, это open-source слой для контекстного retrieval, который делает все инструменты семантически поисковыми для агентов.
Ключевая мысль: обычные тулзы мониторинга ошибок дают алерты, но не дают контекст. Airweave закрывает эту дыру, делая все инструменты и кодовые базы семантически доступными для поиска агентами.
Он подключается к 50+ источникам (GitHub, Linear, Slack, базы данных и т.д.) и дает агентам возможность искать по всем сразу одним запросом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Профессор Дональд Кнут начал свою новую статью словами: "Шок! Шок!" 😨 😨
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Gemini 3.1 Flash-Lite уже вышел. 😨 😨
Это самая экономичная по цене модель в линейке Gemini 3, заточенная под интеллект в масштабе.
За счет роста скорости вывода на 45% она обходит 2.5 Flash и поддерживает динамические уровни размышления под сложность задачи.
Gemini 3 Flash-Lite в цифрах:
- 1432 Elo в лидерборде arena
- 86.9% на GPQA Diamond (научные знания)
- 76.8% на MMMU Pro (мультимодальное рассуждение)
Цена $0.25 за 1M входных токенов и $1.50 за 1M выходных токенов.
Gemini 3.1 Flash-Lite выкатывается в превью для разработчиков и компаний через Gemini API в Google AI Studio и Vertex AI.
Это самая экономичная по цене модель в линейке Gemini 3, заточенная под интеллект в масштабе.
За счет роста скорости вывода на 45% она обходит 2.5 Flash и поддерживает динамические уровни размышления под сложность задачи.
Gemini 3 Flash-Lite в цифрах:
- 1432 Elo в лидерборде arena
- 86.9% на GPQA Diamond (научные знания)
- 76.8% на MMMU Pro (мультимодальное рассуждение)
Цена $0.25 за 1M входных токенов и $1.50 за 1M выходных токенов.
Gemini 3.1 Flash-Lite выкатывается в превью для разработчиков и компаний через Gemini API в Google AI Studio и Vertex AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM