This media is not supported in your browser
VIEW IN TELEGRAM
Когда Text-to-SQL не работает, мы обычно валим всё на LLM или на кривой промптинг.
Но настоящая проблема чаще всего в схеме.
Объясняю:
Ты спрашиваешь: “Какие издатели получали роялти-платежи больше $5,000?”
Векторный поиск подтягивает "publisher" и "royalty_ledger".
Но он пропускает "vendor_agreement" — таблицу-мост, которая их связывает.
В итоге LLM пишет валидный SQL, который возвращает пусто.
Вот почему векторы сыпятся на реальных enterprise-схемах.
Они матчят названия.
Они не умеют находить пути для join-ов.
А пути уже описаны во внешних ключах.
Именно эту дыру закрывает QueryWeaver.
Это open-source инструмент от FalkorDB.
QueryWeaver превращает твою схему в граф.
- Таблицы это узлы.
- Внешние ключи это рёбра.
Потом он проходит по пути и автоматически добавляет промежуточные таблицы-мосты.
Спокойно тянет multi-hop цепочки.
Его гоняли на BIRD Benchmark на базе “superhero ” БД, расширенной до 60 таблиц: он разрулил запрос на 5 hop-ов, простроив цепочку через:
superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation
Можно запустить локально:
исходники тут
Но настоящая проблема чаще всего в схеме.
Объясняю:
Ты спрашиваешь: “Какие издатели получали роялти-платежи больше $5,000?”
Векторный поиск подтягивает "publisher" и "royalty_ledger".
Но он пропускает "vendor_agreement" — таблицу-мост, которая их связывает.
В итоге LLM пишет валидный SQL, который возвращает пусто.
Вот почему векторы сыпятся на реальных enterprise-схемах.
Они матчят названия.
Они не умеют находить пути для join-ов.
А пути уже описаны во внешних ключах.
Именно эту дыру закрывает QueryWeaver.
Это open-source инструмент от FalkorDB.
QueryWeaver превращает твою схему в граф.
- Таблицы это узлы.
- Внешние ключи это рёбра.
Потом он проходит по пути и автоматически добавляет промежуточные таблицы-мосты.
Спокойно тянет multi-hop цепочки.
Его гоняли на BIRD Benchmark на базе “superhero ” БД, расширенной до 60 таблиц: он разрулил запрос на 5 hop-ов, простроив цепочку через:
superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation
Можно запустить локально:
id="6b6prn"
docker run -p 5000:5000 -it falkordb/queryweaver
исходники тут
Анатомия промпта для Claude 4.6
1. Задача (Task)
Определи, чего ты хочешь, и как выглядит успех:
"Я хочу [TASK], чтобы [SUCCESS CRITERIA]."
Без ролей типа "веди себя как сеньор-эксперт".
2. Контекстные файлы (Context Files)
Загрузи контекстные файлы со своей экспертизой и правилами:
"Сначала прочитай эти файлы полностью перед тем, как отвечать: [filename .md] - [что внутри]."
ИИ вырос. Не нужно объяснять все в промпте. Вынеси это в файлы.
3. Референс (Reference)
Покажи ИИ ровно то, что ты хочешь. Загрузи пример.
Потом задай паттерны, тон и структуру как правила. Без "сделай что-то похожее" и надежды, что ИИ сам догадается.
4. Краткое ТЗ (Brief)
Это единственная часть, которую вы набираете с нуля. Все остальное это файлы.
"Тип вывода + длина. Чего НЕ должно быть по звучанию. Что значит успех."
5. Правила (Rules)
Контекстный файл хранит твои стандарты, вкус и аудиторию.
Промпт: "Прочитай его полностью перед стартом. Если ты собираешься нарушить одно из моих правил, остановись и скажи мне."
6. Диалог (Conversation)
Мы 3 года промптили ИИ. Теперь он промптит нас.
Промпт: "НЕ начинай выполнять задачу. Задай мне уточняющие вопросы (используй инструмент 'AskUserQuestion'), чтобы мы вместе пошагово уточнили подход."
7. План (Plan)
Claude прочитал твои файлы до того, как написал хоть слово.
Промпт: "Перед тем как что-то писать, перечисли 3 правила из моего контекстного файла, которые важнее всего для этой задачи. Потом дай план выполнения."
8. Выравнивание целей (Alignment)
Ничего не происходит, пока вы оба не видите одну и ту же цель. Это заменяет старую эпоху промптинга.
Промпт: "Начинай работу только после того, как мы согласуемся."
1. Задача (Task)
Определи, чего ты хочешь, и как выглядит успех:
"Я хочу [TASK], чтобы [SUCCESS CRITERIA]."
Без ролей типа "веди себя как сеньор-эксперт".
2. Контекстные файлы (Context Files)
Загрузи контекстные файлы со своей экспертизой и правилами:
"Сначала прочитай эти файлы полностью перед тем, как отвечать: [filename .md] - [что внутри]."
ИИ вырос. Не нужно объяснять все в промпте. Вынеси это в файлы.
3. Референс (Reference)
Покажи ИИ ровно то, что ты хочешь. Загрузи пример.
Потом задай паттерны, тон и структуру как правила. Без "сделай что-то похожее" и надежды, что ИИ сам догадается.
4. Краткое ТЗ (Brief)
Это единственная часть, которую вы набираете с нуля. Все остальное это файлы.
"Тип вывода + длина. Чего НЕ должно быть по звучанию. Что значит успех."
5. Правила (Rules)
Контекстный файл хранит твои стандарты, вкус и аудиторию.
Промпт: "Прочитай его полностью перед стартом. Если ты собираешься нарушить одно из моих правил, остановись и скажи мне."
6. Диалог (Conversation)
Мы 3 года промптили ИИ. Теперь он промптит нас.
Промпт: "НЕ начинай выполнять задачу. Задай мне уточняющие вопросы (используй инструмент 'AskUserQuestion'), чтобы мы вместе пошагово уточнили подход."
7. План (Plan)
Claude прочитал твои файлы до того, как написал хоть слово.
Промпт: "Перед тем как что-то писать, перечисли 3 правила из моего контекстного файла, которые важнее всего для этой задачи. Потом дай план выполнения."
8. Выравнивание целей (Alignment)
Ничего не происходит, пока вы оба не видите одну и ту же цель. Это заменяет старую эпоху промптинга.
Промпт: "Начинай работу только после того, как мы согласуемся."
14
Кто-то собрал полноценный клон Perplexity, который работает на 100% локально и стоит $0.
Называется Perplexica.🤙
→ real-time поиск по вебу
→ Даёт ссылки на все источники, которые использует
→ Работает с локальными моделями через Ollama
→ Несколько режимов поиска (обычный, академический, YouTube, Reddit, writing)
→ Ноль затрат на API. Ноль сбора данных.
29K звёзд. Лицензия MIT.
100% opensourse
Называется Perplexica.
→ real-time поиск по вебу
→ Даёт ссылки на все источники, которые использует
→ Работает с локальными моделями через Ollama
→ Несколько режимов поиска (обычный, академический, YouTube, Reddit, writing)
→ Ноль затрат на API. Ноль сбора данных.
29K звёзд. Лицензия MIT.
100% opensourse
Please open Telegram to view this post
VIEW IN TELEGRAM
8
OpenClaw cовет:
Твои агенты могут тебе врать.
Они скажут "уже делаю!" и даже не начнут. Скажут "готово!" а там ничего не готово. Скажут "собираю прямо сейчас" и при этом вообще ничего не запущено🤡
Вот что я добавил в инструкции каждому агенту:
Теперь если мне говорят, что что-то билдится, это выглядит вот так:
Твои агенты могут тебе врать.
Они скажут "уже делаю!" и даже не начнут. Скажут "готово!" а там ничего не готово. Скажут "собираю прямо сейчас" и при этом вообще ничего не запущено
Вот что я добавил в инструкции каждому агенту:
Never say 'done' or 'working on it' unless the action has actually started. Every status update must include proof — a process ID, file path, URL, or command output. No proof = didn't happen. A false completion is worse than a delayed honest answer.
Теперь если мне говорят, что что-то билдится, это выглядит вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
2
This media is not supported in your browser
VIEW IN TELEGRAM
Сокращает простой в проде на 95%
Как это работает:
1. Забирает сырые ошибки из Sentry или Azure Log Analytics
2. Семантически группирует их по первопричине (20 ошибок превращаются примерно в 4 реальные проблемы)
3. Ищет в GitHub конкретные файлы кода, которые задействованы
4. Проверяет Linear на существующие тикеты, чтобы не плодить дубликаты
5. Пробегается по Slack в поиске прошлых обсуждений похожих инцидентов
6. Определяет критичность (S1-S4) и решает, алертить или подавлять
7. Отправляет в Slack обогащенные алерты со ссылками на код, статусом тикета и уровнем критичности
Агент можно гонять в проде как cron job каждые 5 минут.
Он построен поверх Airweave AI, это open-source слой для контекстного retrieval, который делает все инструменты семантически поисковыми для агентов.
Ключевая мысль: обычные тулзы мониторинга ошибок дают алерты, но не дают контекст. Airweave закрывает эту дыру, делая все инструменты и кодовые базы семантически доступными для поиска агентами.
Он подключается к 50+ источникам (GitHub, Linear, Slack, базы данных и т.д.) и дает агентам возможность искать по всем сразу одним запросом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Профессор Дональд Кнут начал свою новую статью словами: "Шок! Шок!" 😨 😨
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.
Он назвал статью "Claude Cycles".
31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."
Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.
Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Gemini 3.1 Flash-Lite уже вышел. 😨 😨
Это самая экономичная по цене модель в линейке Gemini 3, заточенная под интеллект в масштабе.
За счет роста скорости вывода на 45% она обходит 2.5 Flash и поддерживает динамические уровни размышления под сложность задачи.
Gemini 3 Flash-Lite в цифрах:
- 1432 Elo в лидерборде arena
- 86.9% на GPQA Diamond (научные знания)
- 76.8% на MMMU Pro (мультимодальное рассуждение)
Цена $0.25 за 1M входных токенов и $1.50 за 1M выходных токенов.
Gemini 3.1 Flash-Lite выкатывается в превью для разработчиков и компаний через Gemini API в Google AI Studio и Vertex AI.
Это самая экономичная по цене модель в линейке Gemini 3, заточенная под интеллект в масштабе.
За счет роста скорости вывода на 45% она обходит 2.5 Flash и поддерживает динамические уровни размышления под сложность задачи.
Gemini 3 Flash-Lite в цифрах:
- 1432 Elo в лидерборде arena
- 86.9% на GPQA Diamond (научные знания)
- 76.8% на MMMU Pro (мультимодальное рассуждение)
Цена $0.25 за 1M входных токенов и $1.50 за 1M выходных токенов.
Gemini 3.1 Flash-Lite выкатывается в превью для разработчиков и компаний через Gemini API в Google AI Studio и Vertex AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Один разработчик похоронил аргумент "ИИ не тянет большие кодовые базы".
Штука называется RepoMap в Aider.
- Генерит сжатую карту всего репозитория
- Упаковывает кодбазы на 100K+ строк в 4K токенов
- Показывает Claude, какие файлы реально релевантны
- Автоматически обновляется по мере правок
- Никакой настройки
ИИ понимает весь проект целиком, а не только те файлы, которые ты не забыл вставить.👌
100% опенсорс
Штука называется RepoMap в Aider.
- Генерит сжатую карту всего репозитория
- Упаковывает кодбазы на 100K+ строк в 4K токенов
- Показывает Claude, какие файлы реально релевантны
- Автоматически обновляется по мере правок
- Никакой настройки
ИИ понимает весь проект целиком, а не только те файлы, которые ты не забыл вставить.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Приложение Codex теперь доступно на Windows.
Оно работает и нативно, и в WSL, с встроенными терминалами для PowerShell, Command Prompt, Git Bash или WSL.
Также сделали первую нативную для Windows песочницу для агента: на уровне ОС она блокирует запись в файловую систему вне вашей рабочей папки и запрещает исходящий сетевой трафик, пока вы явно не разрешите.
Плюс: 7 новых приложений “Open in …” и 2 новых Windows-скилла (WinUI + ASP.NET).
Оно работает и нативно, и в WSL, с встроенными терминалами для PowerShell, Command Prompt, Git Bash или WSL.
Также сделали первую нативную для Windows песочницу для агента: на уровне ОС она блокирует запись в файловую систему вне вашей рабочей папки и запрещает исходящий сетевой трафик, пока вы явно не разрешите.
Плюс: 7 новых приложений “Open in …” и 2 новых Windows-скилла (WinUI + ASP.NET).
Google выкатили Google Workspace CLI
Один инструмент командной строки для управления всем стеком Google Workspace (Drive, Gmail, Calendar, Sheets, Docs и др.)
Ключевые детали:
https://github.com/googleworkspace/cli
Один инструмент командной строки для управления всем стеком Google Workspace (Drive, Gmail, Calendar, Sheets, Docs и др.)
Ключевые детали:
- Команды генерируются динамически с использованием Google Discovery Service
- Не нужно вручную писать REST API-запросы
- На выходе — структурированный JSON, чтобы AI-агенты могли легко его использовать
- Поставляется с 40+ встроенными agent skills и 100+ workflow-рецептами
- Может работать как MCP-сервер, чтобы агенты вроде Claude Desktop или Gemini CLI могли управлять инструментами Workspace через него
https://github.com/googleworkspace/cli
Прикольная, кастомная команда в Claude Code:
Она сканирует твой кодбейз и сверяет с текущими рыночными ставками, чтобы посчитать, сколько бы стоил проект, если бы его делала обычная команда.
Смотрит на все API, интеграции, вообще всё.
Без ИИ: примерно 2,8 года. Примерно $650k.
С ИИ: 30 часов.
Вот сам markdown-файл.
✅ ✅ ✅
/cost-estimateОна сканирует твой кодбейз и сверяет с текущими рыночными ставками, чтобы посчитать, сколько бы стоил проект, если бы его делала обычная команда.
Смотрит на все API, интеграции, вообще всё.
Без ИИ: примерно 2,8 года. Примерно $650k.
С ИИ: 30 часов.
Вот сам markdown-файл.
Please open Telegram to view this post
VIEW IN TELEGRAM
Новый репозиторий OpenAI: Symphony 😳
TL;DR: это оркестрационный слой, который опрашивает проектные канбан-доски на изменения и поднимает агентов под каждую стадию жизненного цикла тикета.
Вместо того чтобы промптить агента написать код и сделать PR, ты просто двигаешь тикеты по канбан-доске.
100% опенсорс
TL;DR: это оркестрационный слой, который опрашивает проектные канбан-доски на изменения и поднимает агентов под каждую стадию жизненного цикла тикета.
Вместо того чтобы промптить агента написать код и сделать PR, ты просто двигаешь тикеты по канбан-доске.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
4
This media is not supported in your browser
VIEW IN TELEGRAM
Официальные Apify Agent Skills : для веб-скрейпинга, извлечения данных и автоматизации
1 универсальный скилл
- X (Twitter): твиты в реальном времени
- TikTok / IG: горячие тренды
- YouTube: субтитры к видео и скачивание
- Google Maps: инфа по бизнесам
Все возвращается как структурированный JSON, ИИ получает и может сразу запускать автоматизацию.
Очень подходит соло-разработчикам и тем, кто пилит тулзы для автоматизации
1 универсальный скилл
apify-ultimate-scraper = вытаскивает данные со всего веба:- X (Twitter): твиты в реальном времени
- TikTok / IG: горячие тренды
- YouTube: субтитры к видео и скачивание
- Google Maps: инфа по бизнесам
Все возвращается как структурированный JSON, ИИ получает и может сразу запускать автоматизацию.
Очень подходит соло-разработчикам и тем, кто пилит тулзы для автоматизации
Оп, OpenAI выкатили GPT-5.4
Новая флагманская модель вышла в версиях Thinking и Pro и получила контекст до 1 млн токенов.
Что обновили:
• Улучшили результаты в коде, математике и агентских задачах
• Модель быстрее отвечает и тратит меньше токенов на рассуждение
• Теперь можно остановить ответ на середине и дописать инструкции
• В Codex появился режим
По бенчмаркам уровень кода сопоставим с Claude Opus 4.6, а в агентских задачах модель даже сильнее.
Цена: $2.5 / $15 за 1M токенов (вход / выход). Доступ уже начинают постепенно открывать пользователям.
Новая флагманская модель вышла в версиях Thinking и Pro и получила контекст до 1 млн токенов.
Что обновили:
• Улучшили результаты в коде, математике и агентских задачах
• Модель быстрее отвечает и тратит меньше токенов на рассуждение
• Теперь можно остановить ответ на середине и дописать инструкции
• В Codex появился режим
/fast – генерация примерно в 1.5× быстрееПо бенчмаркам уровень кода сопоставим с Claude Opus 4.6, а в агентских задачах модель даже сильнее.
Цена: $2.5 / $15 за 1M токенов (вход / выход). Доступ уже начинают постепенно открывать пользователям.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor представили Automations для always-on агентов.
Можно запускать агентов по расписанию, по событиям из Slack, GitHub или любого MCP-сервера. Например, каждое утро получать ежедневный обзор своей активности в GitHub и Slack.
У Cursor теперь десятки агентов крутятся 24/7, что-то улучшают или мониторят за них.
Что умеют:
• поднимают cloud sandbox
• работают с вашими MCP и моделями
• сами проверяют результат
• используют memory tool и улучшаются от запуска к запуску
Ну, в каком-то смысле да😛
Это периодическая джоба, которая запускается в своей изолированной sandbox-среде и имеет доступ только к тем инструментам, которые ты ей явно разрешил.
Плюс она может использовать любую модель, доступную внутри Cursor
Запустить можно через Cursor Automations, есть шаблоны и кастомные интеграции через webhooks/MCP.
Можно запускать агентов по расписанию, по событиям из Slack, GitHub или любого MCP-сервера. Например, каждое утро получать ежедневный обзор своей активности в GitHub и Slack.
У Cursor теперь десятки агентов крутятся 24/7, что-то улучшают или мониторят за них.
Что умеют:
• поднимают cloud sandbox
• работают с вашими MCP и моделями
• сами проверяют результат
• используют memory tool и улучшаются от запуска к запуску
Но разве это не просто обычный cron job?
Ну, в каком-то смысле да
Это периодическая джоба, которая запускается в своей изолированной sandbox-среде и имеет доступ только к тем инструментам, которые ты ей явно разрешил.
Плюс она может использовать любую модель, доступную внутри Cursor
Запустить можно через Cursor Automations, есть шаблоны и кастомные интеграции через webhooks/MCP.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Как вам такой хук, который добавляет в Claude Code прыгающий DVD-логотип каждый раз, когда он думает. 🤭
Please open Telegram to view this post
VIEW IN TELEGRAM
6
В копилку oпенсорс скиллов: PM Skills для Claude
100+ скиллов и команд, которые превращают ИИ в полноценного партнера для product management.
Не просто шаблонные промпты. Это структурированные скиллы, которые понимают PM-фреймворки.
8 плагинов, покрывающих весь PM лайфцикл:
Сделано для Claude Code и Cowork. Совместимо с Gemini CLI, Cursor, Codex CLI и Kiro.✈️
100+ скиллов и команд, которые превращают ИИ в полноценного партнера для product management.
Не просто шаблонные промпты. Это структурированные скиллы, которые понимают PM-фреймворки.
8 плагинов, покрывающих весь PM лайфцикл:
→ Product Discovery: исследование problem space и solution space
→ Product Strategy: vision, business model, strategy docs
→ Execution: PRD, OKR, roadmap, sprint planning, user stories
→ Market Research: персоны, сегментация, TAM/SAM/SOM
→ Data & Analytics: когорты, A/B-тесты, анализ удержания
→ Go-to-Market: GTM-стратегия, beachhead, ICP, growth loops
→ Marketing & Growth: позиционирование, North Star Metric
→ PM Toolkit: включая ревью PM-резюме
Сделано для Claude Code и Cowork. Совместимо с Gemini CLI, Cursor, Codex CLI и Kiro.
Please open Telegram to view this post
VIEW IN TELEGRAM