Плохие
Вот промпт, которым можно их привести в порядок, плюс полный гайд для тех, кто хочет копнуть глубже.
AGENTS.md файлы могут ухудшить работу твоего кодинг-агента и просто сжигать токены.Вот промпт, которым можно их привести в порядок, плюс полный гайд для тех, кто хочет копнуть глубже.
I want you to refactor my AGENTS.md file to follow progressive disclosure principles.
Follow these steps:
1. **Find contradictions**: Identify any instructions that conflict with each other. For each contradiction, ask me which version I want to keep.
2. **Identify the essentials**: Extract only what belongs in the root AGENTS.md:
- One-sentence project description
- Package manager (if not npm)
- Non-standard build/typecheck commands
- Anything truly relevant to every single task
3. **Group the rest**: Organize remaining instructions into logical categories (e.g., TypeScript conventions, testing patterns, API design, Git workflow). For each group, create a separate markdown file.
4. **Create the file structure**: Output:
- A minimal root AGENTS.md with markdown links to the separate files
- Each separate file with its relevant instructions
- A suggested docs/ folder structure
5. **Flag for deletion**: Identify any instructions that are:
- Redundant (the agent already knows this)
- Too vague to be actionable
- Overly obvious (like "write clean code")
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic работает над "Knowledge Bases" для Claude Cowork. Похоже, KB это новый концепт тематической памяти: Claude будет автоматически её вести и поддерживать в актуальном состоянии. И ещё пачка новых фич.
Internal Instruction👀
Дополнительно: режим Cowork объединят с Chat mode и сделают дефолтным интерфейсом Claude Desktop.
Internal Instruction
"Это постоянные репозитории знаний. Проактивно проверяй их на релевантный контекст при ответах на вопросы. Когда узнаёшь новую информацию по теме KB (предпочтения, решения, факты, извлечённые уроки), постепенно добавляй её в соответствующую KB."
Дополнительно: режим Cowork объединят с Chat mode и сделают дефолтным интерфейсом Claude Desktop.
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
На YouTube есть один чувак, вайб-кодер.
Он стримит по хардкору и делает это по 6 часов в день с одной целью: вайб-кодингом довести приложение до $1,000,000
Самый интересный человек, которого я видел за последнее время. Надеюсь, у него всё получится.👍
Он стримит по хардкору и делает это по 6 часов в день с одной целью: вайб-кодингом довести приложение до $1,000,000
Самый интересный человек, которого я видел за последнее время. Надеюсь, у него всё получится.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Нашёл клад, а там этот skill: который лечит Cursor/Claude от типичного “AI-вайба” в интерфейсах.
Когда пишешь код с AI, то UI получается один и тот же: фиолетово-розовый градиент, шрифт😯
Этот oпенсорс проект просто упаковал базу знаний профессиональных UI-дизайнеров:
57 UI-стилей (glassmorphism, clay, минимализм, брутализм и т.д.)
95 наборов отраслевых цветовых схем
56 комбинаций шрифтов
100 дизайн-правил для разных индустрий
Поддерживает Cursor, Claude Code, Windsurf, Copilot, Kiro и почти все популярные AI-инструменты для программирования.
Установка одной командой:
Дальше просто пишешь
Когда пишешь код с AI, то UI получается один и тот же: фиолетово-розовый градиент, шрифт
Inter и белый фон, классический набор из трёх пунктов. Этот oпенсорс проект просто упаковал базу знаний профессиональных UI-дизайнеров:
57 UI-стилей (glassmorphism, clay, минимализм, брутализм и т.д.)
95 наборов отраслевых цветовых схем
56 комбинаций шрифтов
100 дизайн-правил для разных индустрий
Поддерживает Cursor, Claude Code, Windsurf, Copilot, Kiro и почти все популярные AI-инструменты для программирования.
Установка одной командой:
# Install CLI globally
npm install -g uipro-cli
# Go to your project
cd /path/to/your/project
# Install for your AI assistant
uipro init --ai claude # Claude Code
uipro init --ai cursor # Cursor
uipro init --ai windsurf # Windsurf
uipro init --ai antigravity # Antigravity (.agent + .shared)
uipro init --ai copilot # GitHub Copilot
uipro init --ai kiro # Kiro
uipro init --ai codex # Codex CLI
uipro init --ai qoder # Qoder
uipro init --ai roocode # Roo Code
uipro init --ai gemini # Gemini CLI
uipro init --ai trae # Trae
uipro init --ai all # All assistants
Дальше просто пишешь
/ui-ux-pro-max помоги сделать SaaS-лендинг и готово.Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Задеплой любую ML-модель как MCP-сервер.
LitServe: самый простой способ выкатывать агентов, RAG и вообще любые ML-модели. Теперь есть поддержка MCP.
Полностью open-source.
LitServe: самый простой способ выкатывать агентов, RAG и вообще любые ML-модели. Теперь есть поддержка MCP.
Полностью open-source.
Media is too big
VIEW IN TELEGRAM
Новый релиз: Agents API. Запускай Blackbox CLI, Claude Code, Codex CLI, Gemini CLI и других агентов на удалённых VM, которые работают на vercel sandboxes, с одной единственной реализацией API.
agent.blackbox.ai/overview — начать можно здесь.
agent.blackbox.ai/overview — начать можно здесь.
This media is not supported in your browser
VIEW IN TELEGRAM
как работает мой код, написанный полностью с помощью Claude Code
Представили GLM-4.7-Flash: локальный ассистент для кодинга и агент-сценариев.
Для класса 30B модель задает новую планку: GLM-4.7-Flash держит баланс между производительностью и эффективностью, поэтому отлично подходит как легковесный вариант для деплоя. И это не только про код: ее также рекомендуют для креативного письма, перевода, задач с длинным контекстом и roleplay.
Веса: https://huggingface.co/zai-org/GLM-4.7-Flash
API: https://docs.z.ai/guides/overview/pricing
* GLM-4.7-Flash: бесплатно (1 одновременный запрос / 1 concurrency)
* GLM-4.7-FlashX: высокоскоростной и доступный по цене вариант
Для класса 30B модель задает новую планку: GLM-4.7-Flash держит баланс между производительностью и эффективностью, поэтому отлично подходит как легковесный вариант для деплоя. И это не только про код: ее также рекомендуют для креативного письма, перевода, задач с длинным контекстом и roleplay.
Веса: https://huggingface.co/zai-org/GLM-4.7-Flash
API: https://docs.z.ai/guides/overview/pricing
* GLM-4.7-Flash: бесплатно (1 одновременный запрос / 1 concurrency)
* GLM-4.7-FlashX: высокоскоростной и доступный по цене вариант
Очень удобно, что Википедия взяла и собрала подробный список "признаков AI-текста".
Настолько удобно, что можно просто сказать своей LLM: ... не делай так.
Чувак попросил Claude Code прочитать эту статью и сделать скилл, который избегает вообще всех этих признаков.
Наслаждайтесь: исходники
Настолько удобно, что можно просто сказать своей LLM: ... не делай так.
Чувак попросил Claude Code прочитать эту статью и сделать скилл, который избегает вообще всех этих признаков.
Наслаждайтесь: исходники
GitHub
GitHub - blader/humanizer: Claude Code skill that removes signs of AI-generated writing from text
Claude Code skill that removes signs of AI-generated writing from text - blader/humanizer
3
Copilot CLI вернулись с новыми апдейтами и улучшениями 🙌
Зацени:
✅ Новые модели и более простой менеджмент моделей
✅ Встроенные кастомные агенты
✅ Новые способы установки
✅ Автоматизация и скриптинг
✅ Управление контекстом
✅ Улучшенный UX в терминале
✅ Контроль веб-доступа
Зацени:
Please open Telegram to view this post
VIEW IN TELEGRAM
The GitHub Blog
GitHub Copilot CLI: Enhanced agents, context management, and new ways to install - GitHub Changelog
As we wrapped up 2025 and rang in 2026, we’ve continued to deliver new ways of working with agents in GitHub Copilot CLI while improving the terminal-native experience for all…
Вау: если хочешь, чтобы агент делал браузерное тестирование, попробуй agent-browser.
Новая версия с обновленным SKILL реально быстрая и очень экономит токены.
Скажи своему агенту вот так:
Установи/обнови agent-browser и обнови мой skill-файл:
https://github.com/vercel-labs/agent-browser/
Новая версия с обновленным SKILL реально быстрая и очень экономит токены.
Скажи своему агенту вот так:
Установи/обнови agent-browser и обнови мой skill-файл:
https://github.com/vercel-labs/agent-browser/
GitHub
GitHub - vercel-labs/agent-browser: Browser automation CLI for AI agents
Browser automation CLI for AI agents. Contribute to vercel-labs/agent-browser development by creating an account on GitHub.
God проект: xyOps это система нового поколения для ворк-автоматизации и мониторинга серверов. 😱
Если по-простому: это ультимативный комбайн, где в одном котле смешали планирование заданий, автоматизацию воркфлоу, мониторинг, алерты и реакцию на инциденты.
Большинство “автоматизационных платформ” на рынке умеют тупо гонять задачи, как скрипт, который только выполняет команды. xyOps не про это. Он связывает задачи с мониторингом в реальном времени, алертингом, снапшотами, тикетами и инцидент-менеджментом в один цельный конвейер.
#️⃣ Вот исходники
Если по-простому: это ультимативный комбайн, где в одном котле смешали планирование заданий, автоматизацию воркфлоу, мониторинг, алерты и реакцию на инциденты.
Большинство “автоматизационных платформ” на рынке умеют тупо гонять задачи, как скрипт, который только выполняет команды. xyOps не про это. Он связывает задачи с мониторингом в реальном времени, алертингом, снапшотами, тикетами и инцидент-менеджментом в один цельный конвейер.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Релиз LFM2.5-1.2B-Thinking, reasoning-модель, которая полностью работает on-device. То, для чего два года назад нужен был дата-центр, теперь запускается на любом телефоне с 900 МБ памяти.
> Обучена специально под лаконичное рассуждение
> Генерирует внутренние thinking traces перед тем, как выдать ответ
> Дает возможность системно решать задачи с edge-scale задержками
> Сильно проявляет себя в tool use, математике и следовании инструкциям
По сравнению с LFM2.5-1.2B-Instruct, три способности заметно вырастают:
> Математическое рассуждение: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Tool use: 49 → 57 (BFCLv3)
Несмотря на то, что параметров на 40% меньше, она догоняет или превосходит Qwen3-1.7B (thinking mode) на большинстве бенчмарков производительности, при этом требует меньше output токенов и меньше вычисления во время тестирования.
На inference разрыв становится еще больше.
LFM2.5-1.2B-Thinking обгоняет как чистые трансформеры (например, Qwen3-1.7B), так и гибридные архитектуры (например, Granite-4.0-H-1B) и по скорости, и по эффективности памяти.
FM2.5-1.2B-Thinking доступна уже сегодня с широкой поддержкой с первого дня по всей on-device экосистеме.
Hugging Face, LEAP, Liquid Playground
> Обучена специально под лаконичное рассуждение
> Генерирует внутренние thinking traces перед тем, как выдать ответ
> Дает возможность системно решать задачи с edge-scale задержками
> Сильно проявляет себя в tool use, математике и следовании инструкциям
По сравнению с LFM2.5-1.2B-Instruct, три способности заметно вырастают:
> Математическое рассуждение: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Tool use: 49 → 57 (BFCLv3)
Несмотря на то, что параметров на 40% меньше, она догоняет или превосходит Qwen3-1.7B (thinking mode) на большинстве бенчмарков производительности, при этом требует меньше output токенов и меньше вычисления во время тестирования.
На inference разрыв становится еще больше.
LFM2.5-1.2B-Thinking обгоняет как чистые трансформеры (например, Qwen3-1.7B), так и гибридные архитектуры (например, Granite-4.0-H-1B) и по скорости, и по эффективности памяти.
FM2.5-1.2B-Thinking доступна уже сегодня с широкой поддержкой с первого дня по всей on-device экосистеме.
Hugging Face, LEAP, Liquid Playground
1
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодим по геймерски: Vibecraft теперь полностью с открытым исходным кодом
Это оболочка для Claude Code, она помогает запускать и контролировать твои локальные сессии Claude Code более наглядно
Проект добавляет визуализации и анимации, чтобы было понятно, чем сейчас занят агент, а еще есть пространственный звук: можно буквально слышать, где “находится” Claude (слева, справа, сзади) и быстрее ловить контекст, не залипая в окна.
Самое важное про приватность: Vibecraft работает с твоими локальными инстансами Claude Code, и никакие файлы или промпты наружу не уходят.🥺
Demo: https://vibecraft.sh
Это оболочка для Claude Code, она помогает запускать и контролировать твои локальные сессии Claude Code более наглядно
Проект добавляет визуализации и анимации, чтобы было понятно, чем сейчас занят агент, а еще есть пространственный звук: можно буквально слышать, где “находится” Claude (слева, справа, сзади) и быстрее ловить контекст, не залипая в окна.
Самое важное про приватность: Vibecraft работает с твоими локальными инстансами Claude Code, и никакие файлы или промпты наружу не уходят.
Demo: https://vibecraft.sh
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Добавь в закладки: Threejs Skills для Claude Code, чтобы делать 3D элементы для веб-дизайна
Дает Claude Code базовый уровень знаний по Three.js.
10 skill-файлов: настройка сцены, шейдеры, анимации, постпроцессинг.
Claude Code будет понимать, как рулить Three.js, не раздувая контекст.
Установка попроще через:
Исходники
Дает Claude Code базовый уровень знаний по Three.js.
10 skill-файлов: настройка сцены, шейдеры, анимации, постпроцессинг.
Claude Code будет понимать, как рулить Three.js, не раздувая контекст.
Установка попроще через:
npx skills add CloudAI-X/threejs-skillsИсходники
GitHub
GitHub - CloudAI-X/threejs-skills
Contribute to CloudAI-X/threejs-skills development by creating an account on GitHub.