Media is too big
VIEW IN TELEGRAM
На YouTube есть один чувак, вайб-кодер.
Он стримит по хардкору и делает это по 6 часов в день с одной целью: вайб-кодингом довести приложение до $1,000,000
Самый интересный человек, которого я видел за последнее время. Надеюсь, у него всё получится.👍
Он стримит по хардкору и делает это по 6 часов в день с одной целью: вайб-кодингом довести приложение до $1,000,000
Самый интересный человек, которого я видел за последнее время. Надеюсь, у него всё получится.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Нашёл клад, а там этот skill: который лечит Cursor/Claude от типичного “AI-вайба” в интерфейсах.
Когда пишешь код с AI, то UI получается один и тот же: фиолетово-розовый градиент, шрифт😯
Этот oпенсорс проект просто упаковал базу знаний профессиональных UI-дизайнеров:
57 UI-стилей (glassmorphism, clay, минимализм, брутализм и т.д.)
95 наборов отраслевых цветовых схем
56 комбинаций шрифтов
100 дизайн-правил для разных индустрий
Поддерживает Cursor, Claude Code, Windsurf, Copilot, Kiro и почти все популярные AI-инструменты для программирования.
Установка одной командой:
Дальше просто пишешь
Когда пишешь код с AI, то UI получается один и тот же: фиолетово-розовый градиент, шрифт
Inter и белый фон, классический набор из трёх пунктов. Этот oпенсорс проект просто упаковал базу знаний профессиональных UI-дизайнеров:
57 UI-стилей (glassmorphism, clay, минимализм, брутализм и т.д.)
95 наборов отраслевых цветовых схем
56 комбинаций шрифтов
100 дизайн-правил для разных индустрий
Поддерживает Cursor, Claude Code, Windsurf, Copilot, Kiro и почти все популярные AI-инструменты для программирования.
Установка одной командой:
# Install CLI globally
npm install -g uipro-cli
# Go to your project
cd /path/to/your/project
# Install for your AI assistant
uipro init --ai claude # Claude Code
uipro init --ai cursor # Cursor
uipro init --ai windsurf # Windsurf
uipro init --ai antigravity # Antigravity (.agent + .shared)
uipro init --ai copilot # GitHub Copilot
uipro init --ai kiro # Kiro
uipro init --ai codex # Codex CLI
uipro init --ai qoder # Qoder
uipro init --ai roocode # Roo Code
uipro init --ai gemini # Gemini CLI
uipro init --ai trae # Trae
uipro init --ai all # All assistants
Дальше просто пишешь
/ui-ux-pro-max помоги сделать SaaS-лендинг и готово.Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Задеплой любую ML-модель как MCP-сервер.
LitServe: самый простой способ выкатывать агентов, RAG и вообще любые ML-модели. Теперь есть поддержка MCP.
Полностью open-source.
LitServe: самый простой способ выкатывать агентов, RAG и вообще любые ML-модели. Теперь есть поддержка MCP.
Полностью open-source.
Media is too big
VIEW IN TELEGRAM
Новый релиз: Agents API. Запускай Blackbox CLI, Claude Code, Codex CLI, Gemini CLI и других агентов на удалённых VM, которые работают на vercel sandboxes, с одной единственной реализацией API.
agent.blackbox.ai/overview — начать можно здесь.
agent.blackbox.ai/overview — начать можно здесь.
This media is not supported in your browser
VIEW IN TELEGRAM
как работает мой код, написанный полностью с помощью Claude Code
Представили GLM-4.7-Flash: локальный ассистент для кодинга и агент-сценариев.
Для класса 30B модель задает новую планку: GLM-4.7-Flash держит баланс между производительностью и эффективностью, поэтому отлично подходит как легковесный вариант для деплоя. И это не только про код: ее также рекомендуют для креативного письма, перевода, задач с длинным контекстом и roleplay.
Веса: https://huggingface.co/zai-org/GLM-4.7-Flash
API: https://docs.z.ai/guides/overview/pricing
* GLM-4.7-Flash: бесплатно (1 одновременный запрос / 1 concurrency)
* GLM-4.7-FlashX: высокоскоростной и доступный по цене вариант
Для класса 30B модель задает новую планку: GLM-4.7-Flash держит баланс между производительностью и эффективностью, поэтому отлично подходит как легковесный вариант для деплоя. И это не только про код: ее также рекомендуют для креативного письма, перевода, задач с длинным контекстом и roleplay.
Веса: https://huggingface.co/zai-org/GLM-4.7-Flash
API: https://docs.z.ai/guides/overview/pricing
* GLM-4.7-Flash: бесплатно (1 одновременный запрос / 1 concurrency)
* GLM-4.7-FlashX: высокоскоростной и доступный по цене вариант
Очень удобно, что Википедия взяла и собрала подробный список "признаков AI-текста".
Настолько удобно, что можно просто сказать своей LLM: ... не делай так.
Чувак попросил Claude Code прочитать эту статью и сделать скилл, который избегает вообще всех этих признаков.
Наслаждайтесь: исходники
Настолько удобно, что можно просто сказать своей LLM: ... не делай так.
Чувак попросил Claude Code прочитать эту статью и сделать скилл, который избегает вообще всех этих признаков.
Наслаждайтесь: исходники
GitHub
GitHub - blader/humanizer: Claude Code skill that removes signs of AI-generated writing from text
Claude Code skill that removes signs of AI-generated writing from text - blader/humanizer
3
Copilot CLI вернулись с новыми апдейтами и улучшениями 🙌
Зацени:
✅ Новые модели и более простой менеджмент моделей
✅ Встроенные кастомные агенты
✅ Новые способы установки
✅ Автоматизация и скриптинг
✅ Управление контекстом
✅ Улучшенный UX в терминале
✅ Контроль веб-доступа
Зацени:
Please open Telegram to view this post
VIEW IN TELEGRAM
The GitHub Blog
GitHub Copilot CLI: Enhanced agents, context management, and new ways to install - GitHub Changelog
As we wrapped up 2025 and rang in 2026, we’ve continued to deliver new ways of working with agents in GitHub Copilot CLI while improving the terminal-native experience for all…
Вау: если хочешь, чтобы агент делал браузерное тестирование, попробуй agent-browser.
Новая версия с обновленным SKILL реально быстрая и очень экономит токены.
Скажи своему агенту вот так:
Установи/обнови agent-browser и обнови мой skill-файл:
https://github.com/vercel-labs/agent-browser/
Новая версия с обновленным SKILL реально быстрая и очень экономит токены.
Скажи своему агенту вот так:
Установи/обнови agent-browser и обнови мой skill-файл:
https://github.com/vercel-labs/agent-browser/
GitHub
GitHub - vercel-labs/agent-browser: Browser automation CLI for AI agents
Browser automation CLI for AI agents. Contribute to vercel-labs/agent-browser development by creating an account on GitHub.
God проект: xyOps это система нового поколения для ворк-автоматизации и мониторинга серверов. 😱
Если по-простому: это ультимативный комбайн, где в одном котле смешали планирование заданий, автоматизацию воркфлоу, мониторинг, алерты и реакцию на инциденты.
Большинство “автоматизационных платформ” на рынке умеют тупо гонять задачи, как скрипт, который только выполняет команды. xyOps не про это. Он связывает задачи с мониторингом в реальном времени, алертингом, снапшотами, тикетами и инцидент-менеджментом в один цельный конвейер.
#️⃣ Вот исходники
Если по-простому: это ультимативный комбайн, где в одном котле смешали планирование заданий, автоматизацию воркфлоу, мониторинг, алерты и реакцию на инциденты.
Большинство “автоматизационных платформ” на рынке умеют тупо гонять задачи, как скрипт, который только выполняет команды. xyOps не про это. Он связывает задачи с мониторингом в реальном времени, алертингом, снапшотами, тикетами и инцидент-менеджментом в один цельный конвейер.
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Релиз LFM2.5-1.2B-Thinking, reasoning-модель, которая полностью работает on-device. То, для чего два года назад нужен был дата-центр, теперь запускается на любом телефоне с 900 МБ памяти.
> Обучена специально под лаконичное рассуждение
> Генерирует внутренние thinking traces перед тем, как выдать ответ
> Дает возможность системно решать задачи с edge-scale задержками
> Сильно проявляет себя в tool use, математике и следовании инструкциям
По сравнению с LFM2.5-1.2B-Instruct, три способности заметно вырастают:
> Математическое рассуждение: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Tool use: 49 → 57 (BFCLv3)
Несмотря на то, что параметров на 40% меньше, она догоняет или превосходит Qwen3-1.7B (thinking mode) на большинстве бенчмарков производительности, при этом требует меньше output токенов и меньше вычисления во время тестирования.
На inference разрыв становится еще больше.
LFM2.5-1.2B-Thinking обгоняет как чистые трансформеры (например, Qwen3-1.7B), так и гибридные архитектуры (например, Granite-4.0-H-1B) и по скорости, и по эффективности памяти.
FM2.5-1.2B-Thinking доступна уже сегодня с широкой поддержкой с первого дня по всей on-device экосистеме.
Hugging Face, LEAP, Liquid Playground
> Обучена специально под лаконичное рассуждение
> Генерирует внутренние thinking traces перед тем, как выдать ответ
> Дает возможность системно решать задачи с edge-scale задержками
> Сильно проявляет себя в tool use, математике и следовании инструкциям
По сравнению с LFM2.5-1.2B-Instruct, три способности заметно вырастают:
> Математическое рассуждение: 63 → 88 (MATH-500)
> Следование инструкциям: 61 → 69 (Multi-IF)
> Tool use: 49 → 57 (BFCLv3)
Несмотря на то, что параметров на 40% меньше, она догоняет или превосходит Qwen3-1.7B (thinking mode) на большинстве бенчмарков производительности, при этом требует меньше output токенов и меньше вычисления во время тестирования.
На inference разрыв становится еще больше.
LFM2.5-1.2B-Thinking обгоняет как чистые трансформеры (например, Qwen3-1.7B), так и гибридные архитектуры (например, Granite-4.0-H-1B) и по скорости, и по эффективности памяти.
FM2.5-1.2B-Thinking доступна уже сегодня с широкой поддержкой с первого дня по всей on-device экосистеме.
Hugging Face, LEAP, Liquid Playground
1
This media is not supported in your browser
VIEW IN TELEGRAM
Вайбкодим по геймерски: Vibecraft теперь полностью с открытым исходным кодом
Это оболочка для Claude Code, она помогает запускать и контролировать твои локальные сессии Claude Code более наглядно
Проект добавляет визуализации и анимации, чтобы было понятно, чем сейчас занят агент, а еще есть пространственный звук: можно буквально слышать, где “находится” Claude (слева, справа, сзади) и быстрее ловить контекст, не залипая в окна.
Самое важное про приватность: Vibecraft работает с твоими локальными инстансами Claude Code, и никакие файлы или промпты наружу не уходят.🥺
Demo: https://vibecraft.sh
Это оболочка для Claude Code, она помогает запускать и контролировать твои локальные сессии Claude Code более наглядно
Проект добавляет визуализации и анимации, чтобы было понятно, чем сейчас занят агент, а еще есть пространственный звук: можно буквально слышать, где “находится” Claude (слева, справа, сзади) и быстрее ловить контекст, не залипая в окна.
Самое важное про приватность: Vibecraft работает с твоими локальными инстансами Claude Code, и никакие файлы или промпты наружу не уходят.
Demo: https://vibecraft.sh
Please open Telegram to view this post
VIEW IN TELEGRAM
1
Добавь в закладки: Threejs Skills для Claude Code, чтобы делать 3D элементы для веб-дизайна
Дает Claude Code базовый уровень знаний по Three.js.
10 skill-файлов: настройка сцены, шейдеры, анимации, постпроцессинг.
Claude Code будет понимать, как рулить Three.js, не раздувая контекст.
Установка попроще через:
Исходники
Дает Claude Code базовый уровень знаний по Three.js.
10 skill-файлов: настройка сцены, шейдеры, анимации, постпроцессинг.
Claude Code будет понимать, как рулить Three.js, не раздувая контекст.
Установка попроще через:
npx skills add CloudAI-X/threejs-skillsИсходники
GitHub
GitHub - CloudAI-X/threejs-skills
Contribute to CloudAI-X/threejs-skills development by creating an account on GitHub.
Набор skills, которые превращают Claude в гения маркетинга и копирайтинга: исходники
Как поставить :
Альтернативно: через Claude Code plugin (
Как поставить :
# все skills
npx add-skill coreyhaines31/marketingskills
# выбрать конкретные
npx add-skill coreyhaines31/marketingskills --skill page-cro copywriting
# посмотреть список
npx add-skill coreyhaines31/marketingskills --list
Альтернативно: через Claude Code plugin (
/plugin marketplace add ... → /plugin install marketing-skills) или просто склонировать и скопировать папку skills/This media is not supported in your browser
VIEW IN TELEGRAM
«Достигнут лимит использования Claude. Ваш лимит будет сброшен в 7 утра».