Вайб-кодинг
28.5K subscribers
1.58K photos
563 videos
30 files
799 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.iss.one/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Гений закрыл серьёзную слепую зону в недавно вышедшем skill для fine-tuning от HuggingFace

HuggingFace выпустили skill, который можно подключить к Claude или любому кодинг-агенту, и он позволяет дообучать open-source LLM-ки на обычном тексте.

Агент сам делает выбор GPU, сабмитит джобу, мониторит прогресс и пушит готовую модель на Hub.

Но есть нюанс.

Он предполагает, что у тебя уже есть чистый датасет на HuggingFace Hub.

А в реальности данные, на которых чаще всего хочется дообучаться, живут в Twitter, LinkedIn, Reddit, Amazon и на других платформах за антибот-защитой.

Поэтому гений интегрировал Bright Data Web MCP в этот skill, чтобы кодинг-агент мог собирать данные из веба перед тем, как запускать обучение:

- Скрапить данные с платформ вроде YouTube, Amazon или Reddit, при этом CAPTCHA и антибот-системы обрабатываются автоматически.
- Преобразовывать собранный контент в датасет для fine-tuning в нужном формате.
- Валидировать датасет, подобрать GPU-железо и отправить training job в HuggingFace.
- Следить за ходом обучения и пушить готовую модель на Hub.

С этим обновлением теперь можно сказать Claude что-то вроде:
"Собери топ-500 обсуждений про Python с Reddit, конвертни их в instruction-response пары и дообучи Qwen3-0.6B на этом датасете через SFT."

И агент дальше сам сделает сбор данных, форматирование, обучение и деплой в одном пайплайне.

Оригинальный skill от HuggingFace отлично закрывал часть с обучением, её и не трогали.

Чувак просто добавил недостающий слой сбора данных через Bright Data MCP, который поддерживает 60+ web data tools для 40+ платформ.

Почему именно Bright Data?

Агентам в вебе часто прилетают IP-блокировки и CAPTCHA. Bright Data берёт это на себя за кулисами.

Это позволяет масштабировать скрейпинг без постоянных блоков, симулировать действия реального пользователя на сложных сайтах и работать как с real-time, так и с историческими данными с 40+ платформ.

100% опенсорс 💼
Please open Telegram to view this post
VIEW IN TELEGRAM
Alibaba выкатили для комьюнити AI-агентов бесплатную прод-песочницу.

OpenSandbox это фулл-стэк платформа, чтобы безопасно гонять недоверенный код агента:

- единые API + SDK под разные языки
- рантаймы на Docker и Kubernetes, заточенные под агент-сценарии
- автоматизация браузера, десктоп (в стиле VS Code) и изоляция сети из коробки
- рассчитано на код-агентов, GUI агентов, оценку агентов и вообще любые задачи, где надо запускать код в изоляции

Это не пет-проект, а опенсорс от Alibaba. На GitHub сейчас около 2.5k звёзд (цифра, естественно, быстро меняется).

Короче, безопасную инфраструктуру под агентов, которую обычно пришлось бы пилить самому, тут просто отдают готовой. 😊
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Ollama теперь умеет запускать сабагентов в OpenCode.

Можно распараллеливать задачи, которым нужен более длинный контекст: ресёрч, рефакторинг и код-ревью.

ollama launch opencode
Тут подогнали опенсорсный веб-интерфейс для OpenClaw : ChatClaw 🤙

- WebSocket напрямую к Gateway: стриминг ответов, несколько сессий, Markdown и подсветка кода.
- Чистый фронт без бэка: API-ключи и история чатов полностью хранятся локально (Dexie.js), данные вообще не уходят с устройства.
- Сделано на Next.js 16 + Tailwind + shadcn/ui, адаптив под разные экраны.
- Воссоздаёт минималистичный UI как у Claude, есть переключение светлая/тёмная тема и экспорт истории/конфигов.

ИСХОДНИКИ
Please open Telegram to view this post
VIEW IN TELEGRAM
2
Коллеги, кто до сих пор не выкупил, что умеет OpenClaw, лучше просто идите и форкните этот GitHub.

Автор собрал 30+ приземленных кейсов. Про шаблоны, которые можно взять и запустить. Обычному человеку достаточно подставить свой контент, и уже будет работать.

Какие есть практичные кейсы?

- Автоматически собирать и кратко суммировать самое годное из твоих любимых сабреддитов на Reddit
- Тянуть свежие видео с YouTube-канала и делать по ним саммари
- Агрегировать RSS / X / GitHub / и вообще тех. новости со всего интернета
- Помогать с маркет-ресерчем
- И даже прогонять весь пайплайн разработки игры

Много полезных кейсов. 👃
Please open Telegram to view this post
VIEW IN TELEGRAM
AGENTS.md-файлы не масштабируются дальше умеренных кодовых баз.

В последнее время об этом много спорят.

Если ты делаешь серьезный софт с Claude Code или любым агентным инструментом, один-единственный AGENTS.md в какой-то момент тебя подведет. Эта статья показывает, что идет дальше.

Прототип на 1 000 строк можно целиком описать одним промптом. Система на 100 000 строк так не работает. ИИ нужно снова и снова, надежно и последовательно, объяснять: как устроен проект, каким паттернам следовать и каких ошибок избегать.

Однофайловые манифесты очень быстро упираются в потолок.

В новой статье Codified Context описана трехуровневая инфраструктура, собранная в ходе реальной разработки распределенной C#-системы на 108 000 строк кода: 283 сессии за 70 дней.

Система использует трехуровневую архитектуру памяти:

- конституция горячей памяти (660 строк, всегда загружается)
- 19 специализированных доменных агент-экспертов (в сумме 9 300 строк), которые вызываются под конкретные задачи
- база знаний холодной памяти из 34 спецификаций (~16 250 строк), по которой делают запросы по требованию через MCP retrieval-сервер

За 283 сессии это дало 2 801 человеческий промпт, 1 197 вызовов агентов и 16 522 автономных хода агента, примерно по 6 автономных ходов на один человеческий промпт, при соотношении knowledge-to-code 24,2%.

Ключевой момент: ничего не проектировали заранее. Каждый новый агент и каждая спецификация появлялись из реального фейла: повторяющегося бага, архитектурной ошибки, забытой договоренности. Это фиксировали так, чтобы больше никогда не приходилось заново объяснять одно и то же, превращая документацию в опорную инфраструктуру, от которой агенты зависят как от памяти, а не как от справочника.

Кому интересно: https://arxiv.org/abs/2602.20478 👃
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
На Hacker News сейчас в топе вот эта статья: https://mksg.lu/blog/context-mode

Рекомендую глянуть, автор придумал подход Context Mode, чтобы экономить токены контекста.

Когда дергаешь MCP, вызов инструмента жрет контекст с двух сторон: и вход, и выход тратят токены.

Решение автора: Context Mode.

Он добавляет прослойку между Claude Code и выводом внешних инструментов. Главная цель: не пускать сырые большие куски данных в контекстное окно. За счет этого можно получить до 98% экономии контекста.

Как это работает:

1. Песочница и изоляция выполнения. Каждый вызов инструмента крутится в отдельном подпроцессе, есть поддержка 10 рантаймов (JS, Python и т.д.). В контекст возвращается только результат из stdout, а исходный объемный вывод остается внутри песочницы и не попадает в контекст.

2. База знаний + сжатый вывод. Markdown-контент индексируется через SQLite FTS5 virtual table + BM25 ranking + Porter stemming. Когда модели нужно, она точечно вытягивает нужные блоки кода, вместо того чтобы пихать в контекст резюме или весь текст целиком.

Данные из тестов автора:

➡️Playwright snapshot: 56 KB -> 299 B
➡️20 GitHub Issue: 59 KB -> 1.1 KB
➡️500 access logs: 45 KB -> 155 B
➡️Анализ CSV на 500 строк: 85 KB -> 222 B
➡️153 git commit logs: 11.6 KB -> 107 B

По идее очень похоже на то, что Cloudflare раньше выпускали как Code Mode.

100% опенсорс 👋
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenClaw получил нечестное преимущество над всеми остальными AI-агентами

Теперь он умеет использовать Scrapling, чтобы скрейпить любые сайты и не отлетать на Cloudflare. И тебе не нужно поддерживать селекторы, когда сайт обновляет структуру.

- В 774 раза быстрее, чем BeautifulSoup.
- Нулевое детектирование бота.
- Нативно обходит ВСЕ защиты Cloudflare.

Полностью open source (100%). 🎸
Please open Telegram to view this post
VIEW IN TELEGRAM
Похоже, GPT-5.4 уже вот-вот.

По слухам, там будет контекст примерно на 2 млн токенов, реальное персистентное состояние между сессиями и переработанная архитектура памяти, заточенная под автономных агентов.

Если это правда, то это полноценная смена поколения, которая может за ночь перезапустить всю гонку ИИ. 😳
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Запустить несколько headless-инстансов под скрейпинг/тесты/автоматизацию легко.

А вот поднимать их, следить за жизненным циклом, нормально гасить и чистить ресурсы не очень. Всё расползается в набор разрозненных скриптов.

А что если был бы простой отдельный инструмент ровно под эту задачу? 💓

Знакомься, Pinchtab это легковесный Go-бинарник (12 МБ), который запускает Chrome и поднимает простой HTTP API. Любой агент или скрипт может через него ходить по страницам, быстро читать текст, интерактивно кликать/вводить и сохранять сессии. Ноль конфигурации, без привязки к фреймворкам, экономит токены.

Pinchtab это пакет для Node.js.

Установка:

npm install pinchtab


Дальше пример, поднимаем “флот” браузеров.

const { Pinchtab } = require('pinchtab');

const orchestrator = new Pinchtab();
// Запускаем 3 headless-инстанса Chrome
const fleet = await orchestrator.launch(3);

// fleet содержит данные для подключения (например WS endpoints) для каждого инстанса
console.log(fleet);

// Потом аккуратно гасим весь флот
await orchestrator.destroy();


За деталями, расширенной конфигурацией и CLI проще всего идти в репозиторий GitHub, там все расписано.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
AI-агент, который управляет телефоном через обычный текст 💖

Один разработчик выложил в опенсорс проект PhoneDriver. Он работает на визуальной модели Qwen3-VL, умеет понимать, что на экране телефона, и имитировать действия человека.

Достаточно просто описать задачу, например: "Открой настройки и включи Wi-Fi". Модель сама анализирует элементы интерфейса и через команды ADB выполняет клики, свайпы или ввод текста.

Есть визуальный веб-интерфейс: можно в реальном времени смотреть скриншоты с телефона и логи выполнения.

Также поддерживается автоопределение разрешения экрана, плюс можно настраивать параметры модели, задержку действий, число ретраев и т.д.

Для деплоя в основном нужны Python и окружение ADB. Ещё нужна видеокарта с достаточным объёмом VRAM, чтобы тянуть 4B или 8B визуальную модель, а на телефоне должен быть включён USB Debugging.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
🪖🪖🪖
Please open Telegram to view this post
VIEW IN TELEGRAM
6
This media is not supported in your browser
VIEW IN TELEGRAM
Voice mode наконец-то выкатывают в Claude Code. Сегодня он уже доступен примерно для 5% пользователей, и дальше будут постепенно расширять rollout в ближайшие недели.

Когда у тебя появится доступ, на welcome-экране будет заметка. Включается и выключается командой /voice.

Как пользоваться voice mode: зажимаешь пробел, говоришь, отпускаешь. По сути, push-to-talk.

Транскрипт стримится прямо в позицию курсора. Можно набрать половину промпта руками, надиктовать грязную середину голосом, потом дописать. То, что уже набрано, он не заменяет.

За voice mode доплачивать не нужно, и токены за транскрибацию голоса не учитываются в твоих rate limits.

Доступно на планах Pro, Max, Team и Enterprise, раскатывают волнами.
This media is not supported in your browser
VIEW IN TELEGRAM
Когда Text-to-SQL не работает, мы обычно валим всё на LLM или на кривой промптинг.

Но настоящая проблема чаще всего в схеме.

Объясняю:

Ты спрашиваешь: “Какие издатели получали роялти-платежи больше $5,000?”

Векторный поиск подтягивает "publisher" и "royalty_ledger".

Но он пропускает "vendor_agreement" — таблицу-мост, которая их связывает.

В итоге LLM пишет валидный SQL, который возвращает пусто.

Вот почему векторы сыпятся на реальных enterprise-схемах.

Они матчят названия.

Они не умеют находить пути для join-ов.

А пути уже описаны во внешних ключах.

Именно эту дыру закрывает QueryWeaver.

Это open-source инструмент от FalkorDB.

QueryWeaver превращает твою схему в граф.

- Таблицы это узлы.
- Внешние ключи это рёбра.

Потом он проходит по пути и автоматически добавляет промежуточные таблицы-мосты.

Спокойно тянет multi-hop цепочки.

Его гоняли на BIRD Benchmark на базе “superhero ” БД, расширенной до 60 таблиц: он разрулил запрос на 5 hop-ов, простроив цепочку через:

superpower → capability_matrix → stakeholder_registry → resource_requisition → budget_allocation

Можно запустить локально:

id="6b6prn"
docker run -p 5000:5000 -it falkordb/queryweaver


исходники тут
Анатомия промпта для Claude 4.6

1. Задача (Task)

Определи, чего ты хочешь, и как выглядит успех:
"Я хочу [TASK], чтобы [SUCCESS CRITERIA]."
Без ролей типа "веди себя как сеньор-эксперт".

2. Контекстные файлы (Context Files)

Загрузи контекстные файлы со своей экспертизой и правилами:
"Сначала прочитай эти файлы полностью перед тем, как отвечать: [filename .md] - [что внутри]."
ИИ вырос. Не нужно объяснять все в промпте. Вынеси это в файлы.

3. Референс (Reference)

Покажи ИИ ровно то, что ты хочешь. Загрузи пример.
Потом задай паттерны, тон и структуру как правила. Без "сделай что-то похожее" и надежды, что ИИ сам догадается.

4. Краткое ТЗ (Brief)

Это единственная часть, которую вы набираете с нуля. Все остальное это файлы.
"Тип вывода + длина. Чего НЕ должно быть по звучанию. Что значит успех."

5. Правила (Rules)

Контекстный файл хранит твои стандарты, вкус и аудиторию.
Промпт: "Прочитай его полностью перед стартом. Если ты собираешься нарушить одно из моих правил, остановись и скажи мне."

6. Диалог (Conversation)

Мы 3 года промптили ИИ. Теперь он промптит нас.
Промпт: "НЕ начинай выполнять задачу. Задай мне уточняющие вопросы (используй инструмент 'AskUserQuestion'), чтобы мы вместе пошагово уточнили подход."

7. План (Plan)

Claude прочитал твои файлы до того, как написал хоть слово.
Промпт: "Перед тем как что-то писать, перечисли 3 правила из моего контекстного файла, которые важнее всего для этой задачи. Потом дай план выполнения."

8. Выравнивание целей (Alignment)

Ничего не происходит, пока вы оба не видите одну и ту же цель. Это заменяет старую эпоху промптинга.
Промпт: "Начинай работу только после того, как мы согласуемся."
14
Кто-то собрал полноценный клон Perplexity, который работает на 100% локально и стоит $0.

Называется Perplexica. 🤙

→ real-time поиск по вебу
→ Даёт ссылки на все источники, которые использует
→ Работает с локальными моделями через Ollama
→ Несколько режимов поиска (обычный, академический, YouTube, Reddit, writing)
→ Ноль затрат на API. Ноль сбора данных.

29K звёзд. Лицензия MIT.

100% opensourse
Please open Telegram to view this post
VIEW IN TELEGRAM
8
OpenClaw cовет:

Твои агенты могут тебе врать.

Они скажут "уже делаю!" и даже не начнут. Скажут "готово!" а там ничего не готово. Скажут "собираю прямо сейчас" и при этом вообще ничего не запущено 🤡

Вот что я добавил в инструкции каждому агенту:

Never say 'done' or 'working on it' unless the action has actually started. Every status update must include proof — a process ID, file path, URL, or command output. No proof = didn't happen. A false completion is worse than a delayed honest answer.


Теперь если мне говорят, что что-то билдится, это выглядит вот так:
Please open Telegram to view this post
VIEW IN TELEGRAM
2
This media is not supported in your browser
VIEW IN TELEGRAM
🚬 Software инженеры это вам: я нашел open-source агент для мониторинга ошибок, который сканирует продовые логи, находит первопричину и шлет сообщение в Slack со всем контекстом еще до того, как ты вообще заметишь, что что-то сломалось.

Сокращает простой в проде на 95%

Как это работает:

1. Забирает сырые ошибки из Sentry или Azure Log Analytics
2. Семантически группирует их по первопричине (20 ошибок превращаются примерно в 4 реальные проблемы)
3. Ищет в GitHub конкретные файлы кода, которые задействованы
4. Проверяет Linear на существующие тикеты, чтобы не плодить дубликаты
5. Пробегается по Slack в поиске прошлых обсуждений похожих инцидентов
6. Определяет критичность (S1-S4) и решает, алертить или подавлять
7. Отправляет в Slack обогащенные алерты со ссылками на код, статусом тикета и уровнем критичности

Агент можно гонять в проде как cron job каждые 5 минут.

Он построен поверх Airweave AI, это open-source слой для контекстного retrieval, который делает все инструменты семантически поисковыми для агентов.

Ключевая мысль: обычные тулзы мониторинга ошибок дают алерты, но не дают контекст. Airweave закрывает эту дыру, делая все инструменты и кодовые базы семантически доступными для поиска агентами.

Он подключается к 50+ источникам (GitHub, Linear, Slack, базы данных и т.д.) и дает агентам возможность искать по всем сразу одним запросом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Профессор Дональд Кнут начал свою новую статью словами: "Шок! Шок!" 😨😨

Claude Opus 4.6 только что решил открытую задачу, над которой Кнут работал неделями, гипотезу о разложении графа из его книги The Art of Computer Programming.

Он назвал статью "Claude Cycles".

31 попытка. Примерно 1 час. Кнут прочитал вывод модели, оформил формальное доказательство и закончил так: "Похоже, однажды мне все-таки придется пересмотреть свое мнение о генеративном ИИ."

Человек, который написал библию computer science, только что это сказал. В статье, названной в честь ИИ.

Статья, кому интересно: https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Gemini 3.1 Flash-Lite уже вышел. 😨😨

Это самая экономичная по цене модель в линейке Gemini 3, заточенная под интеллект в масштабе.

За счет роста скорости вывода на 45% она обходит 2.5 Flash и поддерживает динамические уровни размышления под сложность задачи.

Gemini 3 Flash-Lite в цифрах:

- 1432 Elo в лидерборде arena
- 86.9% на GPQA Diamond (научные знания)
- 76.8% на MMMU Pro (мультимодальное рассуждение)

Цена $0.25 за 1M входных токенов и $1.50 за 1M выходных токенов.

Gemini 3.1 Flash-Lite выкатывается в превью для разработчиков и компаний через Gemini API в Google AI Studio и Vertex AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM