Вайб-кодинг
28.5K subscribers
1.58K photos
563 videos
30 files
799 links
Авторский канал по ВАЙБ КОДИНГУ

Ссылка для друзей: https://t.iss.one/+ll3pbl442dNkZmYy

Связь: @devmangx
По контенту: @codingpepe

РКН: https://clck.ru/3RRVfk
Download Telegram
Hugging Face выкатили плагин, который превращает Claude Code, Gemini и Cursor в полноценных ML-инженеров.

Называется HF Skills, и он полностью бесплатный.

Одна команда, и твой AI-агент сможет:

→ Дообучать LLM через SFT, DPO или GRPO, с встроенным выбором железа и оценкой стоимости
→ Создавать и трансформировать датасеты через SQL-запросы
→ Автоматически подтягивать актуальные benchmark-оценки из Artificial Analysis API
→ Публиковать вашу arXiv-статью в HF Hub и за один проход связывать ее с вашей моделью
→ Мониторить training runs в реальном времени через дашборды, синхронизированные с HF Spaces

Архитектура предельно простая.

Каждый скилл это папка с файлом SKILL.md. Агент читает его и сразу понимает, как обрабатывать сложные ML-воркфлоу, с которыми раньше вообще не умел работать.

Совместимо со всем: Claude Code, OpenAI Codex, Gemini CLI, Cursor.

Установка занимает 10 секунд:

/plugin install hugging-face-cli@huggingface/skills

Дальше просто общаетесь как обычно:

"Оцени GPU memory для fine-tune модели на 70B."
"Стримь новые строки в мой датасет."
"Свяжи мою статью с моей model card."

2.1K звезд. Apache 2.0. 👜
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Новое: добавь markdown.new перед любым URL и получишь чистый Markdown на выходе.

Cloudflare Markdown for Agents классный, но работает только для сайтов, где это включено. markdown.new работает с ЛЮБЫМ сайтом в интернете.

На 80% меньше токенов. Бесплатно и без регистрации.

Ещё вчера добавили фичу: File to Markdown

Можно загрузить любой файл:

- PDF, DOCX, ODT
- Excel, Numbers, CSV
- Изображения (OCR + саммаризация на базе AI)

API тоже есть, ключ не нужен.

Подробнее: markdown.new/file-to-markdown
Please open Telegram to view this post
VIEW IN TELEGRAM
1
В копилку скиллов : skill для draw.io в Claude Code.

Описываешь диаграмму, получаешь редактируемый PDF, PNG или SVG. В каждый файл встраивается полный XML от draw.io, так что его можно в любой момент заново открыть и отредактировать.

Исходники 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Remote Control теперь официально в Claude Code от Anthropic

С помощью её можно запускать локальные сессии из терминала, а потом продолжать их с телефона. Можно выйти прогуляться, увидеть солнце, выгулять собаку и не выпадать из потока. ❤️

Сейчас идет постепенный rollout для пользователей Max в режиме research preview. Попробовать можно через /remote-control.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤️ Мем дня: Claude Sonnet 4.6 задали вопрос на китайском:

«你是什么模型?» (Что ты за модель?)

А она уверенно ответила:

«我是 DeepSeek.» (Я DeepSeek)

Спросили на французском:
nom du modèle (название модели?)

А в ответ: ChatGPT

😅

Забавно, то, что они недавно обвинили DeepSeek в «industrial-scale distillation attacks».
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Кто-то сделал расширение для VS Code, которое превращает твоих AI-агентов в пиксельных персонажей.

Они работают в виртуальном офисе прямо в сайдбаре и ходят там, пока занимаются твоим кодом.

100% опенсорс ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
5
😂😂😂
Please open Telegram to view this post
VIEW IN TELEGRAM
14
This media is not supported in your browser
VIEW IN TELEGRAM
Находка дня: Nimble skill 💃

Этот скилл возвращает структурированные данные, разложенные по таблицам, с которыми можно сразу работать.

Например:

Попроси Claude Code найти все аренды 2-комнатных квартир в конкретном районе, опубликованные за последние 48 часов, вытащить цену, метраж и URL объявления с нескольких сайтов, и выгрузить все в таблицу.

В итоге ты получишь таблицу, где данные нормализованы между разными источниками.

Он ищет в реальном времени и возвращает структурированный результат.

Он умеет разбирать самые разные сайты, включая те, где контент рендерится на клиенте через JavaScript.

Если ты собираешь агентов, которым нужны веб-данные, этот скилл прям 10/10.

Вот ссылка на сам скилл, а как это работает, смотри в их документации
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Perplexity завезли новую фичу: Perplexity Computer. 🤙

Computer объединяет все актуальные возможности ИИ в одну систему: ресерч, дизайн, код, деплой и ведение проекта end-to-end.

Ключевое, то что это мульти-модельная система. Computer запускает саб-агентов параллельно и подбирает под каждую задачу наиболее подходящую модель (в т.ч. через Opus). Всего роутит работу между 19 моделями.

Плюсом Computer персонализирован под тебя, помнит твою прошлую работу и по умолчанию безопасен. Есть сотни коннекторов, персистентная память, файлы и доступ к вебу, и всё это поверх инфраструктуры Perplexity.

Модель оплаты: по факту использования, с опциональным выбором модели для саб-агентов и лимитами расходов.

Можно выбирать разные модели для разных задач саб-агентов и контролировать расход токенов.

Пользователи Max получают 10 000 кредитов в месяц, включенных в подписку.

Также выдают разовый бонус 20 000 дополнительных кредитов: его начислят при запуске текущим пользователям и при регистрации новым. Бонус сгорает через 30 дней после начисления.

Доступно в веб-версии для подписчиков Max уже сегодня, а скоро появится и для Perplexity Pro и Enterprise.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Один гений навайбкодил 3D-город, где каждый разработчик на GitHub это здание.

Чем больше коммитов, тем выше здание.

Чем больше репозиториев, тем шире основание.

Светящиеся окна это недавняя активность.

100% опенсорс

😱😱😱
Please open Telegram to view this post
VIEW IN TELEGRAM
7
Пора переосмыслить то, как мы строим agent skills, а именно перестать лепить их как документацию для людей, так как это жрет токены и провоцирует галлюцинации.

Вот сжатый набор ключевых best practices (чтение меньше 5 минут), который поможет нам писать skills лучше.

Зацени: https://github.com/mgechev/skills-best-practices 📰
Please open Telegram to view this post
VIEW IN TELEGRAM
Благодарность от Антропиков: Claude Max за их счёт

Они объявили о раздаче 6 месяцев бесплатного Claude Max 20x мейнтейнерам и core-контрибьюторам open source.

Условия: вы основной мейнтейнер или участник core-команды публичного репозитория с 5 000+ звездами на GitHub или 1M+ месячных скачиваний в NPM. За последние 3 месяца у вас были коммиты, релизы или ревью PR.

Если вы поддерживаете штуку, от которой экосистема тоже зависит, все равно подавайтесь и расскажите про нее.

Подать заявку ❤️
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Исследователи задали Claude простой вопрос: "Я хочу помыть машину. Автомойка в 100 метрах. Мне идти пешком или ехать?"

Claude ответил: идти пешком.

Все крупные LLM ответили: идти пешком.

Правильный ответ: ехать.

Машина должна оказаться на мойке. И вот что самое дикое: в модели не поменялось вообще ничего. Поменялась только архитектура промпта.

Исследователи прогнали чистое исследование с изоляцией переменных на Claude Sonnet 4.5. Голый промпт? 0% правильных.

Добавили аккуратно оформленную роль эксперта? Всё ещё 0%.

Впрыснули подробный физический контекст типа модели машины, где стоит на подъездной, как припаркована? 30%.

Но когда они заставили модель использовать структурированный фреймворк рассуждений STAR, где нужно явно прописать Situation, Task, Action и Result, точность прыгнула до 85%. Если совместить STAR с профайл-данными, получалось 95%. Добавили сверху RAG и дошли до 100%.

Ключевой механизм сидит внутри шага "Task".

Без структуры модель цепляется за эвристику по расстоянию: "100 метров близко, значит иди", и вообще не обрабатывает реальную цель. А когда её вынуждают сформулировать задачу как "доставить машину на автомойку", скрытое физическое ограничение становится явным прямо в контекстном окне.

Знание у модели уже было. Её просто не заставляли вытащить это знание наружу до того, как она выдаст вывод.

Самый неприятный результат вот какой: структурированное рассуждение обогнало простую накачку контекстом в 2,83 раза.

Больше фактов почти не помогало. Помогали нормальные когнитивные подпорки. Это переворачивает дефолтный индустриальный инстинкт. Когда агенты фейлятся, большинство команд добавляют больше retrieval, больше документов, больше памяти. А это исследование говорит, что узкое место не в отсутствии инфы. Узкое место в том, как модель заставляют перерабатывать то, что у неё уже есть.

Та же модель. Те же параметры. Скачок качества рассуждений на 55 процентных пунктов. Это не масштабирование.

Это архитектура на уровне промпта.

Кому интересно, вот статья - https://arxiv.org/abs/2602.21814 🌯
Please open Telegram to view this post
VIEW IN TELEGRAM
4
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, Anthropic выкатили новую фичу auto-memory.

Теперь Claude запоминает то, что узнаёт о тебе между сессиями: контекст проекта, паттерны дебага, предпочитаемые подходы, и потом подтягивает это сам, без того чтобы тебе приходилось что-то вручную записывать.

Теперь можно думать так: Claude.MD это твои инструкции для Claude, а Memory.MD это черновик памяти Claude, который он сам обновляет. Если попросишь Claude что-то запомнить, он запишет это туда.

Почитай доки, чтобы подробнее разобраться с памятью и тем, как она работает 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то сделал интерактивный визуализатор GPT, который показывает каждый шаг того, как модель генерирует ответ. Не только финальный результат, а весь пайплайн. 🧸
Please open Telegram to view this post
VIEW IN TELEGRAM
Новые технологии рождают новые отмазки