«你是什么模型?» (Что ты за модель?)
А она уверенно ответила:
«我是 DeepSeek.» (Я DeepSeek)
Спросили на французском:
nom du modèle (название модели?)
А в ответ: ChatGPT
Забавно, то, что они недавно обвинили DeepSeek в «industrial-scale distillation attacks».
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Кто-то сделал расширение для VS Code, которое превращает твоих AI-агентов в пиксельных персонажей.
Они работают в виртуальном офисе прямо в сайдбаре и ходят там, пока занимаются твоим кодом.
100% опенсорс❤️
Они работают в виртуальном офисе прямо в сайдбаре и ходят там, пока занимаются твоим кодом.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
5
This media is not supported in your browser
VIEW IN TELEGRAM
Находка дня: Nimble skill 💃
Этот скилл возвращает структурированные данные, разложенные по таблицам, с которыми можно сразу работать.
Например:
Попроси Claude Code найти все аренды 2-комнатных квартир в конкретном районе, опубликованные за последние 48 часов, вытащить цену, метраж и URL объявления с нескольких сайтов, и выгрузить все в таблицу.
В итоге ты получишь таблицу, где данные нормализованы между разными источниками.
Он ищет в реальном времени и возвращает структурированный результат.
Он умеет разбирать самые разные сайты, включая те, где контент рендерится на клиенте через JavaScript.
Если ты собираешь агентов, которым нужны веб-данные, этот скилл прям 10/10.
Вот ссылка на сам скилл, а как это работает, смотри в их документации
Этот скилл возвращает структурированные данные, разложенные по таблицам, с которыми можно сразу работать.
Например:
Попроси Claude Code найти все аренды 2-комнатных квартир в конкретном районе, опубликованные за последние 48 часов, вытащить цену, метраж и URL объявления с нескольких сайтов, и выгрузить все в таблицу.
В итоге ты получишь таблицу, где данные нормализованы между разными источниками.
Он ищет в реальном времени и возвращает структурированный результат.
Он умеет разбирать самые разные сайты, включая те, где контент рендерится на клиенте через JavaScript.
Если ты собираешь агентов, которым нужны веб-данные, этот скилл прям 10/10.
Вот ссылка на сам скилл, а как это работает, смотри в их документации
Please open Telegram to view this post
VIEW IN TELEGRAM
3
Perplexity завезли новую фичу: Perplexity Computer. 🤙
Computer объединяет все актуальные возможности ИИ в одну систему: ресерч, дизайн, код, деплой и ведение проекта end-to-end.
Ключевое, то что это мульти-модельная система. Computer запускает саб-агентов параллельно и подбирает под каждую задачу наиболее подходящую модель (в т.ч. через Opus). Всего роутит работу между 19 моделями.
Плюсом Computer персонализирован под тебя, помнит твою прошлую работу и по умолчанию безопасен. Есть сотни коннекторов, персистентная память, файлы и доступ к вебу, и всё это поверх инфраструктуры Perplexity.
Модель оплаты: по факту использования, с опциональным выбором модели для саб-агентов и лимитами расходов.
Можно выбирать разные модели для разных задач саб-агентов и контролировать расход токенов.
Пользователи Max получают 10 000 кредитов в месяц, включенных в подписку.
Также выдают разовый бонус 20 000 дополнительных кредитов: его начислят при запуске текущим пользователям и при регистрации новым. Бонус сгорает через 30 дней после начисления.
Доступно в веб-версии для подписчиков Max уже сегодня, а скоро появится и для Perplexity Pro и Enterprise.
Computer объединяет все актуальные возможности ИИ в одну систему: ресерч, дизайн, код, деплой и ведение проекта end-to-end.
Ключевое, то что это мульти-модельная система. Computer запускает саб-агентов параллельно и подбирает под каждую задачу наиболее подходящую модель (в т.ч. через Opus). Всего роутит работу между 19 моделями.
Плюсом Computer персонализирован под тебя, помнит твою прошлую работу и по умолчанию безопасен. Есть сотни коннекторов, персистентная память, файлы и доступ к вебу, и всё это поверх инфраструктуры Perplexity.
Модель оплаты: по факту использования, с опциональным выбором модели для саб-агентов и лимитами расходов.
Можно выбирать разные модели для разных задач саб-агентов и контролировать расход токенов.
Пользователи Max получают 10 000 кредитов в месяц, включенных в подписку.
Также выдают разовый бонус 20 000 дополнительных кредитов: его начислят при запуске текущим пользователям и при регистрации новым. Бонус сгорает через 30 дней после начисления.
Доступно в веб-версии для подписчиков Max уже сегодня, а скоро появится и для Perplexity Pro и Enterprise.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Один гений навайбкодил 3D-город, где каждый разработчик на GitHub это здание.
Чем больше коммитов, тем выше здание.
Чем больше репозиториев, тем шире основание.
Светящиеся окна это недавняя активность.
100% опенсорс
😱 😱 😱
Чем больше коммитов, тем выше здание.
Чем больше репозиториев, тем шире основание.
Светящиеся окна это недавняя активность.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM
7
Пора переосмыслить то, как мы строим agent skills, а именно перестать лепить их как документацию для людей, так как это жрет токены и провоцирует галлюцинации.
Вот сжатый набор ключевых best practices (чтение меньше 5 минут), который поможет нам писать skills лучше.
Зацени: https://github.com/mgechev/skills-best-practices📰
Вот сжатый набор ключевых best practices (чтение меньше 5 минут), который поможет нам писать skills лучше.
Зацени: https://github.com/mgechev/skills-best-practices
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - mgechev/skills-best-practices: Write professional-grade skills for agents, validate them using LLMs, and maintain a lean…
Write professional-grade skills for agents, validate them using LLMs, and maintain a lean context window. - mgechev/skills-best-practices
Благодарность от Антропиков: Claude Max за их счёт
Они объявили о раздаче 6 месяцев бесплатного Claude Max 20x мейнтейнерам и core-контрибьюторам open source.
Условия: вы основной мейнтейнер или участник core-команды публичного репозитория с 5 000+ звездами на GitHub или 1M+ месячных скачиваний в NPM. За последние 3 месяца у вас были коммиты, релизы или ревью PR.
Если вы поддерживаете штуку, от которой экосистема тоже зависит, все равно подавайтесь и расскажите про нее.
Подать заявку❤️
Они объявили о раздаче 6 месяцев бесплатного Claude Max 20x мейнтейнерам и core-контрибьюторам open source.
Условия: вы основной мейнтейнер или участник core-команды публичного репозитория с 5 000+ звездами на GitHub или 1M+ месячных скачиваний в NPM. За последние 3 месяца у вас были коммиты, релизы или ревью PR.
Если вы поддерживаете штуку, от которой экосистема тоже зависит, все равно подавайтесь и расскажите про нее.
Подать заявку
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Исследователи задали Claude простой вопрос: "Я хочу помыть машину. Автомойка в 100 метрах. Мне идти пешком или ехать?"
Claude ответил: идти пешком.
Все крупные LLM ответили: идти пешком.
Правильный ответ: ехать.
Машина должна оказаться на мойке. И вот что самое дикое: в модели не поменялось вообще ничего. Поменялась только архитектура промпта.
Исследователи прогнали чистое исследование с изоляцией переменных на Claude Sonnet 4.5. Голый промпт? 0% правильных.
Добавили аккуратно оформленную роль эксперта? Всё ещё 0%.
Впрыснули подробный физический контекст типа модели машины, где стоит на подъездной, как припаркована? 30%.
Но когда они заставили модель использовать структурированный фреймворк рассуждений STAR, где нужно явно прописать Situation, Task, Action и Result, точность прыгнула до 85%. Если совместить STAR с профайл-данными, получалось 95%. Добавили сверху RAG и дошли до 100%.
Ключевой механизм сидит внутри шага "Task".
Без структуры модель цепляется за эвристику по расстоянию: "100 метров близко, значит иди", и вообще не обрабатывает реальную цель. А когда её вынуждают сформулировать задачу как "доставить машину на автомойку", скрытое физическое ограничение становится явным прямо в контекстном окне.
Знание у модели уже было. Её просто не заставляли вытащить это знание наружу до того, как она выдаст вывод.
Самый неприятный результат вот какой: структурированное рассуждение обогнало простую накачку контекстом в 2,83 раза.
Больше фактов почти не помогало. Помогали нормальные когнитивные подпорки. Это переворачивает дефолтный индустриальный инстинкт. Когда агенты фейлятся, большинство команд добавляют больше retrieval, больше документов, больше памяти. А это исследование говорит, что узкое место не в отсутствии инфы. Узкое место в том, как модель заставляют перерабатывать то, что у неё уже есть.
Та же модель. Те же параметры. Скачок качества рассуждений на 55 процентных пунктов. Это не масштабирование.
Это архитектура на уровне промпта.
Кому интересно, вот статья - https://arxiv.org/abs/2602.21814🌯
Claude ответил: идти пешком.
Все крупные LLM ответили: идти пешком.
Правильный ответ: ехать.
Машина должна оказаться на мойке. И вот что самое дикое: в модели не поменялось вообще ничего. Поменялась только архитектура промпта.
Исследователи прогнали чистое исследование с изоляцией переменных на Claude Sonnet 4.5. Голый промпт? 0% правильных.
Добавили аккуратно оформленную роль эксперта? Всё ещё 0%.
Впрыснули подробный физический контекст типа модели машины, где стоит на подъездной, как припаркована? 30%.
Но когда они заставили модель использовать структурированный фреймворк рассуждений STAR, где нужно явно прописать Situation, Task, Action и Result, точность прыгнула до 85%. Если совместить STAR с профайл-данными, получалось 95%. Добавили сверху RAG и дошли до 100%.
Ключевой механизм сидит внутри шага "Task".
Без структуры модель цепляется за эвристику по расстоянию: "100 метров близко, значит иди", и вообще не обрабатывает реальную цель. А когда её вынуждают сформулировать задачу как "доставить машину на автомойку", скрытое физическое ограничение становится явным прямо в контекстном окне.
Знание у модели уже было. Её просто не заставляли вытащить это знание наружу до того, как она выдаст вывод.
Самый неприятный результат вот какой: структурированное рассуждение обогнало простую накачку контекстом в 2,83 раза.
Больше фактов почти не помогало. Помогали нормальные когнитивные подпорки. Это переворачивает дефолтный индустриальный инстинкт. Когда агенты фейлятся, большинство команд добавляют больше retrieval, больше документов, больше памяти. А это исследование говорит, что узкое место не в отсутствии инфы. Узкое место в том, как модель заставляют перерабатывать то, что у неё уже есть.
Та же модель. Те же параметры. Скачок качества рассуждений на 55 процентных пунктов. Это не масштабирование.
Это архитектура на уровне промпта.
Кому интересно, вот статья - https://arxiv.org/abs/2602.21814
Please open Telegram to view this post
VIEW IN TELEGRAM
4
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, Anthropic выкатили новую фичу auto-memory.
Теперь Claude запоминает то, что узнаёт о тебе между сессиями: контекст проекта, паттерны дебага, предпочитаемые подходы, и потом подтягивает это сам, без того чтобы тебе приходилось что-то вручную записывать.
Теперь можно думать так:
Почитай доки, чтобы подробнее разобраться с памятью и тем, как она работает🙂
Теперь Claude запоминает то, что узнаёт о тебе между сессиями: контекст проекта, паттерны дебага, предпочитаемые подходы, и потом подтягивает это сам, без того чтобы тебе приходилось что-то вручную записывать.
Теперь можно думать так:
Claude.MD это твои инструкции для Claude, а Memory.MD это черновик памяти Claude, который он сам обновляет. Если попросишь Claude что-то запомнить, он запишет это туда.Почитай доки, чтобы подробнее разобраться с памятью и тем, как она работает
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Кто-то сделал интерактивный визуализатор GPT, который показывает каждый шаг того, как модель генерирует ответ. Не только финальный результат, а весь пайплайн. 🧸
Please open Telegram to view this post
VIEW IN TELEGRAM
Boris Cherny поделился тем, что ждёт нас в следующей версии Claude Code:
Они добавляют два новых скилла:✅
Вместе эти скиллы автоматизируют большую часть рутины, которая раньше требовалась, чтобы:
1. довести pull request до продакшена
2. делать простые, параллелящиеся миграции кода
Использует параллельных агентов, чтобы подтянуть качество кода, поднастроить производительность и проверить соответствие
Пример: "hey claude сделай это изменение в коде, а потом запусти
Интерактивно помогает спланировать миграцию кода, а потом выполняет её параллельно десятками агентов.
Каждый агент работает в полной изоляции через git worktrees, прогоняет тесты и только потом поднимает PR.
Пример: "
Они добавляют два новых скилла:
/simplify и /batch. Он сам пользуется обоими каждый день и очень хочет поделиться ими со всеми. Вместе эти скиллы автоматизируют большую часть рутины, которая раньше требовалась, чтобы:
1. довести pull request до продакшена
2. делать простые, параллелящиеся миграции кода
/simplifyИспользует параллельных агентов, чтобы подтянуть качество кода, поднастроить производительность и проверить соответствие
CLAUDE.md.Пример: "hey claude сделай это изменение в коде, а потом запусти
/simplify"/batchИнтерактивно помогает спланировать миграцию кода, а потом выполняет её параллельно десятками агентов.
Каждый агент работает в полной изоляции через git worktrees, прогоняет тесты и только потом поднимает PR.
Пример: "
/batch migrate src/ from Solid to React"Please open Telegram to view this post
VIEW IN TELEGRAM
Сохраняем себе: этот свежий репо с claude-code-best-practice
Там в одном месте собраны продакшн-готовые агенты, память между сессиями, кастомные хуки, skills и команды.
Там в одном месте собраны продакшн-готовые агенты, память между сессиями, кастомные хуки, skills и команды.
4
Что на самом деле выбирает Claude Code, если попросить его что-то собрать, вообще не называя в запросе никакие инструменты.
Парни 2 430 раз натравили Claude Code на реальные репозитории и смотрели, что он выбирает. Ни в одном промпте не было названий инструментов. Только открытые, не зауженные вопросы.
3 модели · 4 типа проектов · 20 категорий инструментов · 85,3% доля извлечений
Главный вывод: Claude Code скорее строит, чем покупает. Custom/DIY это самый частый одиночный ярлык, который удалось извлечь: он всплыл в 12 из 20 категорий (при этом он размазан по категориям, тогда как конкретные инструменты обычно привязаны к одной категории). Когда его просят “добавь feature flags”, он собирает конфиг-систему на env vars и раскатку по процентам вместо того, чтобы рекомендовать LaunchDarkly. Когда просят “добавь auth” в Python, он пишет JWT + bcrypt с нуля. А если он всё-таки выбирает инструмент, то выбирает жёстко и без метаний: GitHub Actions 94%, Stripe 91%, shadcn/ui 90%.
Полный отчёт здесь: https://amplifying.ai/research/claude-code-picks
Парни 2 430 раз натравили Claude Code на реальные репозитории и смотрели, что он выбирает. Ни в одном промпте не было названий инструментов. Только открытые, не зауженные вопросы.
3 модели · 4 типа проектов · 20 категорий инструментов · 85,3% доля извлечений
Главный вывод: Claude Code скорее строит, чем покупает. Custom/DIY это самый частый одиночный ярлык, который удалось извлечь: он всплыл в 12 из 20 категорий (при этом он размазан по категориям, тогда как конкретные инструменты обычно привязаны к одной категории). Когда его просят “добавь feature flags”, он собирает конфиг-систему на env vars и раскатку по процентам вместо того, чтобы рекомендовать LaunchDarkly. Когда просят “добавь auth” в Python, он пишет JWT + bcrypt с нуля. А если он всё-таки выбирает инструмент, то выбирает жёстко и без метаний: GitHub Actions 94%, Stripe 91%, shadcn/ui 90%.
Полный отчёт здесь: https://amplifying.ai/research/claude-code-picks
4
This media is not supported in your browser
VIEW IN TELEGRAM
Можно моментально прокачать вайбкодинг-фронтенд в 10 раз, просто выучив, как называются разные UI-компоненты: https://component.gallery/
А то Opus, конечно, генерит дефолтные шаблоны, потому что из словаря у тебя только🤭
А то Opus, конечно, генерит дефолтные шаблоны, потому что из словаря у тебя только
menu и button. Please open Telegram to view this post
VIEW IN TELEGRAM
5
This media is not supported in your browser
VIEW IN TELEGRAM
Гений закрыл серьёзную слепую зону в недавно вышедшем skill для fine-tuning от HuggingFace
HuggingFace выпустили skill, который можно подключить к Claude или любому кодинг-агенту, и он позволяет дообучать open-source LLM-ки на обычном тексте.
Агент сам делает выбор GPU, сабмитит джобу, мониторит прогресс и пушит готовую модель на Hub.
Но есть нюанс.
Он предполагает, что у тебя уже есть чистый датасет на HuggingFace Hub.
А в реальности данные, на которых чаще всего хочется дообучаться, живут в Twitter, LinkedIn, Reddit, Amazon и на других платформах за антибот-защитой.
Поэтому гений интегрировал Bright Data Web MCP в этот skill, чтобы кодинг-агент мог собирать данные из веба перед тем, как запускать обучение:
- Скрапить данные с платформ вроде YouTube, Amazon или Reddit, при этом CAPTCHA и антибот-системы обрабатываются автоматически.
- Преобразовывать собранный контент в датасет для fine-tuning в нужном формате.
- Валидировать датасет, подобрать GPU-железо и отправить training job в HuggingFace.
- Следить за ходом обучения и пушить готовую модель на Hub.
С этим обновлением теперь можно сказать Claude что-то вроде:
"Собери топ-500 обсуждений про Python с Reddit, конвертни их в instruction-response пары и дообучи Qwen3-0.6B на этом датасете через SFT."
И агент дальше сам сделает сбор данных, форматирование, обучение и деплой в одном пайплайне.
Оригинальный skill от HuggingFace отлично закрывал часть с обучением, её и не трогали.
Чувак просто добавил недостающий слой сбора данных через Bright Data MCP, который поддерживает 60+ web data tools для 40+ платформ.
Почему именно Bright Data?
Агентам в вебе часто прилетают IP-блокировки и CAPTCHA. Bright Data берёт это на себя за кулисами.
Это позволяет масштабировать скрейпинг без постоянных блоков, симулировать действия реального пользователя на сложных сайтах и работать как с real-time, так и с историческими данными с 40+ платформ.
100% опенсорс💼
HuggingFace выпустили skill, который можно подключить к Claude или любому кодинг-агенту, и он позволяет дообучать open-source LLM-ки на обычном тексте.
Агент сам делает выбор GPU, сабмитит джобу, мониторит прогресс и пушит готовую модель на Hub.
Но есть нюанс.
Он предполагает, что у тебя уже есть чистый датасет на HuggingFace Hub.
А в реальности данные, на которых чаще всего хочется дообучаться, живут в Twitter, LinkedIn, Reddit, Amazon и на других платформах за антибот-защитой.
Поэтому гений интегрировал Bright Data Web MCP в этот skill, чтобы кодинг-агент мог собирать данные из веба перед тем, как запускать обучение:
- Скрапить данные с платформ вроде YouTube, Amazon или Reddit, при этом CAPTCHA и антибот-системы обрабатываются автоматически.
- Преобразовывать собранный контент в датасет для fine-tuning в нужном формате.
- Валидировать датасет, подобрать GPU-железо и отправить training job в HuggingFace.
- Следить за ходом обучения и пушить готовую модель на Hub.
С этим обновлением теперь можно сказать Claude что-то вроде:
"Собери топ-500 обсуждений про Python с Reddit, конвертни их в instruction-response пары и дообучи Qwen3-0.6B на этом датасете через SFT."
И агент дальше сам сделает сбор данных, форматирование, обучение и деплой в одном пайплайне.
Оригинальный skill от HuggingFace отлично закрывал часть с обучением, её и не трогали.
Чувак просто добавил недостающий слой сбора данных через Bright Data MCP, который поддерживает 60+ web data tools для 40+ платформ.
Почему именно Bright Data?
Агентам в вебе часто прилетают IP-блокировки и CAPTCHA. Bright Data берёт это на себя за кулисами.
Это позволяет масштабировать скрейпинг без постоянных блоков, симулировать действия реального пользователя на сложных сайтах и работать как с real-time, так и с историческими данными с 40+ платформ.
100% опенсорс
Please open Telegram to view this post
VIEW IN TELEGRAM