https://techcrunch.com/2025/07/17/anthropic-tightens-usage-limits-for-claude-code-without-telling-users/
Пидорасы, сэр
Пидорасы, сэр
TechCrunch
Anthropic tightens usage limits for Claude Code — without telling users | TechCrunch
Claude Code users have been hit with unexpectedly restrictive usage limits. The problems, many of which have been aired on Claude Code’s GitHub page, seem to be concentrated among heavy users of the service, many of whom are on the $200-a-month Max plan.
LLM кодинг или куда все катится. Часть 1.
За последнее время я много работал со всеми, или почти со всеми, инструментами для кодинга с помощью AI. Я не называю это вайб-кодингом, потому что проекты, над которыми я работаю, сложнее, чем просто блог или микроапп для айфона. И я не отпускаю контроль. Не могу. Никакого YOLO режима. Потому что вижу результат на выходе.
При большом количестве контекста LLM начинает путаться. Например перед коммитом тесты не проходят, и LLM говорит: «Ну, тесты не прошли, да и ладно, задача выполнена». Некоторые паттерны разработки меня не устраивают. Иногда тупо делает не то что нужно.
Поэтому я разделил разработку на несколько этапов. Для кодинга у меня есть несколько инструментов и команд. Они помогают разделить ответственность и уменьшить размер загружаемого контекста для AI. Основная проблема в том, что и Thinking и обычная модель похоже забивают контекст кодом при сканировании и прочими вещами которые не нужны на следующих этапах.
И я пришел к тому что лучше будет разделить роли, как в команде:
• project-менеджер, который создает задачу и описывает ее с точки зрения ценности
• тимлид или staff инженер, который берет задачу и накидывает драфт по архитектуре;
• разработчик, который делит задачу на атомарные куски и разрабатывает их в TDD-подходе.
Сейчас у меня все реализовано через команды. Но чем больше я полирую эти команды и добавляю соломки там, где Claude начинает ошибаться, тем больше понимаю, что нужна оркестровка в виде отдельного скрипта. Claude нередко начинает выполнять то, что от него не требуется. Например, когда он вызывает Gemini для анализа файловой структуры изменений, не нужно выполнять команды типа git diff или cat - они инжектятся в баш промптвыполнения Gemini. И я очень явно в начале команды пишу не выполнять эти их. Скотина Claude все равно выполняет git diff и иногда даже заменяет сам контекст в команде Gemini.
Таким образом нужна оркестрация и какой-то флоу через скрипт питоне-жс-вотевер. Там где все прибито гвоздями. Ибо на верхнем уровне это какой-то уровень стейт машины с шагами.
А подключать ллм уже в местах где он непосредственно нужен.
За последнее время я много работал со всеми, или почти со всеми, инструментами для кодинга с помощью AI. Я не называю это вайб-кодингом, потому что проекты, над которыми я работаю, сложнее, чем просто блог или микроапп для айфона. И я не отпускаю контроль. Не могу. Никакого YOLO режима. Потому что вижу результат на выходе.
При большом количестве контекста LLM начинает путаться. Например перед коммитом тесты не проходят, и LLM говорит: «Ну, тесты не прошли, да и ладно, задача выполнена». Некоторые паттерны разработки меня не устраивают. Иногда тупо делает не то что нужно.
Поэтому я разделил разработку на несколько этапов. Для кодинга у меня есть несколько инструментов и команд. Они помогают разделить ответственность и уменьшить размер загружаемого контекста для AI. Основная проблема в том, что и Thinking и обычная модель похоже забивают контекст кодом при сканировании и прочими вещами которые не нужны на следующих этапах.
И я пришел к тому что лучше будет разделить роли, как в команде:
• project-менеджер, который создает задачу и описывает ее с точки зрения ценности
• тимлид или staff инженер, который берет задачу и накидывает драфт по архитектуре;
• разработчик, который делит задачу на атомарные куски и разрабатывает их в TDD-подходе.
Сейчас у меня все реализовано через команды. Но чем больше я полирую эти команды и добавляю соломки там, где Claude начинает ошибаться, тем больше понимаю, что нужна оркестровка в виде отдельного скрипта. Claude нередко начинает выполнять то, что от него не требуется. Например, когда он вызывает Gemini для анализа файловой структуры изменений, не нужно выполнять команды типа git diff или cat - они инжектятся в баш промптвыполнения Gemini. И я очень явно в начале команды пишу не выполнять эти их. Скотина Claude все равно выполняет git diff и иногда даже заменяет сам контекст в команде Gemini.
Таким образом нужна оркестрация и какой-то флоу через скрипт питоне-жс-вотевер. Там где все прибито гвоздями. Ибо на верхнем уровне это какой-то уровень стейт машины с шагами.
А подключать ллм уже в местах где он непосредственно нужен.
🔥5👍2😁1
LLM кодинг или куда все катится. Часть 2
Мои команды для CC
1.
Ауткам: задача в линеаре с требованиями
2.
Ауткам: Комментарий в линеаре с планом.
3.
Ауткам: .local/plan-TSK-123-todo .md. Храню локально в md потому что МСР не умеет обновлять комментарии; cli который я поставил тоже
4.
Ауткам: каждый шаг - коммит. Ибо как уже выше ловлю на "Тесты не прошли да и хуй с ним, давай коммитить, я сделяль". В общем ссу давать доступ на коммит и быстро смотрю что там нахуевертили. Плюс у меня electron - там надо тестить руками. Мне один баг кросссистемный (app-front) чинило долго.
5.
Ауткам: закрытая таска с описанием что сделано
Мои команды для CC
1.
/linear-create - собрать контекст от меня, подумать с гемини. Ауткам: задача в линеаре с требованиями
2.
/linear-plan - взять задачу из линеара, рассказать мне как понял, далее вместе с гемини собрать архитектуру и общий план как задача будет выполнена. С аппрувом от меня. Сохраняет промежуточное в маркдауне.Ауткам: Комментарий в линеаре с планом.
3.
/linear-todo - из плана и задачи разработать пошаговый план выполнения. Каждый шаг атомарный + четкий DoDАуткам: .local/plan-TSK-123-todo .md. Храню локально в md потому что МСР не умеет обновлять комментарии; cli который я поставил тоже
4.
/linear-code - получит весь контекст из линеара, чекнуть есть ли туду и начинать делать кодить по одной задаче из туду.Ауткам: каждый шаг - коммит. Ибо как уже выше ловлю на "Тесты не прошли да и хуй с ним, давай коммитить, я сделяль". В общем ссу давать доступ на коммит и быстро смотрю что там нахуевертили. Плюс у меня electron - там надо тестить руками. Мне один баг кросссистемный (app-front) чинило долго.
5.
/linear-finish - анализирует коммиты по таске (надо еще чтение плана добавить), генерит текстом "что сделано", создает комментарий в линеаре, закрывает таску.Ауткам: закрытая таска с описанием что сделано
🔥3❤1
LLM кодинг или куда все катится. Часть 3.
Я сейчас использую 3 инструмента:
- Claude Code - основной архитектор, оркестратор и наиболее бесящий. Он же дергает Gemini CLI
- Gemini - субагент для анализа кодовой базы, проверки ченжсета, проверки на SRP и всякого такого.
- Github Copliot - для точечного редактирования файлов. Ну и всего $10
Сначала идея была в том чтобы ждать, пока Claude слоупоком загрепает что-то там в системе, можно послать его в Gemini, у которого гораздо больше размер контекста. На presync.io, на котором я сейчас обкатываю все эти команды, я говорю юзать
Например:
Чуть позже когда я начал использовать эту связку, я понял (но это не точно), что тут есть интересный сайд-эффект. Субьективно начинает работать какой-то метод утенка.
Claude объясняет Gemini, что ему нужно узнать, и потом получает назад результат. И мне кажется что получаемый outcome гораздо более четкий и предсказуемый. Плюс Claude не захламляет свой контекст анализом и грепом кучи файлов, которые дальше не нужны там.
PS В инструкции ниже очень важная строка
Гугловцы как обычно отличаются умом и сообразительностью и не дают досутп gemini ни к каким вызовам внешних тулов при
PSS Спизжено с https://www.reddit.com/r/ChatGPTCoding/comments/1lm3fxq/gemini_cli_is_awesome_but_only_when_you_make/
Я сейчас использую 3 инструмента:
- Claude Code - основной архитектор, оркестратор и наиболее бесящий. Он же дергает Gemini CLI
- Gemini - субагент для анализа кодовой базы, проверки ченжсета, проверки на SRP и всякого такого.
- Github Copliot - для точечного редактирования файлов. Ну и всего $10
Сначала идея была в том чтобы ждать, пока Claude слоупоком загрепает что-то там в системе, можно послать его в Gemini, у которого гораздо больше размер контекста. На presync.io, на котором я сейчас обкатываю все эти команды, я говорю юзать
--all_files. И не нужно ждать пока СС по одному файлу что-то там родит.Например:
Ask gemini how the app dowloads installation files and how it's being triggered on the frontend
Чуть позже когда я начал использовать эту связку, я понял (но это не точно), что тут есть интересный сайд-эффект. Субьективно начинает работать какой-то метод утенка.
Claude объясняет Gemini, что ему нужно узнать, и потом получает назад результат. И мне кажется что получаемый outcome гораздо более четкий и предсказуемый. Плюс Claude не захламляет свой контекст анализом и грепом кучи файлов, которые дальше не нужны там.
PS В инструкции ниже очень важная строка
!IMPORTANT MUST NOT ANY COMMANDS TO PROVIDE ANY CONTEXT TO GEMINI
Гугловцы как обычно отличаются умом и сообразительностью и не дают досутп gemini ни к каким вызовам внешних тулов при
gemini -p. Поэтому учитываем что он умеет только читать файлы. На запись, вызов баша он падает.PSS Спизжено с https://www.reddit.com/r/ChatGPTCoding/comments/1lm3fxq/gemini_cli_is_awesome_but_only_when_you_make/
❤3😁1
CLAUDE-GEMINI.md
3.2 KB
Пара примеров как я раньше испльзовал гемини + инструкция для клода
https://gist.github.com/syabro/e84b68d56584c2b0d0a96b9fe2a7b03e
To be continued завтра
https://gist.github.com/syabro/e84b68d56584c2b0d0a96b9fe2a7b03e
To be continued завтра
👍1
Forwarded from Early Growth Hacks
UI-библиотеки, которые экономят часы фронта и разработки
Если ты хочешь:
1. Сократить затраты на верстальщиков / разрабов
2. Хочешь давать своим разрабам максимально близкий reference
3. Сам делаешь MVP через Lovable/Cursor/Windsurf/Bolt и хочешь крутой дизайн через промпты (потому что ты модный vibe coder)
то ниже open source (free) UI components list для этого:
⁃ https://originui.com
⁃ https://blocks.mvp-subha.me
⁃ https://www.shsfui.com
⁃ https://www.kibo-ui.com
⁃ https://skiper-ui.com
⁃ https://ui.shadcn.com (из поста ранее)
PS про communities посты следующие на очереди
PSS спасибо за reposts, которых больше чем реакций, но если вы их поставите, то тоже будет круто
#ui
Если ты хочешь:
1. Сократить затраты на верстальщиков / разрабов
2. Хочешь давать своим разрабам максимально близкий reference
3. Сам делаешь MVP через Lovable/Cursor/Windsurf/Bolt и хочешь крутой дизайн через промпты (потому что ты модный vibe coder)
то ниже open source (free) UI components list для этого:
⁃ https://originui.com
⁃ https://blocks.mvp-subha.me
⁃ https://www.shsfui.com
⁃ https://www.kibo-ui.com
⁃ https://skiper-ui.com
⁃ https://ui.shadcn.com (из поста ранее)
PS про communities посты следующие на очереди
PSS спасибо за reposts, которых больше чем реакций, но если вы их поставите, то тоже будет круто
#ui
🔥6🤔1
TIL: Wife Acceptance Factor
Обозначает насколько какое-либо техническое устройство, гаджет или изменение в интерьере “приемлемо” с точки зрения жены, особенно в контексте внешнего вида, размера, шумности или заметности в доме.
Обычно используется:
• в аудиофильских кругах (громоздкая аппаратура);
• у домашних серверщиков (стойки, кабели, вентиляторы);
• у радиолюбителей (антенны и передатчики на крыше);
• у умных домов (неэстетичные датчики или коробки).
Пример:
https://en.wikipedia.org/wiki/Wife_acceptance_factor
Обозначает насколько какое-либо техническое устройство, гаджет или изменение в интерьере “приемлемо” с точки зрения жены, особенно в контексте внешнего вида, размера, шумности или заметности в доме.
Обычно используется:
• в аудиофильских кругах (громоздкая аппаратура);
• у домашних серверщиков (стойки, кабели, вентиляторы);
• у радиолюбителей (антенны и передатчики на крыше);
• у умных домов (неэстетичные датчики или коробки).
Пример:
Я хотел поставить в зале сабвуфер размером с чемодан, но он не прошёл WAF.
https://en.wikipedia.org/wiki/Wife_acceptance_factor
😁8❤3😱1
Forwarded from Journal
Ну, собственно технолоджиа на фото выше — это приёмник для микрофона-петлички.
Дичайше бесило, что при закрытом ноутбуке или когда я сижу на диване с беспроводной клавиатурой и работаю за телевизором, у меня недоступна диктовка и голосовое управление в Claude и других сервисах.
Оказалось, что всего за 8 долларов (8 USD Карл!) можно купить бандл из двух беспроводных микрофонов с приемником и кейс с зарядкой. Качество звука вроде неплохое, если диктовать кому-то что-то голосовым или сразу транскрайбить в текст. Конечно, для мамкиных влогеров и ютуберов будет хреноватое качество, но тем не менее 8 сука баксов!
Один микрофон держит 6 часов, поэтому если их менять, второй кидать в кейс на зарядку, диктовать можно круглые сутки.
Микрофон нормально гуглится по запросу "J13 microphone". Dот пример на Амазоне но та он стоит $30, поэтому вперед на Алиэкспресс 🙂
https://www.amazon.com/SENXIN-Microphone-Precision-Two-Person-Interviews/dp/B0C1VG3QTV?gQT=2
Дичайше бесило, что при закрытом ноутбуке или когда я сижу на диване с беспроводной клавиатурой и работаю за телевизором, у меня недоступна диктовка и голосовое управление в Claude и других сервисах.
Оказалось, что всего за 8 долларов (8 USD Карл!) можно купить бандл из двух беспроводных микрофонов с приемником и кейс с зарядкой. Качество звука вроде неплохое, если диктовать кому-то что-то голосовым или сразу транскрайбить в текст. Конечно, для мамкиных влогеров и ютуберов будет хреноватое качество, но тем не менее 8 сука баксов!
Один микрофон держит 6 часов, поэтому если их менять, второй кидать в кейс на зарядку, диктовать можно круглые сутки.
Микрофон нормально гуглится по запросу "J13 microphone". Dот пример на Амазоне но та он стоит $30, поэтому вперед на Алиэкспресс 🙂
https://www.amazon.com/SENXIN-Microphone-Precision-Two-Person-Interviews/dp/B0C1VG3QTV?gQT=2
Max Syabro and Stuff
LLM кодинг или куда все катится. Часть 1. За последнее время я много работал со всеми, или почти со всеми, инструментами для кодинга с помощью AI. Я не называю это вайб-кодингом, потому что проекты, над которыми я работаю, сложнее, чем просто блог или микроапп…
В Claude Code завезли возможность создания собственных агентов.
*хрюкающие звуки одобрения*
Попробую перетащить своих туда
*хрюкающие звуки одобрения*
Попробую перетащить своих туда
❤3🔥1
ChatGPT раскатали Agent в Plus
А не только в Pro как раньше.
Он мне успешно заказал 1кг изюма на lazada.co.th с промпта:
В начале попросил перехватить браузер и ввести логин и пароль.
Ахренетительно, будущее тут!
А не только в Pro как раньше.
Он мне успешно заказал 1кг изюма на lazada.co.th с промпта:
login to lazada
find me 1kg of black raisins delivery from thailand, 5* rating with 30+ orders
order using my adress 165/164 + use card xxxx
В начале попросил перехватить браузер и ввести логин и пароль.
Ахренетительно, будущее тут!
❤3