3. Клауд код это уверенный шаг в нужном направлении.
Не хочется дальше сильно проваливаться в метафоры, но клауд код это трактор / комбайн / механический завод / налаженный процесс производства. Только для цифрового мира.
Пока OpenAI методично выпускают модели и собирают бабки, чтобы генерить людям картинки в стиле Studio Ghibli, Антропики так же методично улучшали продуктовый обвес.
Меньше чем за год они добавили поддержку MCP, доступ к файлам и VSCode, плагины, управление браузером, запуск агентов в бэкграунде. Внезапно оказалось, что модели последнего поколения уже достаточно умные и им не хватало только продуктового обвеса. Что всё это может работать вместе, не разваливаться и давать результат.
Это далеко не идеальный инструмент, галлюцинации никуда не делись. Он переусложняет и выбирает странные подходы. Он все еще может выдавать чушь и при этом строить уверенное лицо. Но всё это теперь можно обходить. Выдаёт не тот результаты и обманывает? На этапе планирования пишешь чеклист самопроверки, запускаешь 10 раз в фоне. И 1 из 10 будет тем что тебе нужно.
Тут нет ничего нового, это можно было делать и до клауд кода. Но я ленился. Копировать бесконечные промпты из заметок, открывать кучу окон в браузере, вычитывать это всё потом. Я думаю вы тоже ленились.
Но в новой парадигме ты это больше не глаза и 10 колбасок. Ты это архитектор, делегирующий низкоуровневые задачи машине. И у нее есть доступ к контексту через файлы на твоем компе, к сервисам в интернете через MCP, к возможности делать дела через агентов с доступом к консоли.
Это непередаваемое чувство, когда ты видишь как модель в консоли перебирает одно не работающее решение за другим. И в какой то момент у нее получается. Она проверяет, что результат тот что нужен, ставит галочку в плане и идёт дальше.
Это пиздец. Я заразился будущим.
Не хочется дальше сильно проваливаться в метафоры, но клауд код это трактор / комбайн / механический завод / налаженный процесс производства. Только для цифрового мира.
Пока OpenAI методично выпускают модели и собирают бабки, чтобы генерить людям картинки в стиле Studio Ghibli, Антропики так же методично улучшали продуктовый обвес.
Меньше чем за год они добавили поддержку MCP, доступ к файлам и VSCode, плагины, управление браузером, запуск агентов в бэкграунде. Внезапно оказалось, что модели последнего поколения уже достаточно умные и им не хватало только продуктового обвеса. Что всё это может работать вместе, не разваливаться и давать результат.
Это далеко не идеальный инструмент, галлюцинации никуда не делись. Он переусложняет и выбирает странные подходы. Он все еще может выдавать чушь и при этом строить уверенное лицо. Но всё это теперь можно обходить. Выдаёт не тот результаты и обманывает? На этапе планирования пишешь чеклист самопроверки, запускаешь 10 раз в фоне. И 1 из 10 будет тем что тебе нужно.
Тут нет ничего нового, это можно было делать и до клауд кода. Но я ленился. Копировать бесконечные промпты из заметок, открывать кучу окон в браузере, вычитывать это всё потом. Я думаю вы тоже ленились.
Но в новой парадигме ты это больше не глаза и 10 колбасок. Ты это архитектор, делегирующий низкоуровневые задачи машине. И у нее есть доступ к контексту через файлы на твоем компе, к сервисам в интернете через MCP, к возможности делать дела через агентов с доступом к консоли.
Это непередаваемое чувство, когда ты видишь как модель в консоли перебирает одно не работающее решение за другим. И в какой то момент у нее получается. Она проверяет, что результат тот что нужен, ставит галочку в плане и идёт дальше.
Это пиздец. Я заразился будущим.
🔥15👍3❤1
В чем фишка рассуждающих моделей
Это старый пост, который я написал год назад и почему то не опубликовал. Все еще актуальный, хотя ощущается как будто из прошлой жизни.
Я вдохновился постом от чуваков из Latent Space подкаста о том как писать промпты для о1.
Не люблю возню с промптами, особенно чужими. По моим ощущениям в том чтобы нейронка выдала приемлимый результат есть много случайности, субьективности и мелких деталей важных для отдельной задачи.
К сожалению модели не могут читать твои мысли, поэтому промпты писать все таки нужно. Просто копировать чужие - не очень хорошая идея.
1.
о1 это не чат, это генератор отчетов.
Есть два принципиально разных подхорда.
Первый - это стандартная работа с моделью в чате. Накидываешь промпт и потом итеративно поправляешь модель и дополняешь свои требования, пока не получишь на выходе что то приемлимое.
По вайбу это похоже на гончарное дело. Модель изначально не идеально понимает что ты от нее хочешь и с помощью обратной связи постепенно извлекает из тебя контекст.
Второй подход - принципиально другой. Новые модели, которые умеют рассуждать (о1, о3, DeepSeek) воспринимают твой первый запрос как окончательную инструкцию к действию и не пытаются выудить из тебя контекст.
Поэтому нужно запихивать его самому.
Про такие модели полезно думать не как о чатовых, а как о генераторах репортов. Если ты сразу дашь ей достаточно контекста и опишешь что хочешь на выходе - она часто сможет выдать адекватное решение с первого раза.
2.
Не пиши промпт - пиши бриф.
Представь, что о1 это новый сотрудник на работе. Чтобы он справился с задачей его нужно погрузить в контекст. Чем полнее, тем лучше.
Если это кодинг - нужно скинуть всю репу, описать чем занимается компания, зачем юзерам этот продукт итд.
Тут отлично помогает голосовой режим. Создаешь отдельный чат в 4о и голосом наговариваешь всё, что тебе кажется релевантным. Потом можно попросить сделать саммари и закинуть его в бриф как контекст. Или вообще без саммари полностью скопипастить чат.
Еще это косвенно помогает тебе самому лучше понять чего ты хочешь.
3.
Опиши конечный результат, а не то как его достигать.
Для чатовых моделей работает история где ты просишь ее принять роль (ты опытный журналист, программист итп) и добавляешь советы типа думай шаг за шагом.
Рассуждающей модели это только мешает взять на себя ответственность за результат, запланировать собственные шаги решения и реализовать их. Даже если модель не идеально умеет думать в автономном режиме - со временем они научатся делать это лучше.
Эксперты не любят чайка-менеджмент. Что делать вместо этого?
Потратить усилия, чтобы лучше разобраться в задаче. Описать критерии хорошего и плохого результата. Тогда у модели будет способ самой оценить результат и поправить ошибки.
Есть еще ультимативный вариант, когда нужен крутой результат для повторяющейся задачи. Делаешь один раз сам, просишь модель сделать свою версию и потом сравниваешь что получилось. Нейронка может проанализировать свои ошибки и записать выводы. Еще лучше если у тебя уже собрано куча примеров хорошего и плохого результата как принято делать в продакшн приложениях.
4.
Понимать в чем думающие модели лучше.
Это one-shot задачи типа проанализировать кучу файлов, обьяснить сложную концепцию, поставить медицинский диагноз или решить задачку по математике.
Считается что такие модели меньше галлюцинируют. Но пока им нужно помогать и давать способы проверять себя.
Они не всегда хорошо понимают насколько много нужно думать над задачей и могут уходить в бесконечные размазывания соплей по кругу, когда уже давно нужно было дать финальный ответ. Поэтому в бриф стоит добавить секцию с ограничениями. И секцию где ты описываешь формат на выходе.
Это старый пост, который я написал год назад и почему то не опубликовал. Все еще актуальный, хотя ощущается как будто из прошлой жизни.
Я вдохновился постом от чуваков из Latent Space подкаста о том как писать промпты для о1.
Не люблю возню с промптами, особенно чужими. По моим ощущениям в том чтобы нейронка выдала приемлимый результат есть много случайности, субьективности и мелких деталей важных для отдельной задачи.
К сожалению модели не могут читать твои мысли, поэтому промпты писать все таки нужно. Просто копировать чужие - не очень хорошая идея.
1.
о1 это не чат, это генератор отчетов.
Есть два принципиально разных подхорда.
Первый - это стандартная работа с моделью в чате. Накидываешь промпт и потом итеративно поправляешь модель и дополняешь свои требования, пока не получишь на выходе что то приемлимое.
По вайбу это похоже на гончарное дело. Модель изначально не идеально понимает что ты от нее хочешь и с помощью обратной связи постепенно извлекает из тебя контекст.
Второй подход - принципиально другой. Новые модели, которые умеют рассуждать (о1, о3, DeepSeek) воспринимают твой первый запрос как окончательную инструкцию к действию и не пытаются выудить из тебя контекст.
Поэтому нужно запихивать его самому.
Про такие модели полезно думать не как о чатовых, а как о генераторах репортов. Если ты сразу дашь ей достаточно контекста и опишешь что хочешь на выходе - она часто сможет выдать адекватное решение с первого раза.
2.
Не пиши промпт - пиши бриф.
Представь, что о1 это новый сотрудник на работе. Чтобы он справился с задачей его нужно погрузить в контекст. Чем полнее, тем лучше.
Если это кодинг - нужно скинуть всю репу, описать чем занимается компания, зачем юзерам этот продукт итд.
Тут отлично помогает голосовой режим. Создаешь отдельный чат в 4о и голосом наговариваешь всё, что тебе кажется релевантным. Потом можно попросить сделать саммари и закинуть его в бриф как контекст. Или вообще без саммари полностью скопипастить чат.
Еще это косвенно помогает тебе самому лучше понять чего ты хочешь.
3.
Опиши конечный результат, а не то как его достигать.
Для чатовых моделей работает история где ты просишь ее принять роль (ты опытный журналист, программист итп) и добавляешь советы типа думай шаг за шагом.
Рассуждающей модели это только мешает взять на себя ответственность за результат, запланировать собственные шаги решения и реализовать их. Даже если модель не идеально умеет думать в автономном режиме - со временем они научатся делать это лучше.
Эксперты не любят чайка-менеджмент. Что делать вместо этого?
Потратить усилия, чтобы лучше разобраться в задаче. Описать критерии хорошего и плохого результата. Тогда у модели будет способ самой оценить результат и поправить ошибки.
Есть еще ультимативный вариант, когда нужен крутой результат для повторяющейся задачи. Делаешь один раз сам, просишь модель сделать свою версию и потом сравниваешь что получилось. Нейронка может проанализировать свои ошибки и записать выводы. Еще лучше если у тебя уже собрано куча примеров хорошего и плохого результата как принято делать в продакшн приложениях.
4.
Понимать в чем думающие модели лучше.
Это one-shot задачи типа проанализировать кучу файлов, обьяснить сложную концепцию, поставить медицинский диагноз или решить задачку по математике.
Считается что такие модели меньше галлюцинируют. Но пока им нужно помогать и давать способы проверять себя.
Они не всегда хорошо понимают насколько много нужно думать над задачей и могут уходить в бесконечные размазывания соплей по кругу, когда уже давно нужно было дать финальный ответ. Поэтому в бриф стоит добавить секцию с ограничениями. И секцию где ты описываешь формат на выходе.
👍8❤4🔥1
5.
Короче:
- Формулируешь конечный результат
- Описываешь в каком формате
- Описываешь ограничения
- Закидываешь в конец кучу контекста по задаче
Весь 2025 я прилежно старался использовать эти советы и могу сказать, что они работают. Они были логичным ответом на появление моделей думающих перед ответом по 5+ минут. Разговаривать с ними не удобно, а вместо этого их нужно пичкать контекстом и давать свободу в выборе способа решить задачу.
Спустя год, пора двигаться ещё дальше.
Агентские системы взяли лучшее от итераций в режиме чата и построения огромных промптов.
Короче:
- Формулируешь конечный результат
- Описываешь в каком формате
- Описываешь ограничения
- Закидываешь в конец кучу контекста по задаче
Весь 2025 я прилежно старался использовать эти советы и могу сказать, что они работают. Они были логичным ответом на появление моделей думающих перед ответом по 5+ минут. Разговаривать с ними не удобно, а вместо этого их нужно пичкать контекстом и давать свободу в выборе способа решить задачу.
Спустя год, пора двигаться ещё дальше.
Агентские системы взяли лучшее от итераций в режиме чата и построения огромных промптов.
👍6❤1🔥1
Про неявное знание
1. Посмотрел документалку про ирландского фермера, который делает ножи.
Это рассказ про мастерство и семейное наследие.
Мне зашло, что авторы подвязали сюда тему неявного знания. То есть знания, которое трудно сформулировать и передать словами.
Например, умение ездить на велосипеде. Неявное знание - это моторика, интуиция и то что мы называем опытом, мудростью или проницательностью.
А еще это умение ковать ножи.
Для мужика из видео это скорее искусство, чем ремесло. Он затачивает лезвие по ощущению. Смотрит на отблеск и чувствует сталь.
Вместо замеров у него куча странных мелочей, которым он научился за годы практики.
Например, тест готовности ножа. Он режет бумагу и оценивает заточку на слух. Он слушает звук и сравнивает его с тем, как должно быть. Любое минимальное отличие и он находит дефект.
Как он этому научился?
Очень просто. Двадцать лет делал ножи и научился.
2. Проблема неявного знания буквально написана в его определении.
Как научить другого человека крафтить такие же ножи?
Можешь ли ты словами обьяснить как должен звучать идеальный разрез? Ну как то можешь. Но этого недостаточно, чтобы ученик натренировал свой мозг распознавать нужные звуки так же хорошо как мастер. И это только один секретик из множества в его процессе.
Поэтому ученик годами учится и практикуется. Это искусство, которое почти не передаётся словами.
Я понимаю, что это романтичная мысль.
Но неявное знание - полная хуйня, когда у тебя нет 20 лет на овладение навыком.
Даже там, где всё завязано на физический навык, избыток неявного знания тормозит прогресс.
Я это хорошо чувствую в баскетболе. На тренировках я люблю наблюдать за телом. Чувствовать где заваливается корпус, как стоит стопа, почему бросок с рывком. Я много практикуюсь и учусь чувствовать мяч.
3. Стандартизация круче, чем неявное знание.
Но по меркам профессионального спортсмена я занимаюсь ерундой.
Современный баскетбол это про измерение вообще всего.
Игроки знают, какие броски они забивают лучше. Знают, откуда и с какой вероятностью. Команды понимают, как свободное пространство в конкретной зоне влияет на атаку. И в какой момент это пространство появляется.
Около десяти лет назад Warriors показали, что такой подход работает. Они доверились данным и выстроили систему вокруг выгодных бросков. И это сработало настолько сильно, что остальные были вынуждены адаптироваться. И изменился сам баскетбол.
Считать цифры скучно. Но когда нужен результат - цифры его приносят.
Я не хочу наезжать на мастера ножей. Он не ставит цель быть лучшим в мире. Но это крутой пример. Он всю жизнь улучшал качество результата и перенёс часть своего скила в мышечную память. Ее нельзя записать и проговорить.
Но большая часть его опыта это просто неописанные процессы. У него нет терминов, метрик, чеклистов и поэтому его работа кажется романтичной магией. Хотя звук бумаги это всего лишь звуковые волны. В них есть паттерн брака или нет.
Проблема в том, что он упаковал в неявное знание слишком много лишнего. И ему:
- сложно быстро перенимать опыт других ножеделов
- сложно обучать помощников
- сложно масштабировать процесс
- сложно строить цикл улучшений сделал - измерил - улучшил
В кайфовом хобби вроде баскетбола или в семейном крафтовом бизнесе это нормально. Иногда это даже главное удовольствие.
Но в других областях неявного знания лучше бояться как огня.
Новые методы измерения напрямую ведут к открытиям. Как только ты можешь что-то стабильно увидеть или посчитать, появляются новые переменные, новые классы объектов. С ними проще строить модели. А если модель работает - она превращается в прорыв.
Например, в медицине один из самых ярких прорывов последних лет это иммунотерапия. Учёные научились точнее измерять иммунную систему. И придумали способы направлять её на атаку раковых клеток.
Я вообще не пытаюсь умалять восточную медицину. Но мне кажется, чем дальше, тем быстрее будет расти эффективность инженерной и стандартизованной медицины.
Потому что неявное знание замедляет обучение.
По возможности избегайте.
1. Посмотрел документалку про ирландского фермера, который делает ножи.
Это рассказ про мастерство и семейное наследие.
Мне зашло, что авторы подвязали сюда тему неявного знания. То есть знания, которое трудно сформулировать и передать словами.
Например, умение ездить на велосипеде. Неявное знание - это моторика, интуиция и то что мы называем опытом, мудростью или проницательностью.
А еще это умение ковать ножи.
Для мужика из видео это скорее искусство, чем ремесло. Он затачивает лезвие по ощущению. Смотрит на отблеск и чувствует сталь.
Вместо замеров у него куча странных мелочей, которым он научился за годы практики.
Например, тест готовности ножа. Он режет бумагу и оценивает заточку на слух. Он слушает звук и сравнивает его с тем, как должно быть. Любое минимальное отличие и он находит дефект.
Как он этому научился?
Очень просто. Двадцать лет делал ножи и научился.
2. Проблема неявного знания буквально написана в его определении.
Как научить другого человека крафтить такие же ножи?
Можешь ли ты словами обьяснить как должен звучать идеальный разрез? Ну как то можешь. Но этого недостаточно, чтобы ученик натренировал свой мозг распознавать нужные звуки так же хорошо как мастер. И это только один секретик из множества в его процессе.
Поэтому ученик годами учится и практикуется. Это искусство, которое почти не передаётся словами.
Я понимаю, что это романтичная мысль.
Но неявное знание - полная хуйня, когда у тебя нет 20 лет на овладение навыком.
Даже там, где всё завязано на физический навык, избыток неявного знания тормозит прогресс.
Я это хорошо чувствую в баскетболе. На тренировках я люблю наблюдать за телом. Чувствовать где заваливается корпус, как стоит стопа, почему бросок с рывком. Я много практикуюсь и учусь чувствовать мяч.
3. Стандартизация круче, чем неявное знание.
Но по меркам профессионального спортсмена я занимаюсь ерундой.
Современный баскетбол это про измерение вообще всего.
Игроки знают, какие броски они забивают лучше. Знают, откуда и с какой вероятностью. Команды понимают, как свободное пространство в конкретной зоне влияет на атаку. И в какой момент это пространство появляется.
Около десяти лет назад Warriors показали, что такой подход работает. Они доверились данным и выстроили систему вокруг выгодных бросков. И это сработало настолько сильно, что остальные были вынуждены адаптироваться. И изменился сам баскетбол.
Считать цифры скучно. Но когда нужен результат - цифры его приносят.
Я не хочу наезжать на мастера ножей. Он не ставит цель быть лучшим в мире. Но это крутой пример. Он всю жизнь улучшал качество результата и перенёс часть своего скила в мышечную память. Ее нельзя записать и проговорить.
Но большая часть его опыта это просто неописанные процессы. У него нет терминов, метрик, чеклистов и поэтому его работа кажется романтичной магией. Хотя звук бумаги это всего лишь звуковые волны. В них есть паттерн брака или нет.
Проблема в том, что он упаковал в неявное знание слишком много лишнего. И ему:
- сложно быстро перенимать опыт других ножеделов
- сложно обучать помощников
- сложно масштабировать процесс
- сложно строить цикл улучшений сделал - измерил - улучшил
В кайфовом хобби вроде баскетбола или в семейном крафтовом бизнесе это нормально. Иногда это даже главное удовольствие.
Но в других областях неявного знания лучше бояться как огня.
Новые методы измерения напрямую ведут к открытиям. Как только ты можешь что-то стабильно увидеть или посчитать, появляются новые переменные, новые классы объектов. С ними проще строить модели. А если модель работает - она превращается в прорыв.
Например, в медицине один из самых ярких прорывов последних лет это иммунотерапия. Учёные научились точнее измерять иммунную систему. И придумали способы направлять её на атаку раковых клеток.
Я вообще не пытаюсь умалять восточную медицину. Но мне кажется, чем дальше, тем быстрее будет расти эффективность инженерной и стандартизованной медицины.
Потому что неявное знание замедляет обучение.
По возможности избегайте.
❤15👍12🔥6
Почему неявного знания стоит избегать.
Вам знакомо ощущение, когда задачу проще самому сделать, чем поручать нейросети?
Я когда начал разбираться в агентских системах (штуки типа Claude Code), постоянно на это натыкаюсь. Всё время хочется засучить рукава и по‑старинке сделать самому.
Потому что так я уверен в качестве на выходе. Потому что можно просто взять и начать делать, а не сидеть часами и вытаскивать из себя неявное знание о контексте задачи.
Например, у меня есть табличка, где я собираю данные про свою жизнь. Насколько у меня хороший сон, сколько работаю, как дела с кукухой и всякие другие ЗОЖные штуки.
Мне всё время хочется добавить ещё метрик. Например, сколько часов я залипаю в YouTube.
Но данные полезны только если их регулярно разбирать. Табличка внезапно превратилась в хобби в котором я на улучшение продуктивности трачу больше времени, чем на саму продуктивность.
А я не хочу хобби - я хочу готовый совет типа "неделю назад у тебя поломался сон, потому что ты много смотрел YouTube".
Короче, идеальная задача, чтобы часть анализа переложить на нейронку, а не делать всё самому.
Но.
Мой процесс сделан под меня, а не под нейросеть. Я экономил время на лишних описаниях и не тратился на бюрократию. Как кто-то извне разберётся, чем у меня отличается сон на 4/5 от 5/5?
У меня это бережно упаковано в неявное знание, которое прекрасно работает когда я сам заполняю и анализирую табличку.
Ну и это боль - сидеть и выписывать чо там в этих данных есть. Потом объяснять модели на какие повторяющиеся паттерны поведения смотреть. А чтобы получить по-настоящему крутой результат, хорошо бы еще распаковать мои знания аналитика за кучу лет опыта.
Именно поэтому чаще проще самому сделать, чем делегировать.
Оказалось, похожих задач у меня полно. И в каждой я как тот мастер ножей из прошлого поста. Знаю кучу маленьких секретиков, но толком не могу научить другого.
И чем дальше, тем хуже.
Полезных знаний стало так много, что не хочется тратить время на бюрократию. Записывать, что ты изучил. Я итак не успеваю за всем что выходит. Вместо этого хочется почитать саммари и быстрее бежать пробовать на практике.
То есть растить неявное знание.
И в итоге сейчас я в каждой задаче с муками выковыриваю это неявное знание из себя обратно. Чтобы рассказать Клоду, как делать хорошо.
Оказывается нужно было учиться за двоих. За себя и за нейросеть.
Заранее думать, как всё изученное я ей объясню. Собирать для неё артефакты. И понимать, как их потом обновлять, когда устареют.
Мне кажется, в работе с нейронками мы прошли три стадии. И каждая все меньше полагается на неявное знание.
Вам знакомо ощущение, когда задачу проще самому сделать, чем поручать нейросети?
Я когда начал разбираться в агентских системах (штуки типа Claude Code), постоянно на это натыкаюсь. Всё время хочется засучить рукава и по‑старинке сделать самому.
Потому что так я уверен в качестве на выходе. Потому что можно просто взять и начать делать, а не сидеть часами и вытаскивать из себя неявное знание о контексте задачи.
Например, у меня есть табличка, где я собираю данные про свою жизнь. Насколько у меня хороший сон, сколько работаю, как дела с кукухой и всякие другие ЗОЖные штуки.
Мне всё время хочется добавить ещё метрик. Например, сколько часов я залипаю в YouTube.
Но данные полезны только если их регулярно разбирать. Табличка внезапно превратилась в хобби в котором я на улучшение продуктивности трачу больше времени, чем на саму продуктивность.
А я не хочу хобби - я хочу готовый совет типа "неделю назад у тебя поломался сон, потому что ты много смотрел YouTube".
Короче, идеальная задача, чтобы часть анализа переложить на нейронку, а не делать всё самому.
Но.
Мой процесс сделан под меня, а не под нейросеть. Я экономил время на лишних описаниях и не тратился на бюрократию. Как кто-то извне разберётся, чем у меня отличается сон на 4/5 от 5/5?
У меня это бережно упаковано в неявное знание, которое прекрасно работает когда я сам заполняю и анализирую табличку.
Ну и это боль - сидеть и выписывать чо там в этих данных есть. Потом объяснять модели на какие повторяющиеся паттерны поведения смотреть. А чтобы получить по-настоящему крутой результат, хорошо бы еще распаковать мои знания аналитика за кучу лет опыта.
Именно поэтому чаще проще самому сделать, чем делегировать.
Оказалось, похожих задач у меня полно. И в каждой я как тот мастер ножей из прошлого поста. Знаю кучу маленьких секретиков, но толком не могу научить другого.
И чем дальше, тем хуже.
Полезных знаний стало так много, что не хочется тратить время на бюрократию. Записывать, что ты изучил. Я итак не успеваю за всем что выходит. Вместо этого хочется почитать саммари и быстрее бежать пробовать на практике.
То есть растить неявное знание.
И в итоге сейчас я в каждой задаче с муками выковыриваю это неявное знание из себя обратно. Чтобы рассказать Клоду, как делать хорошо.
Оказывается нужно было учиться за двоих. За себя и за нейросеть.
Заранее думать, как всё изученное я ей объясню. Собирать для неё артефакты. И понимать, как их потом обновлять, когда устареют.
Мне кажется, в работе с нейронками мы прошли три стадии. И каждая все меньше полагается на неявное знание.
👍8❤3
1. Когда мы просто чатились с моделью.
Я навсегда запомню моё знакомство с Midjourney.Когда то давно они были самым крутым сервисом для генерёжки картинок. И первыми распространили идею, что вообще возможно создавать что то классное, а не нейрокринж.
Я потратил целый день на чтение документации. А в итоге половина вещей просто не работала. Нейронка генерила людей с шестью пальцами и отказывалась их потом исправлять до пяти.
Забавно, что у моего друга картинки через простые промпты без занния как оно там всё устроено получались примерно того же качества, что и у меня.
Жопа горела знатно.
Мне нехватало неявных знаний, что нужно просто запустить промпт 10 раз. И 1 из них сработает. Что нужно скидывать несколько референсов. Что промпт не должен быть слишком большим, но при этом нужно прописать много деталей. Но не слишком много.
Ничего из этого в документации конечно же не было. Нужно было много раз пробовать и учиться.
Думаю, на этапе знакомства с нейросетями каждый проходит через что-то похожее.
Ты общаешься с чатиком, копируешь чужие промпты из интернета. Но результат всё равно получается не сразу и не совсем тот, что хотелось. Нельзя стать крутым просто прочитав топ 10 советов Андрея Карпати.
То что у тебя не сработало - не значит, что ты что то неправильно сделал.
Или значит. Это модель глупая или ты дал ей неподходящую задачу?
Нужна практика и куча диалогов. Это этап творческого поиска, где ты обрастаешь неявным знанием. О том, на каких твоих задачах нейронка может быть полезна. Что при ошибке нет смысла спорить, а проще запустить заново и получить нужный результат. Или не получить.
На этом этапе ты занимаешься непонятной алхимией, где результат не гарантирован. А каждый новый чат это начало почти с чистого листа. Весь опыт бережно пакуется в голову, а не в артефакты, которые можно переиспользовать.
Я навсегда запомню моё знакомство с Midjourney.Когда то давно они были самым крутым сервисом для генерёжки картинок. И первыми распространили идею, что вообще возможно создавать что то классное, а не нейрокринж.
Я потратил целый день на чтение документации. А в итоге половина вещей просто не работала. Нейронка генерила людей с шестью пальцами и отказывалась их потом исправлять до пяти.
Забавно, что у моего друга картинки через простые промпты без занния как оно там всё устроено получались примерно того же качества, что и у меня.
Жопа горела знатно.
Мне нехватало неявных знаний, что нужно просто запустить промпт 10 раз. И 1 из них сработает. Что нужно скидывать несколько референсов. Что промпт не должен быть слишком большим, но при этом нужно прописать много деталей. Но не слишком много.
Ничего из этого в документации конечно же не было. Нужно было много раз пробовать и учиться.
Думаю, на этапе знакомства с нейросетями каждый проходит через что-то похожее.
Ты общаешься с чатиком, копируешь чужие промпты из интернета. Но результат всё равно получается не сразу и не совсем тот, что хотелось. Нельзя стать крутым просто прочитав топ 10 советов Андрея Карпати.
То что у тебя не сработало - не значит, что ты что то неправильно сделал.
Или значит. Это модель глупая или ты дал ей неподходящую задачу?
Нужна практика и куча диалогов. Это этап творческого поиска, где ты обрастаешь неявным знанием. О том, на каких твоих задачах нейронка может быть полезна. Что при ошибке нет смысла спорить, а проще запустить заново и получить нужный результат. Или не получить.
На этом этапе ты занимаешься непонятной алхимией, где результат не гарантирован. А каждый новый чат это начало почти с чистого листа. Весь опыт бережно пакуется в голову, а не в артефакты, которые можно переиспользовать.
👍4❤2
2. Когда появились рассуждающие модели.
Помните, как мы когда-то добавляли в промпт think step by step?
Где-то год назад этот совет устарел. Как и куча других. Я недавно писал, чего такого привнесли рассуждающие модели, что их стоит выделить как отдельную эпоху.
Они стали отвечать медленнее, но подробнее. Это уже не диалог, в котором ты потихоньку направляешь модель в нужную сторону. А большой промпт с кучей контекста на входе и такой же большой отчёт на выходе.
Из-за этого я начал лучше описывать задачи и чаще доверять модели самой искать решение.
Усилий для качественного результата нужно больше. Поэтому промпты хочется где-то хранить, переиспользовать и улучшать. Чтобы каждый раз не начинать с нуля.
Так у меня появился первый серьёзный артефакт. Огромный файл с промптами и советами. Я открывал несколько вкладок с моделями и механически копировал нужный кусок.
Где-то полгода назад я заметил странное. В файле перестало появляться что-то новое.
Почему?
Обновить большой промпт это отдельная задача, которая отвлекает от основной. Его надо вдумчиво перечитать и поправить. А делать это после пары длинных ответов из трёх вкладок не хочется вообще.
Поэтому у меня появился бэклог по улучшению промптов. И технический долг по этому бэклогу =)
Возиться с промптами скучно. Гораздо интереснее прочитать саммари статьи, чем чинить промпт, который это саммари сделал. И чем промпт больше, тем больнее вносить правки.
Короче, появились артефакты. Их можно переиспользовать. Но следить за ними лень.
В итоге проклятое неявное знание не исчезло. Оно теперь висит в бэклоге и ждёт когда ты его перенесёшь из головы в артефакт. Чем больше знаешь, тем сложнее учиться новому.
Помните, как мы когда-то добавляли в промпт think step by step?
Где-то год назад этот совет устарел. Как и куча других. Я недавно писал, чего такого привнесли рассуждающие модели, что их стоит выделить как отдельную эпоху.
Они стали отвечать медленнее, но подробнее. Это уже не диалог, в котором ты потихоньку направляешь модель в нужную сторону. А большой промпт с кучей контекста на входе и такой же большой отчёт на выходе.
Из-за этого я начал лучше описывать задачи и чаще доверять модели самой искать решение.
Усилий для качественного результата нужно больше. Поэтому промпты хочется где-то хранить, переиспользовать и улучшать. Чтобы каждый раз не начинать с нуля.
Так у меня появился первый серьёзный артефакт. Огромный файл с промптами и советами. Я открывал несколько вкладок с моделями и механически копировал нужный кусок.
Где-то полгода назад я заметил странное. В файле перестало появляться что-то новое.
Почему?
Обновить большой промпт это отдельная задача, которая отвлекает от основной. Его надо вдумчиво перечитать и поправить. А делать это после пары длинных ответов из трёх вкладок не хочется вообще.
Поэтому у меня появился бэклог по улучшению промптов. И технический долг по этому бэклогу =)
Возиться с промптами скучно. Гораздо интереснее прочитать саммари статьи, чем чинить промпт, который это саммари сделал. И чем промпт больше, тем больнее вносить правки.
Короче, появились артефакты. Их можно переиспользовать. Но следить за ними лень.
В итоге проклятое неявное знание не исчезло. Оно теперь висит в бэклоге и ждёт когда ты его перенесёшь из головы в артефакт. Чем больше знаешь, тем сложнее учиться новому.
👍4❤1💯1
3. Когда модели дали доступ к компьютеру.
Ну дали и дали, что поменялось то?
Теперь модель умеет не только отвечать, но и что то делать. Читать файлы, запускать команды и сохранять результат работы. Это уверенный шаг в сторону от неявного знания в голове к стандартизации и инженерному подходу.
Из-за того что у Claude Code есть доступ к файловой системе, стало легче просить его обращаться к документам. У меня это теперь не один огромный файл с промптами, а база скилов и контекста для модели. Их и просто использовать и просто обновлять. Потому что при каждой ошибке можно в конце просить агента улучшать скилл, чтобы в следующий раз он справился лучше.
Это движок, который дает накопительный эффект. Чем больше всего я пакую в стандартизованный процесс, тем проще в следующий раз делегировать задачу.
Моя роль теперь - направлять модель и чекать, что движок не развалился.
Я все еще много чего делаю сам и коплю неявное знание в голове. Но параллельно с этим я создаю артефакты и процессы для нейронки, чтобы она тоже училась вместе со мной.
Короче, неявное знание обновлять сложно. Самому вычитывать артефакты тоже. А вот попросить модель обновить записанные инструкции - легко.
Это движок, который становится лучше, чем дольше ты им пользуешься.
Ну дали и дали, что поменялось то?
Теперь модель умеет не только отвечать, но и что то делать. Читать файлы, запускать команды и сохранять результат работы. Это уверенный шаг в сторону от неявного знания в голове к стандартизации и инженерному подходу.
Из-за того что у Claude Code есть доступ к файловой системе, стало легче просить его обращаться к документам. У меня это теперь не один огромный файл с промптами, а база скилов и контекста для модели. Их и просто использовать и просто обновлять. Потому что при каждой ошибке можно в конце просить агента улучшать скилл, чтобы в следующий раз он справился лучше.
Это движок, который дает накопительный эффект. Чем больше всего я пакую в стандартизованный процесс, тем проще в следующий раз делегировать задачу.
Моя роль теперь - направлять модель и чекать, что движок не развалился.
Я все еще много чего делаю сам и коплю неявное знание в голове. Но параллельно с этим я создаю артефакты и процессы для нейронки, чтобы она тоже училась вместе со мной.
Короче, неявное знание обновлять сложно. Самому вычитывать артефакты тоже. А вот попросить модель обновить записанные инструкции - легко.
Это движок, который становится лучше, чем дольше ты им пользуешься.
👍4🔥3
4. Выводы
Обучение это больше не про то, умеешь ли ты делать сам.
Это про то, умеешь ли ты делегировать задачу ллм, чтобы она сделала ее в нужном качестве.
Для этого нужен другой подход к обучению. Учиться самому и выстраивать внешний движок с обратной связью:
- Копить фреймворки "как делать правильно, как неправильно".
- Хранить контекст в файлах, а не в переписке с моделью.
- Ставить задачи так, чтобы модель сама решала как заюзать фреймворки и контекст, чтобы прийти к результату который ты от нее хочешь.
- Использовать агентов, чтобы проверять качество результата.
- Учитывать обратную связь, чтобы фреймворки, промпты, контекст, чек-листы обновлялись и становились лучше.
Так почему же неявного знания стоит избегать?
Потому что оно медленное и неповоротливое.
Знания в голове быстро устаревают. Но продолжают копиться.
Чем их больше, тем сложнее их обновлять.
Если неактуальных знаний слишком много - становится сложно делегировать.
А с тем как сейчас развиваются технологии это важно.
Обучение это больше не про то, умеешь ли ты делать сам.
Это про то, умеешь ли ты делегировать задачу ллм, чтобы она сделала ее в нужном качестве.
Для этого нужен другой подход к обучению. Учиться самому и выстраивать внешний движок с обратной связью:
- Копить фреймворки "как делать правильно, как неправильно".
- Хранить контекст в файлах, а не в переписке с моделью.
- Ставить задачи так, чтобы модель сама решала как заюзать фреймворки и контекст, чтобы прийти к результату который ты от нее хочешь.
- Использовать агентов, чтобы проверять качество результата.
- Учитывать обратную связь, чтобы фреймворки, промпты, контекст, чек-листы обновлялись и становились лучше.
Так почему же неявного знания стоит избегать?
Потому что оно медленное и неповоротливое.
Знания в голове быстро устаревают. Но продолжают копиться.
Чем их больше, тем сложнее их обновлять.
Если неактуальных знаний слишком много - становится сложно делегировать.
А с тем как сейчас развиваются технологии это важно.
👍10❤2
Про рост и халяву.
OpenAI и Anthropic с начала года растут какими то безумными темпами. И периодически подпитывают рост халявой.
Если у вас есть месячная подписка на Chagpt, попробуйте в настройках отписаться. Мне они предложили месяц бесплатно вместо отписки.
На Клод до 28 марта удвоеные лимиты в непиковые часы действуют. И еще они недавно с релизом 4.6 давали всем 50 баксов на модели (upd, уже нельзя получить).
Короче, это все приятно. Но думаю халявы скоро станет сильно меньше.
По крайней мере я такой вывод сделал после нескольких подкастов с Dylan Patel. Раз. Два.
А он шарит. Если вдруг помните, это тот челик кто определял готовность датацентров по спутниковым снимкам. Кмк, он один из лучших журналистов нашего времени.
Из минусов - он сыплет в тебя цифрами как из пулемета когда что то рассказывает. Поэтому сейчас пишу пост, чтобы спокойно самому разобраться. И вам рассказать.
Пост про рост бабок от агентов и какие штуки этому росту мешают. Что возможно оперативка подорожает еще больше, а халява для бедняков закончится.
OpenAI и Anthropic с начала года растут какими то безумными темпами. И периодически подпитывают рост халявой.
Если у вас есть месячная подписка на Chagpt, попробуйте в настройках отписаться. Мне они предложили месяц бесплатно вместо отписки.
На Клод до 28 марта удвоеные лимиты в непиковые часы действуют. И еще они недавно с релизом 4.6 давали всем 50 баксов на модели (upd, уже нельзя получить).
Короче, это все приятно. Но думаю халявы скоро станет сильно меньше.
По крайней мере я такой вывод сделал после нескольких подкастов с Dylan Patel. Раз. Два.
А он шарит. Если вдруг помните, это тот челик кто определял готовность датацентров по спутниковым снимкам. Кмк, он один из лучших журналистов нашего времени.
Из минусов - он сыплет в тебя цифрами как из пулемета когда что то рассказывает. Поэтому сейчас пишу пост, чтобы спокойно самому разобраться. И вам рассказать.
Пост про рост бабок от агентов и какие штуки этому росту мешают. Что возможно оперативка подорожает еще больше, а халява для бедняков закончится.
🔥7❤3
Происходит интересное.
Не я один схожу с ума по нейросетям.
В конце года OpenAI и Anthropic возможно решатся на IPO. Подтверждений пока никаких нет, но зато они с большим энтузиазмом постят сколько зарабатывают.
И это пиздец.
Это очень много денег.
Anthropic с начала года выросли в 3 раза. При том, что они уже большая компания.
А чем ты больше, тем сложнее продолжать расти с прежней скоростью.
(Смотрите картинки под постом)
Даже когда складывались уникальные условия в прошлом, таких цифр не было. Например, Zoom в пандемию, Google в момент их выхода на IPO, Coinbase когда они заработали на комиссиях на хайпе крипты. Это компании, которые в 5-10 раз меньше Anthropic, которые находились в особой ситуации и все равно росли медленнее.
Можно с натяжкой сказать, то такого никогда не было. С натяжкой, потому что во первых были еще производители вакцины во время пандемии, а во вторых цифры Антропиков - это прогноз на остаток года по его началу. Но это кмк не особо важно и мои выводы не меняет.
Чо за выводы то?
1. Это крутой признак реального спроса на агентские системы.
Когда в прошлом году куча людей вдруг узнало, что ChatGPT умеет генерить классные картинки, к большим деньгам это не привело.
Сейчас же, только за один январь число коммитов от Claude Code на GitHub (в публично доступных репах) выросло с 2% до 4%. Если кажется мало, то учтите, что это всего за месяц и без учета Кодекса, Копайлота и Девина.
К концу года ребята прогнозируют что Клод дорастёт с 4% до 20%+.
Даже если подписка за 100$ может автоматизировать небольшую часть работы, это все равно не сравнится с зарплатой специалиста. Для медианной зарплаты в 350-500$ в день, ROI подписки для 10% самой простой и рутинной работы человека будет в 10-30 раз больше.
То есть - агенты доказали, что они могут делать ценную работу, за которую компании готовы платить. Это хайп, подкреплённый экономической ценностью, а не картинками для соцсетей.
И прикол в том, что мы только в начале пути. Спросу есть куда расти, тк агентами пользуются пока только самые шустрые. К ним потихньку подтянутся и все остальные.
И ...
2. Индустрия к этому не готова.
(продолжение пока пишу)
Не я один схожу с ума по нейросетям.
В конце года OpenAI и Anthropic возможно решатся на IPO. Подтверждений пока никаких нет, но зато они с большим энтузиазмом постят сколько зарабатывают.
И это пиздец.
Это очень много денег.
Anthropic с начала года выросли в 3 раза. При том, что они уже большая компания.
А чем ты больше, тем сложнее продолжать расти с прежней скоростью.
(Смотрите картинки под постом)
Даже когда складывались уникальные условия в прошлом, таких цифр не было. Например, Zoom в пандемию, Google в момент их выхода на IPO, Coinbase когда они заработали на комиссиях на хайпе крипты. Это компании, которые в 5-10 раз меньше Anthropic, которые находились в особой ситуации и все равно росли медленнее.
Можно с натяжкой сказать, то такого никогда не было. С натяжкой, потому что во первых были еще производители вакцины во время пандемии, а во вторых цифры Антропиков - это прогноз на остаток года по его началу. Но это кмк не особо важно и мои выводы не меняет.
Чо за выводы то?
1. Это крутой признак реального спроса на агентские системы.
Когда в прошлом году куча людей вдруг узнало, что ChatGPT умеет генерить классные картинки, к большим деньгам это не привело.
Сейчас же, только за один январь число коммитов от Claude Code на GitHub (в публично доступных репах) выросло с 2% до 4%. Если кажется мало, то учтите, что это всего за месяц и без учета Кодекса, Копайлота и Девина.
К концу года ребята прогнозируют что Клод дорастёт с 4% до 20%+.
Даже если подписка за 100$ может автоматизировать небольшую часть работы, это все равно не сравнится с зарплатой специалиста. Для медианной зарплаты в 350-500$ в день, ROI подписки для 10% самой простой и рутинной работы человека будет в 10-30 раз больше.
То есть - агенты доказали, что они могут делать ценную работу, за которую компании готовы платить. Это хайп, подкреплённый экономической ценностью, а не картинками для соцсетей.
И прикол в том, что мы только в начале пути. Спросу есть куда расти, тк агентами пользуются пока только самые шустрые. К ним потихньку подтянутся и все остальные.
И ...
2. Индустрия к этому не готова.
(продолжение пока пишу)
🔥7👍1
В табличке собрал примеры самых удачных периодов роста у крупных компаний.
На втором графике коммиты на гитхабе от Клода.
На третьем - рост годовой выручки от OpenAI и Anthropic (на них стрелочка)
На втором графике коммиты на гитхабе от Клода.
На третьем - рост годовой выручки от OpenAI и Anthropic (на них стрелочка)
🔥7
Индустрия не готова к такому росту.
(это продолжение прошлого поста)
Чтобы не говорить про абстрактную индустрию, поделю ее на 3 слоя.
1. ИИ лаборатории делают модели. OpenAI, Anthropic, DeepMind.
2. Гиперскейлеры строят датацентры. Google, Amazon, Microsoft, Meta.
3. Производители чипов производят чипы. Nvidia, TSMC, ASML.
И на всех слоях компании ссутся.
Люди в интернете любят поговорить про пузыри. Так вот все эти компании внезапно в курсе, что пузыри случаются. И чтобы не обанкротиться, каждый изобраетает свои способы.
Dario Amodei говорит, что планы компании он строит из негативного сценария по выручке. Забавно, что в этом году они его уже в полтора раза превышают. А от года всего 3 месяца прошло. Позитивный сценарий правда тоже превышают.
Дваркеш на интервью прямо спросил, как так. Ведь Дарио верит в невероятную пользу от ИИ в будущем. Пишет про это большие эссе, питчит про "страну гениев внутри датацентра". И при этом не хочет закладывать бабки по максимуму в это самое будущее.
Дарио говорит, что это опасно из за кассового разрыва в бизнес модели.
То есть, они предоставляют юзерам модель. Платят за инференс владешьцам железа и получают деньги с подписок и API. А параллельно с этим инвестируют бабки в ресерч на создание модели следующего поколения. Зарабатывать с которой начнут только через год или два.
Ты балансируешь не просто доходы с расходами, но еще и инвестиции в будущий рост. И если сильно вложился, а роста не случилось - у тебя огромные проблемы.
В таком режиме Антропики живут уже три года подряд. Каждый год растут в 10 раз.
Дарио предполагает, что в 2026 это закончится. Ведь чем ты больше, тем сложнее.
Про что он в интерью не говорил, это про то, что их маржинальность растёт медленнее, чем должна по прогнозу. Расходы растут в разы быстрее того, что они закладывали в свои планы.
Дарио говорит, что он хочет вывести компанию в зону прибыльности через несколько лет. Для этого нужно улучшить маржинальность. То есть, замедлить рост и консервативно инвестировать деньги только на самые эффективные штуки.
Логика складная. А вот замедлиться чего то не выходит, как будто они в этом году готовы снова в 10 раз вырасти. Но ресурсов под это не заложено. Антропикам не хватает мощностей для такого количества пользователей.
Потому что видекарты принадлежат гиперскейлерам, а Антропики только арендуют их. Они не могут просто прийти в датацентр и попросить больше.
У владельца датацентра тоже есть риск подорваться на пузыре. Поэтому все обьемы расписаны заранее.
Чтобы Anthropic смогли заработать $30B в год, кому то пришлось потратить $80B на инфстуктуру. С расчётом, что все это купится за несколько лет.
Amazon в этом году потратит примерно $200B, Google $180B, Meta $125B, Microsoft $105B. Это задел на триллионы экономической ценности в ближайшие годы.
И риск кассового разрыва, если ценности не случится.
Индустрия - это длиннющая цепочка создания ценности. И каждый в ней старается снизить для себя риски, фиксируя ожидания в контрактах. Что снижает способность всей цепочки реагировать на неожиданности. Такие как, например, рост популярности агентов.
Это приводит к тому, что каждый год лабортории ограничены чем то новым. И ограничения потихоньку сьезжают к тем, кто дальше в этой цепочке от конечного юзера. Потому что их риски больше, а контракты еще менее гибкие.
(будет ещё продолжение про производителей чипов)
(это продолжение прошлого поста)
Чтобы не говорить про абстрактную индустрию, поделю ее на 3 слоя.
1. ИИ лаборатории делают модели. OpenAI, Anthropic, DeepMind.
2. Гиперскейлеры строят датацентры. Google, Amazon, Microsoft, Meta.
3. Производители чипов производят чипы. Nvidia, TSMC, ASML.
И на всех слоях компании ссутся.
Люди в интернете любят поговорить про пузыри. Так вот все эти компании внезапно в курсе, что пузыри случаются. И чтобы не обанкротиться, каждый изобраетает свои способы.
Dario Amodei говорит, что планы компании он строит из негативного сценария по выручке. Забавно, что в этом году они его уже в полтора раза превышают. А от года всего 3 месяца прошло. Позитивный сценарий правда тоже превышают.
Дваркеш на интервью прямо спросил, как так. Ведь Дарио верит в невероятную пользу от ИИ в будущем. Пишет про это большие эссе, питчит про "страну гениев внутри датацентра". И при этом не хочет закладывать бабки по максимуму в это самое будущее.
Дарио говорит, что это опасно из за кассового разрыва в бизнес модели.
То есть, они предоставляют юзерам модель. Платят за инференс владешьцам железа и получают деньги с подписок и API. А параллельно с этим инвестируют бабки в ресерч на создание модели следующего поколения. Зарабатывать с которой начнут только через год или два.
Ты балансируешь не просто доходы с расходами, но еще и инвестиции в будущий рост. И если сильно вложился, а роста не случилось - у тебя огромные проблемы.
В таком режиме Антропики живут уже три года подряд. Каждый год растут в 10 раз.
Дарио предполагает, что в 2026 это закончится. Ведь чем ты больше, тем сложнее.
Про что он в интерью не говорил, это про то, что их маржинальность растёт медленнее, чем должна по прогнозу. Расходы растут в разы быстрее того, что они закладывали в свои планы.
Дарио говорит, что он хочет вывести компанию в зону прибыльности через несколько лет. Для этого нужно улучшить маржинальность. То есть, замедлить рост и консервативно инвестировать деньги только на самые эффективные штуки.
Логика складная. А вот замедлиться чего то не выходит, как будто они в этом году готовы снова в 10 раз вырасти. Но ресурсов под это не заложено. Антропикам не хватает мощностей для такого количества пользователей.
Потому что видекарты принадлежат гиперскейлерам, а Антропики только арендуют их. Они не могут просто прийти в датацентр и попросить больше.
У владельца датацентра тоже есть риск подорваться на пузыре. Поэтому все обьемы расписаны заранее.
Чтобы Anthropic смогли заработать $30B в год, кому то пришлось потратить $80B на инфстуктуру. С расчётом, что все это купится за несколько лет.
Amazon в этом году потратит примерно $200B, Google $180B, Meta $125B, Microsoft $105B. Это задел на триллионы экономической ценности в ближайшие годы.
И риск кассового разрыва, если ценности не случится.
Индустрия - это длиннющая цепочка создания ценности. И каждый в ней старается снизить для себя риски, фиксируя ожидания в контрактах. Что снижает способность всей цепочки реагировать на неожиданности. Такие как, например, рост популярности агентов.
Это приводит к тому, что каждый год лабортории ограничены чем то новым. И ограничения потихоньку сьезжают к тем, кто дальше в этой цепочке от конечного юзера. Потому что их риски больше, а контракты еще менее гибкие.
(будет ещё продолжение про производителей чипов)
👍12❤3
Ограничения постоянно разные.
(продолжение)
В 2023 все гонялись за видеокартами. А точнее у заводов TSMC не хватало мощностей для финальной сборки чипов в модули (CoWoS).
В 2024 случился дефицит HBM памяти для тех же модулей.
В 2025 с картами стало лучше, но для датацентров начало не хватать энергии.
В 2026 стало понятно, что даже если энергия есть, электрическая сеть США не может ее доставлять в нужных обьемах до датацентров.
Дальше подробнее.
1. Память
Свременным моделям память нужна больше, чем раньше.
Я в прошлом посте писал, что компании тратят сотни миллиардов в год на инфраструктуру. По прикидкам примерно 30% из них - это на память.
Причем им приходится закупать дорогую HBM вместо дешевой DDR. Потому что высокая пропускная способность помогает видеокартам не простаивать пока память обрабатывает свою часть. Дорогая память не такая уж и дорогая в сравнении с чипами.
Скорее всего цены на память будут расти, если не придумают как это обходить. Могут спокойно еще в 2-3 раза вырасти, потому что SK Hynix и Samsung контролируют 90% рынка. А спрос на память только растёт.
2. Энергия и датацентры
xAI показали, что датацентры можно строить довольно быстро.
Но большая инфраструктура не выдерживает, когда в каком нибудь регионе за полгода появляется штука жрущая электричество как небольшой город. Я уже привык к новостям, что технологические компании начали закупать старые электростанции.
Удивительно, что челик из Semianalysis за энергию особо не беспокоится. Новые электростанции, трансформаторные и банально вышки для проводов строить долго. Но пока электическая сеть адаптируется к новой нагрузке, питать датацентры можно от промышленных турбин на газу. Буквально подвозишь к датацентру десяток трейлеров с генераторами и всё.
Еще есть всякие поршневые двигатели, солнечные панели и батареи, химические реакторы на водороде, судовые двигаетли... Короче, что только не придумали за время существвни топливной индустрии. И в совокупности вместе с эффективным использованием электросети это может дать сотни гигаватт мощностей.
(см картинку)
Чтобы строить дата-центры и реакторы быстро, не хватает квалифицированной рабочей силы и банально электриков.
Дорого и трудоёмко, но оказывается все еще проще, чем цепочка поставок полупродневников.
3. Производство полупроводников
Есть заводы (в основном TSMC), собирающие видеокарты определённой эры (по чертежам Nvidia или Google). Напрмер, по 3-нанометровому процессу.
Ну и просто не построено достаточно заводов.
Быстро это не исправить, потому что это одни из самых сложных промышленных объектов на планете. Чтобы такой построить, нужно 2-3 года и куча специализированного оборудования и химических штук.
Самое сложное - это литографические машины (EUV scanner). Они нужны, чтобы отливать чипы на вафельницах. Которые потом соединяют в модули с памятью и получаются видеокарты.
Так вот эти машины стоят ~$350M за штуку. Делает такие только одна компания из Нидерландов - ASML. Где то по 50 машин в год.
Можно прикинуть, что к 2030 году в мире их будет в ~700. Это порядка 200 гигават вычислений на всех.
На конец 2025 мы тратили 13.6 гигават. Это до бума агентов.
Короче, расти есть куда, но будет постоянный дефицит, ограниченный строительством заводов, ограниченный памятью и вафельницами, ограниченный машинами для литографии.
То есть это такие ограничения, которые нельзя залить деньгами в отличие от памяти и энергии для датацентров.
Это хорошо видно на поведении Google.
У них есть свой дизайн чипов. И при этом они четверть чипов закупают у Nvidia. Они бы с кайфом свои делали, вот только не могут.
Все чипы собирают заводы TSMC по чужим чертежам. А Google и Amazon (у них тоже есть свой дизайн) проспали момент когда Jensen Huang назаключал контрактов на производство аж на 70% мощностей 3-нм заводов. TSMC это супер выгодно, потому что они в конце производственной цепочки и им нужна стабильность.
Nvidia тоже кайфует, продавая карты в 6 раз дороже себестоимости.
А гугл еще и своих мощностей Антропикам через GCP напродавал. Удивительная компания.
(продолжение)
В 2023 все гонялись за видеокартами. А точнее у заводов TSMC не хватало мощностей для финальной сборки чипов в модули (CoWoS).
В 2024 случился дефицит HBM памяти для тех же модулей.
В 2025 с картами стало лучше, но для датацентров начало не хватать энергии.
В 2026 стало понятно, что даже если энергия есть, электрическая сеть США не может ее доставлять в нужных обьемах до датацентров.
Дальше подробнее.
1. Память
Свременным моделям память нужна больше, чем раньше.
Я в прошлом посте писал, что компании тратят сотни миллиардов в год на инфраструктуру. По прикидкам примерно 30% из них - это на память.
Причем им приходится закупать дорогую HBM вместо дешевой DDR. Потому что высокая пропускная способность помогает видеокартам не простаивать пока память обрабатывает свою часть. Дорогая память не такая уж и дорогая в сравнении с чипами.
Скорее всего цены на память будут расти, если не придумают как это обходить. Могут спокойно еще в 2-3 раза вырасти, потому что SK Hynix и Samsung контролируют 90% рынка. А спрос на память только растёт.
2. Энергия и датацентры
xAI показали, что датацентры можно строить довольно быстро.
Но большая инфраструктура не выдерживает, когда в каком нибудь регионе за полгода появляется штука жрущая электричество как небольшой город. Я уже привык к новостям, что технологические компании начали закупать старые электростанции.
Удивительно, что челик из Semianalysis за энергию особо не беспокоится. Новые электростанции, трансформаторные и банально вышки для проводов строить долго. Но пока электическая сеть адаптируется к новой нагрузке, питать датацентры можно от промышленных турбин на газу. Буквально подвозишь к датацентру десяток трейлеров с генераторами и всё.
Еще есть всякие поршневые двигатели, солнечные панели и батареи, химические реакторы на водороде, судовые двигаетли... Короче, что только не придумали за время существвни топливной индустрии. И в совокупности вместе с эффективным использованием электросети это может дать сотни гигаватт мощностей.
(см картинку)
Чтобы строить дата-центры и реакторы быстро, не хватает квалифицированной рабочей силы и банально электриков.
Дорого и трудоёмко, но оказывается все еще проще, чем цепочка поставок полупродневников.
3. Производство полупроводников
Есть заводы (в основном TSMC), собирающие видеокарты определённой эры (по чертежам Nvidia или Google). Напрмер, по 3-нанометровому процессу.
Ну и просто не построено достаточно заводов.
Быстро это не исправить, потому что это одни из самых сложных промышленных объектов на планете. Чтобы такой построить, нужно 2-3 года и куча специализированного оборудования и химических штук.
Самое сложное - это литографические машины (EUV scanner). Они нужны, чтобы отливать чипы на вафельницах. Которые потом соединяют в модули с памятью и получаются видеокарты.
Так вот эти машины стоят ~$350M за штуку. Делает такие только одна компания из Нидерландов - ASML. Где то по 50 машин в год.
Можно прикинуть, что к 2030 году в мире их будет в ~700. Это порядка 200 гигават вычислений на всех.
На конец 2025 мы тратили 13.6 гигават. Это до бума агентов.
Короче, расти есть куда, но будет постоянный дефицит, ограниченный строительством заводов, ограниченный памятью и вафельницами, ограниченный машинами для литографии.
То есть это такие ограничения, которые нельзя залить деньгами в отличие от памяти и энергии для датацентров.
Это хорошо видно на поведении Google.
У них есть свой дизайн чипов. И при этом они четверть чипов закупают у Nvidia. Они бы с кайфом свои делали, вот только не могут.
Все чипы собирают заводы TSMC по чужим чертежам. А Google и Amazon (у них тоже есть свой дизайн) проспали момент когда Jensen Huang назаключал контрактов на производство аж на 70% мощностей 3-нм заводов. TSMC это супер выгодно, потому что они в конце производственной цепочки и им нужна стабильность.
Nvidia тоже кайфует, продавая карты в 6 раз дороже себестоимости.
А гугл еще и своих мощностей Антропикам через GCP напродавал. Удивительная компания.
👍5❤3
1. Больше всех железа у Google
2. На 2025 мы тратим 13 гигават энергии на вычисления
3. ASML внезапно выросли в 2 раза и стали одной из 20 самых крупных компаний в мире
4. Google закупет чипы Nvidia
5. Из чего состоит видеокарта
2. На 2025 мы тратим 13 гигават энергии на вычисления
3. ASML внезапно выросли в 2 раза и стали одной из 20 самых крупных компаний в мире
4. Google закупет чипы Nvidia
5. Из чего состоит видеокарта
👍3😱1