обзор основных поинтов:
— кодинг стал не про писать, а про выражать намерение. карпати прямо формулирует это как сдвиг от writing code к delegation/manifests for agents. его тезис: бутылочное горлышко больше не скорость набора на клавиатуре, а умение правильно ставить задачи, держать контекст, запускать несколько агентных потоков и организовывать их работу.
— новый дефицит — не compute, а token throughput и orchestration. одна из сильных идей: раньше люди были зациклены на flops и gpu, а теперь практический bottleneck для отдельного человека все больше в том, насколько эффективно он прогоняет токены через модели и насколько хорошо организует параллельную работу агентов. то есть выигрывает не тот, кто лучше пишет код, а тот, кто лучше строит loops, memory, task queues, agent.md / program.md и вообще среду для агентов.
— он считает, что большинство провалов агентов — это пока skill issue, а не потолок моделей. это, пожалуй, один из самых спорных, но важных тезисов. карпати склонен трактовать неудачи агентов не как модели еще не умеют, а как проблему инструкции, памяти, организации контекста, неудачного интерфейса или плохой обвязки. то есть он смотрит на сбой как на повод дооптимизировать систему. но он одновременно признает jaggedness: модели могут выглядеть как очень сильные инженеры в одной задаче и как дети в другой.
— autoresearch для него — не игрушка, а намек на автоматизацию самого research loop. важный блок интервью — про autoresearch. идея в том, что агент может не просто помочь с кодом, а замкнуть исследовательский цикл: менять training code, запускать эксперименты, смотреть метрики, предлагать следующие шаги. это уже не агент пишет функцию, а агент исследует, как лучше исследовать.
— самая быстрая трансформация будет в digital-only работе. еще одна ключевая мысль: все, что связано с манипуляцией цифровой информацией, будет меняться быстрее всего. причина простая — биты копируются почти бесплатно, а атомы нет. поэтому software, research, digital operations, knowledge work и прочие чисто цифровые профессии будут перестраиваться раньше и сильнее, чем robotics или physical-world automation.
❤4
и ещё 5 пунктов:
— физический мир запаздывает, но интерфейс между digital и physical — огромная возможность. карпати не говорит, что robotics не важна. наоборот: он считает, что после первой волны разблокировки цифрового труда следующий большой слой — это интерфейсы между цифровым интеллектом и физическим миром: sensors, cameras, lab equipment, actuators, сбор данных из реальности и выполнение действий в реальном мире. но из-за того, что atoms are much harder, это будет двигаться медленнее, чем pure digital ai.
— по jobs он осторожен: профессии не обязательно исчезнут, но набор задач внутри них поменяется. на вопрос о рынке труда он не дает громких прогнозов вида — инженеров станет меньше. скорее его позиция такая — jobs — это bundles of tasks, и часть задач внутри профессий теперь можно делать намного быстрее. что это сделает с общим числом рабочих мест, зависит уже не только от технологий, но и от спроса, эластичности рынка и экономики в целом.
— open source, по его мнению, будет отставать от закрытых моделей, но останется критически важным. карпати говорит, что закрытые frontier-модели пока впереди, а open models обычно отстают на месяцы. но он не считает, что из этого следует доминирование closed-only мира. его ожидание: open source будет покрывать огромный массив “обычных” use cases, включая локальный запуск, а frontier closed models останутся для самых сложных задач. при этом он прямо озвучивает опасение по поводу чрезмерной централизации интеллекта в закрытых системах.
— он ждет не только монокультуру, но и speciation моделей. интересная часть — про speciation. сейчас индустрия толкается в сторону “одна гигантская модель на все”, но карпати допускает, что позже возникнет более разнообразная экосистема специализированных моделей: с общим когнитивным ядром, но оптимизированных под разные классы задач. это похоже на аргумент против идеи, что один универсальный foundation model навсегда поглотит все остальное.
— education тоже меняется: документация и объяснения все чаще пишутся уже не для людей, а для агентов. в концовке он высказывает довольно радикальную мысль: образование и документация будут частично перенаправлены на агентную аудиторию. его пример — вместо html-документации для людей все важнее markdown / structured docs для агентов. человеческая ценность тогда смещается в few bits of insight: придумать хорошую идею, упростить концепцию, выбрать правильный фрейминг, а не тратить время на объяснение того, что агент и так уже сможет разжевать сам.
❤5
Forwarded from Мягкие техники
Media is too big
VIEW IN TELEGRAM
Вакансии!
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
❤6🔥3 3
notion показал, как дизайн-команда прототипирует с claude code
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
— у notion дизайн ai-фич все заметнее сдвигается в сторону code-first прототипирования. мысль простая: если делаешь ai-продукт, уже недостаточно рисовать красивый макет, нужно как можно раньше проверять идею в живом коде и с реальной моделью, чтобы проектировать не абстракцию, а что-то действительно правдоподобное и рабочее.
— базовый принцип — encounter reality as early as possible. то есть как можно быстрее вытаскивать идею из “салфеточного” уровня и гонять ее в браузере, потому что именно там вылезают состояния загрузки, адаптивность, реальные взаимодействия и прочие штуки, которые фигма очень легко скрывает.
— для этого brian lovin собрал общий prototype playground: по сути один shared next.js-репозиторий для всей дизайн-команды. вместо того чтобы каждый дизайнер поднимал свой отдельный проект, у всех есть единая среда с общими компонентами, стилями, иконками и понятной файловой структурой, где проще переиспользовать чужие наработки и видеть, что вообще делает команда.
— тезис: хорошие ai-экспириенсы почти невозможно по-настоящему спроектировать только в figma. можно нарисовать поле ввода, кнопки и сценарий, но нельзя почувствовать, как это реально ведет себя в использовании — где модель тупит, где ломается, где появляются edge cases и странные фейлы. для этого нужен кодовый прототип, подключенный к реальной модели.
— сам практический workflow у них тоже показательный: claude code в терминале, редактор кода посередине и живой браузер рядом. плюс голосовой ввод для быстрых промптов и обязательный plan mode перед генерацией. то есть ai тут не “волшебная кнопка”, а часть довольно дисциплинированного процесса, где ты сначала читаешь план, а уже потом разрешаешь писать код.
— отдельно очень сильная история — это их команда /figma. она берет ссылку на фрейм, вытаскивает токены, структуру и ассеты через figma api / mcp, пишет next.js + tailwind-код, потом открывает результат в браузере и сравнивает его с оригиналом. если что-то не сходится, идет в self-correction loop и пытается исправиться сама, а не останавливается на первом черновике.
— у brian хороший базовый принцип работы с ai: когда claude просит тебя что-то сделать руками, нужно не делать это самому, а учить его делать это самому. не “открой браузер и проверь”, а “научим агента открыть браузер, протестировать сценарий и убедиться, что все ок”. это, кажется, вообще один из самых полезных паттернов во всей новой агентной работе.
— еще один практичный момент: recurring-проблемы они не терпят, а превращают в skills. например, когда модель стабильно путала названия иконок, вместо ручных правок они сделали отдельный навык, который умеет искать правильные иконки и синонимы по их системе. то есть ai здесь не просто используется, а постепенно обрастает костылями и надстройками, которые убирают его типовые слабые места.
— то же самое с деплоем: у них есть кастомная команда /deploy, которая прячет от команды почти весь git-ритуал. она сама проверяет зависимости, создает ветку, коммитит, пушит, открывает pr в браузере и даже следит за ci, а если проверки падают — пытается сама это поправить. по сути, они не просто ускоряют кодинг, а убирают операционную боль вокруг него.
— вывод: граница между дизайнером и билдерами становится сильно тоньше. не в смысле что дизайнер обязан стать полноценным фронтендером, а в смысле что лучший дизайн-процесс все чаще проходит через код, браузер, реальные модели и автоматизированные workflow, а не заканчивается на статическом макете.
Lennysnewsletter
🎙️ This week on How I AI: How Notion’s design team uses Claude Code to prototype
Your weekly listens from How I AI, part of the Lenny's Podcast Network
❤5
коротко:
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
❤1
Forwarded from Cерафимодальность
Media is too big
VIEW IN TELEGRAM
Очередной бешеный апдейт Клода: управление курсором и клавиатурой на удалённом компе.
👍3😱2
агенты внутри figma
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
❤6🔥6