и ещё 5 пунктов:
— физический мир запаздывает, но интерфейс между digital и physical — огромная возможность. карпати не говорит, что robotics не важна. наоборот: он считает, что после первой волны разблокировки цифрового труда следующий большой слой — это интерфейсы между цифровым интеллектом и физическим миром: sensors, cameras, lab equipment, actuators, сбор данных из реальности и выполнение действий в реальном мире. но из-за того, что atoms are much harder, это будет двигаться медленнее, чем pure digital ai.
— по jobs он осторожен: профессии не обязательно исчезнут, но набор задач внутри них поменяется. на вопрос о рынке труда он не дает громких прогнозов вида — инженеров станет меньше. скорее его позиция такая — jobs — это bundles of tasks, и часть задач внутри профессий теперь можно делать намного быстрее. что это сделает с общим числом рабочих мест, зависит уже не только от технологий, но и от спроса, эластичности рынка и экономики в целом.
— open source, по его мнению, будет отставать от закрытых моделей, но останется критически важным. карпати говорит, что закрытые frontier-модели пока впереди, а open models обычно отстают на месяцы. но он не считает, что из этого следует доминирование closed-only мира. его ожидание: open source будет покрывать огромный массив “обычных” use cases, включая локальный запуск, а frontier closed models останутся для самых сложных задач. при этом он прямо озвучивает опасение по поводу чрезмерной централизации интеллекта в закрытых системах.
— он ждет не только монокультуру, но и speciation моделей. интересная часть — про speciation. сейчас индустрия толкается в сторону “одна гигантская модель на все”, но карпати допускает, что позже возникнет более разнообразная экосистема специализированных моделей: с общим когнитивным ядром, но оптимизированных под разные классы задач. это похоже на аргумент против идеи, что один универсальный foundation model навсегда поглотит все остальное.
— education тоже меняется: документация и объяснения все чаще пишутся уже не для людей, а для агентов. в концовке он высказывает довольно радикальную мысль: образование и документация будут частично перенаправлены на агентную аудиторию. его пример — вместо html-документации для людей все важнее markdown / structured docs для агентов. человеческая ценность тогда смещается в few bits of insight: придумать хорошую идею, упростить концепцию, выбрать правильный фрейминг, а не тратить время на объяснение того, что агент и так уже сможет разжевать сам.
❤5
Forwarded from Мягкие техники
Media is too big
VIEW IN TELEGRAM
Вакансии!
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
❤6🔥3 3
notion показал, как дизайн-команда прототипирует с claude code
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
— у notion дизайн ai-фич все заметнее сдвигается в сторону code-first прототипирования. мысль простая: если делаешь ai-продукт, уже недостаточно рисовать красивый макет, нужно как можно раньше проверять идею в живом коде и с реальной моделью, чтобы проектировать не абстракцию, а что-то действительно правдоподобное и рабочее.
— базовый принцип — encounter reality as early as possible. то есть как можно быстрее вытаскивать идею из “салфеточного” уровня и гонять ее в браузере, потому что именно там вылезают состояния загрузки, адаптивность, реальные взаимодействия и прочие штуки, которые фигма очень легко скрывает.
— для этого brian lovin собрал общий prototype playground: по сути один shared next.js-репозиторий для всей дизайн-команды. вместо того чтобы каждый дизайнер поднимал свой отдельный проект, у всех есть единая среда с общими компонентами, стилями, иконками и понятной файловой структурой, где проще переиспользовать чужие наработки и видеть, что вообще делает команда.
— тезис: хорошие ai-экспириенсы почти невозможно по-настоящему спроектировать только в figma. можно нарисовать поле ввода, кнопки и сценарий, но нельзя почувствовать, как это реально ведет себя в использовании — где модель тупит, где ломается, где появляются edge cases и странные фейлы. для этого нужен кодовый прототип, подключенный к реальной модели.
— сам практический workflow у них тоже показательный: claude code в терминале, редактор кода посередине и живой браузер рядом. плюс голосовой ввод для быстрых промптов и обязательный plan mode перед генерацией. то есть ai тут не “волшебная кнопка”, а часть довольно дисциплинированного процесса, где ты сначала читаешь план, а уже потом разрешаешь писать код.
— отдельно очень сильная история — это их команда /figma. она берет ссылку на фрейм, вытаскивает токены, структуру и ассеты через figma api / mcp, пишет next.js + tailwind-код, потом открывает результат в браузере и сравнивает его с оригиналом. если что-то не сходится, идет в self-correction loop и пытается исправиться сама, а не останавливается на первом черновике.
— у brian хороший базовый принцип работы с ai: когда claude просит тебя что-то сделать руками, нужно не делать это самому, а учить его делать это самому. не “открой браузер и проверь”, а “научим агента открыть браузер, протестировать сценарий и убедиться, что все ок”. это, кажется, вообще один из самых полезных паттернов во всей новой агентной работе.
— еще один практичный момент: recurring-проблемы они не терпят, а превращают в skills. например, когда модель стабильно путала названия иконок, вместо ручных правок они сделали отдельный навык, который умеет искать правильные иконки и синонимы по их системе. то есть ai здесь не просто используется, а постепенно обрастает костылями и надстройками, которые убирают его типовые слабые места.
— то же самое с деплоем: у них есть кастомная команда /deploy, которая прячет от команды почти весь git-ритуал. она сама проверяет зависимости, создает ветку, коммитит, пушит, открывает pr в браузере и даже следит за ci, а если проверки падают — пытается сама это поправить. по сути, они не просто ускоряют кодинг, а убирают операционную боль вокруг него.
— вывод: граница между дизайнером и билдерами становится сильно тоньше. не в смысле что дизайнер обязан стать полноценным фронтендером, а в смысле что лучший дизайн-процесс все чаще проходит через код, браузер, реальные модели и автоматизированные workflow, а не заканчивается на статическом макете.
Lennysnewsletter
🎙️ This week on How I AI: How Notion’s design team uses Claude Code to prototype
Your weekly listens from How I AI, part of the Lenny's Podcast Network
❤5
коротко:
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
❤1
Forwarded from Cерафимодальность
Media is too big
VIEW IN TELEGRAM
Очередной бешеный апдейт Клода: управление курсором и клавиатурой на удалённом компе.
👍3😱2
агенты внутри figma
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
🔥8❤7
This media is not supported in your browser
VIEW IN TELEGRAM
claude code добавил auto mode
фактически это умный accept all, который сам будет окать всё что будет считать безопасным, вместо постоянного ожидания подтверждений
опять research preview и пока доступно только для team аккаунтов😳
фактически это умный accept all, который сам будет окать всё что будет считать безопасным, вместо постоянного ожидания подтверждений
опять research preview и пока доступно только для team аккаунтов
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5