Forwarded from Мягкие техники
Media is too big
VIEW IN TELEGRAM
Вакансии!
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
❤6🔥3 3
notion показал, как дизайн-команда прототипирует с claude code
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
— у notion дизайн ai-фич все заметнее сдвигается в сторону code-first прототипирования. мысль простая: если делаешь ai-продукт, уже недостаточно рисовать красивый макет, нужно как можно раньше проверять идею в живом коде и с реальной моделью, чтобы проектировать не абстракцию, а что-то действительно правдоподобное и рабочее.
— базовый принцип — encounter reality as early as possible. то есть как можно быстрее вытаскивать идею из “салфеточного” уровня и гонять ее в браузере, потому что именно там вылезают состояния загрузки, адаптивность, реальные взаимодействия и прочие штуки, которые фигма очень легко скрывает.
— для этого brian lovin собрал общий prototype playground: по сути один shared next.js-репозиторий для всей дизайн-команды. вместо того чтобы каждый дизайнер поднимал свой отдельный проект, у всех есть единая среда с общими компонентами, стилями, иконками и понятной файловой структурой, где проще переиспользовать чужие наработки и видеть, что вообще делает команда.
— тезис: хорошие ai-экспириенсы почти невозможно по-настоящему спроектировать только в figma. можно нарисовать поле ввода, кнопки и сценарий, но нельзя почувствовать, как это реально ведет себя в использовании — где модель тупит, где ломается, где появляются edge cases и странные фейлы. для этого нужен кодовый прототип, подключенный к реальной модели.
— сам практический workflow у них тоже показательный: claude code в терминале, редактор кода посередине и живой браузер рядом. плюс голосовой ввод для быстрых промптов и обязательный plan mode перед генерацией. то есть ai тут не “волшебная кнопка”, а часть довольно дисциплинированного процесса, где ты сначала читаешь план, а уже потом разрешаешь писать код.
— отдельно очень сильная история — это их команда /figma. она берет ссылку на фрейм, вытаскивает токены, структуру и ассеты через figma api / mcp, пишет next.js + tailwind-код, потом открывает результат в браузере и сравнивает его с оригиналом. если что-то не сходится, идет в self-correction loop и пытается исправиться сама, а не останавливается на первом черновике.
— у brian хороший базовый принцип работы с ai: когда claude просит тебя что-то сделать руками, нужно не делать это самому, а учить его делать это самому. не “открой браузер и проверь”, а “научим агента открыть браузер, протестировать сценарий и убедиться, что все ок”. это, кажется, вообще один из самых полезных паттернов во всей новой агентной работе.
— еще один практичный момент: recurring-проблемы они не терпят, а превращают в skills. например, когда модель стабильно путала названия иконок, вместо ручных правок они сделали отдельный навык, который умеет искать правильные иконки и синонимы по их системе. то есть ai здесь не просто используется, а постепенно обрастает костылями и надстройками, которые убирают его типовые слабые места.
— то же самое с деплоем: у них есть кастомная команда /deploy, которая прячет от команды почти весь git-ритуал. она сама проверяет зависимости, создает ветку, коммитит, пушит, открывает pr в браузере и даже следит за ci, а если проверки падают — пытается сама это поправить. по сути, они не просто ускоряют кодинг, а убирают операционную боль вокруг него.
— вывод: граница между дизайнером и билдерами становится сильно тоньше. не в смысле что дизайнер обязан стать полноценным фронтендером, а в смысле что лучший дизайн-процесс все чаще проходит через код, браузер, реальные модели и автоматизированные workflow, а не заканчивается на статическом макете.
Lennysnewsletter
🎙️ This week on How I AI: How Notion’s design team uses Claude Code to prototype
Your weekly listens from How I AI, part of the Lenny's Podcast Network
❤5
коротко:
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
❤1
Forwarded from Cерафимодальность
Media is too big
VIEW IN TELEGRAM
Очередной бешеный апдейт Клода: управление курсором и клавиатурой на удалённом компе.
👍3😱2
агенты внутри figma
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп
пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
❤6🔥6