composer 2
cursor обновляет свою модель composer с версии 1.5 до версии 2. по заявлению команды, это уже frontier-level по качеству, при этом ценник у модели агрессивно ниже рынка. при этом по бенчмаркам она даже обгоняет opus 4.6
в целом это выглядит как ещё один шаг к тому, что cursor всё меньше хочет быть просто ide с доступом к чужим моделям и всё больше — платформой со своей собственной основной моделью. других вариантов у них нет, иначе claude и недавно сфокусировавшийся chatgpt их съедят
https://cursor.com/blog/composer-2
cursor обновляет свою модель composer с версии 1.5 до версии 2. по заявлению команды, это уже frontier-level по качеству, при этом ценник у модели агрессивно ниже рынка. при этом по бенчмаркам она даже обгоняет opus 4.6
в целом это выглядит как ещё один шаг к тому, что cursor всё меньше хочет быть просто ide с доступом к чужим моделям и всё больше — платформой со своей собственной основной моделью. других вариантов у них нет, иначе claude и недавно сфокусировавшийся chatgpt их съедят
https://cursor.com/blog/composer-2
👍3🔥2
новый дизайн cursor
glass дизайн теперь в cursor, стало сильно ближе к стилю системы... и очень похоже на codex, я даже перепутал окна в моменте. но дальше замечаешь много приятных ux-изменений. старый формат при этом оставили тоже досупным
чтобы поскорее попробовать — cursor.com/glass
glass дизайн теперь в cursor, стало сильно ближе к стилю системы... и очень похоже на codex, я даже перепутал окна в моменте. но дальше замечаешь много приятных ux-изменений. старый формат при этом оставили тоже досупным
чтобы поскорее попробовать — cursor.com/glass
❤6
This media is not supported in your browser
VIEW IN TELEGRAM
google ai studio обновили свой режим build для вайбкода
они называют это full‑stack vibe coding experience. по сути, это попытка сделать из их среды не просто чат с моделью, а что-то ближе к живому рабочему окружению для разработки. там уже было можно многое, а теперь ещё довезли:
а в скором времени обещают:
ai.studio/build
они называют это full‑stack vibe coding experience. по сути, это попытка сделать из их среды не просто чат с моделью, а что-то ближе к живому рабочему окружению для разработки. там уже было можно многое, а теперь ещё довезли:
- One click database support
- Sign in with Google support
- A new coding agent powered by Antigravity
- Multiplayer + backend app support
а в скором времени обещают:
- Design mode
- Figma integration
ai.studio/build
❤2🤔1
ну вот, claude поддержал ремоут сессий claude code в телегу. пока в формате ресеч превью, предлагают так настраивать — github.com/anthropics/claude-plugins-official/blob/main/external_plugins/telegram/README.md
❤2
Пупырка AI
composer 2 cursor обновляет свою модель composer с версии 1.5 до версии 2. по заявлению команды, это уже frontier-level по качеству, при этом ценник у модели агрессивно ниже рынка. при этом по бенчмаркам она даже обгоняет opus 4.6 в целом это выглядит как…
cursor composer 2 оказался kimi k2.5 с reinforcement learning
новая модель cursor, анонсированная как «frontier-level coding performance», по сути является kimi k2.5 от moonshot ai, дообученная с помощью reinforcement learning (обучение с подкреплением — это когда модель учится методом проб и ошибок)
наверное это и логично, зачем делать полностью своё и тртатить время, если можно взять хороший код с полки и докрутить. но тем не менее я чуть удивился, думал у ребят что-то своё
но есть нюанс — moonshot ai публично обвинил cursor в нарушении лицензии (cursor зарабатывает ~$167M/мес, а лицензия требует указывать Kimi K2.5 при доходе выше $20M/мес)
upd: вроде cursor всё объяснили, они тренировали модель через посредника с лицензией и что-то такое. интересно, вероятно они не хотели чтобы это всплыло
https://news.ycombinator.com/item?id=47452404
новая модель cursor, анонсированная как «frontier-level coding performance», по сути является kimi k2.5 от moonshot ai, дообученная с помощью reinforcement learning (обучение с подкреплением — это когда модель учится методом проб и ошибок)
наверное это и логично, зачем делать полностью своё и тртатить время, если можно взять хороший код с полки и докрутить. но тем не менее я чуть удивился, думал у ребят что-то своё
но есть нюанс — moonshot ai публично обвинил cursor в нарушении лицензии (cursor зарабатывает ~$167M/мес, а лицензия требует указывать Kimi K2.5 при доходе выше $20M/мес)
upd: вроде cursor всё объяснили, они тренировали модель через посредника с лицензией и что-то такое. интересно, вероятно они не хотели чтобы это всплыло
https://news.ycombinator.com/item?id=47452404
❤3
openai выпустили гайд: как делать фронтенд с gpt-5.4
https://developers.openai.com/blog/designing-delightful-frontends-with-gpt-5-4
openai опубликовали практическое руководство для дизайнеров и разработчиков — как получить production-ready интерфейс с помощью gpt-5.4. авторы — инженеры openai, которые сами строили фронтенды с моделью.
почему gpt-5.4 другой:
первая модель openai обученная на computer use — она сама открывает браузер, смотрит как выглядит результат, находит баги и итерирует без участия человека. в связке с playwright может тестировать разные viewport'ы и фиксить интерфейс в цикле. для дизайнера это значит: можно описать интерфейс и получить рабочий прототип, не передавая задачу разработчику.
конкретные рекомендации из гайда:
https://developers.openai.com/blog/designing-delightful-frontends-with-gpt-5-4
openai опубликовали практическое руководство для дизайнеров и разработчиков — как получить production-ready интерфейс с помощью gpt-5.4. авторы — инженеры openai, которые сами строили фронтенды с моделью.
почему gpt-5.4 другой:
первая модель openai обученная на computer use — она сама открывает браузер, смотрит как выглядит результат, находит баги и итерирует без участия человека. в связке с playwright может тестировать разные viewport'ы и фиксить интерфейс в цикле. для дизайнера это значит: можно описать интерфейс и получить рабочий прототип, не передавая задачу разработчику.
конкретные рекомендации из гайда:
1. сначала moodboard — просить модель собрать несколько визуальных вариантов прежде чем выбирать финальные ассеты. описывать атрибуты: стиль, палитра, настроение, композиция.
2. точный промпт — если промпт расплывчатый, модель падает в самые частые паттерны из обучения (generic cards, слабый брендинг, перегруженный ui). чем конкретнее описан стиль — тем лучше результат.
3. frontend-skill — openai выпустили отдельный скилл (набор инструкций) который ставит модели правила вкуса: restraint, image-led hierarchy, cohesive motion. убирает шаблонность по умолчанию.
4. playwright для проверки — давать модели инструмент для инспекции рендера. это значительно повышает шанс получить завершённый, функционально полный интерфейс.
Openai
Designing delightful frontends with GPT-5.4 | OpenAI Developers
Practical techniques for steering GPT-5.4 toward polished, production-ready frontend designs.
❤10
новое интервью Андрея Карпати
youtube.com
интересно как поменялось его отношение меньше чем за год. в августе он рассуждал про то как ai частично дополняет его код. после прорыва модели в декабре к февралю он подошел с тем, что 99% кода за него пишет нейросеть. а основная проблема даже не качество моделей, а передача контекста.
сейчас он говорит о налаживании взаимодействий между агентами, рассуждает о изменениях в физическом мире и о том, что поменяется в профессиях в ближайшем будущем.
youtube.com
интересно как поменялось его отношение меньше чем за год. в августе он рассуждал про то как ai частично дополняет его код. после прорыва модели в декабре к февралю он подошел с тем, что 99% кода за него пишет нейросеть. а основная проблема даже не качество моделей, а передача контекста.
сейчас он говорит о налаживании взаимодействий между агентами, рассуждает о изменениях в физическом мире и о том, что поменяется в профессиях в ближайшем будущем.
YouTube
Andrej Karpathy on Code Agents, AutoResearch, and the Loopy Era of AI
What happens when AI agents can design experiments, collect data, and improve — without a human in the loop? Andrej Karpathy joins Sarah Guo on the state of models, the future of engineering and education, thinking about impact on jobs, and his project AutoResearch:…
обзор основных поинтов:
— кодинг стал не про писать, а про выражать намерение. карпати прямо формулирует это как сдвиг от writing code к delegation/manifests for agents. его тезис: бутылочное горлышко больше не скорость набора на клавиатуре, а умение правильно ставить задачи, держать контекст, запускать несколько агентных потоков и организовывать их работу.
— новый дефицит — не compute, а token throughput и orchestration. одна из сильных идей: раньше люди были зациклены на flops и gpu, а теперь практический bottleneck для отдельного человека все больше в том, насколько эффективно он прогоняет токены через модели и насколько хорошо организует параллельную работу агентов. то есть выигрывает не тот, кто лучше пишет код, а тот, кто лучше строит loops, memory, task queues, agent.md / program.md и вообще среду для агентов.
— он считает, что большинство провалов агентов — это пока skill issue, а не потолок моделей. это, пожалуй, один из самых спорных, но важных тезисов. карпати склонен трактовать неудачи агентов не как модели еще не умеют, а как проблему инструкции, памяти, организации контекста, неудачного интерфейса или плохой обвязки. то есть он смотрит на сбой как на повод дооптимизировать систему. но он одновременно признает jaggedness: модели могут выглядеть как очень сильные инженеры в одной задаче и как дети в другой.
— autoresearch для него — не игрушка, а намек на автоматизацию самого research loop. важный блок интервью — про autoresearch. идея в том, что агент может не просто помочь с кодом, а замкнуть исследовательский цикл: менять training code, запускать эксперименты, смотреть метрики, предлагать следующие шаги. это уже не агент пишет функцию, а агент исследует, как лучше исследовать.
— самая быстрая трансформация будет в digital-only работе. еще одна ключевая мысль: все, что связано с манипуляцией цифровой информацией, будет меняться быстрее всего. причина простая — биты копируются почти бесплатно, а атомы нет. поэтому software, research, digital operations, knowledge work и прочие чисто цифровые профессии будут перестраиваться раньше и сильнее, чем robotics или physical-world automation.
❤3
и ещё 5 пунктов:
— физический мир запаздывает, но интерфейс между digital и physical — огромная возможность. карпати не говорит, что robotics не важна. наоборот: он считает, что после первой волны разблокировки цифрового труда следующий большой слой — это интерфейсы между цифровым интеллектом и физическим миром: sensors, cameras, lab equipment, actuators, сбор данных из реальности и выполнение действий в реальном мире. но из-за того, что atoms are much harder, это будет двигаться медленнее, чем pure digital ai.
— по jobs он осторожен: профессии не обязательно исчезнут, но набор задач внутри них поменяется. на вопрос о рынке труда он не дает громких прогнозов вида — инженеров станет меньше. скорее его позиция такая — jobs — это bundles of tasks, и часть задач внутри профессий теперь можно делать намного быстрее. что это сделает с общим числом рабочих мест, зависит уже не только от технологий, но и от спроса, эластичности рынка и экономики в целом.
— open source, по его мнению, будет отставать от закрытых моделей, но останется критически важным. карпати говорит, что закрытые frontier-модели пока впереди, а open models обычно отстают на месяцы. но он не считает, что из этого следует доминирование closed-only мира. его ожидание: open source будет покрывать огромный массив “обычных” use cases, включая локальный запуск, а frontier closed models останутся для самых сложных задач. при этом он прямо озвучивает опасение по поводу чрезмерной централизации интеллекта в закрытых системах.
— он ждет не только монокультуру, но и speciation моделей. интересная часть — про speciation. сейчас индустрия толкается в сторону “одна гигантская модель на все”, но карпати допускает, что позже возникнет более разнообразная экосистема специализированных моделей: с общим когнитивным ядром, но оптимизированных под разные классы задач. это похоже на аргумент против идеи, что один универсальный foundation model навсегда поглотит все остальное.
— education тоже меняется: документация и объяснения все чаще пишутся уже не для людей, а для агентов. в концовке он высказывает довольно радикальную мысль: образование и документация будут частично перенаправлены на агентную аудиторию. его пример — вместо html-документации для людей все важнее markdown / structured docs для агентов. человеческая ценность тогда смещается в few bits of insight: придумать хорошую идею, упростить концепцию, выбрать правильный фрейминг, а не тратить время на объяснение того, что агент и так уже сможет разжевать сам.
❤4
Forwarded from Мягкие техники
Media is too big
VIEW IN TELEGRAM
Вакансии!
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
Зачем нужна весна? Конечно, чтобы был повод сменить работу
А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис
Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne
⸻
Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
❤6🔥3 3
notion показал, как дизайн-команда прототипирует с claude code
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions
ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи
— у notion дизайн ai-фич все заметнее сдвигается в сторону code-first прототипирования. мысль простая: если делаешь ai-продукт, уже недостаточно рисовать красивый макет, нужно как можно раньше проверять идею в живом коде и с реальной моделью, чтобы проектировать не абстракцию, а что-то действительно правдоподобное и рабочее.
— базовый принцип — encounter reality as early as possible. то есть как можно быстрее вытаскивать идею из “салфеточного” уровня и гонять ее в браузере, потому что именно там вылезают состояния загрузки, адаптивность, реальные взаимодействия и прочие штуки, которые фигма очень легко скрывает.
— для этого brian lovin собрал общий prototype playground: по сути один shared next.js-репозиторий для всей дизайн-команды. вместо того чтобы каждый дизайнер поднимал свой отдельный проект, у всех есть единая среда с общими компонентами, стилями, иконками и понятной файловой структурой, где проще переиспользовать чужие наработки и видеть, что вообще делает команда.
— тезис: хорошие ai-экспириенсы почти невозможно по-настоящему спроектировать только в figma. можно нарисовать поле ввода, кнопки и сценарий, но нельзя почувствовать, как это реально ведет себя в использовании — где модель тупит, где ломается, где появляются edge cases и странные фейлы. для этого нужен кодовый прототип, подключенный к реальной модели.
— сам практический workflow у них тоже показательный: claude code в терминале, редактор кода посередине и живой браузер рядом. плюс голосовой ввод для быстрых промптов и обязательный plan mode перед генерацией. то есть ai тут не “волшебная кнопка”, а часть довольно дисциплинированного процесса, где ты сначала читаешь план, а уже потом разрешаешь писать код.
— отдельно очень сильная история — это их команда /figma. она берет ссылку на фрейм, вытаскивает токены, структуру и ассеты через figma api / mcp, пишет next.js + tailwind-код, потом открывает результат в браузере и сравнивает его с оригиналом. если что-то не сходится, идет в self-correction loop и пытается исправиться сама, а не останавливается на первом черновике.
— у brian хороший базовый принцип работы с ai: когда claude просит тебя что-то сделать руками, нужно не делать это самому, а учить его делать это самому. не “открой браузер и проверь”, а “научим агента открыть браузер, протестировать сценарий и убедиться, что все ок”. это, кажется, вообще один из самых полезных паттернов во всей новой агентной работе.
— еще один практичный момент: recurring-проблемы они не терпят, а превращают в skills. например, когда модель стабильно путала названия иконок, вместо ручных правок они сделали отдельный навык, который умеет искать правильные иконки и синонимы по их системе. то есть ai здесь не просто используется, а постепенно обрастает костылями и надстройками, которые убирают его типовые слабые места.
— то же самое с деплоем: у них есть кастомная команда /deploy, которая прячет от команды почти весь git-ритуал. она сама проверяет зависимости, создает ветку, коммитит, пушит, открывает pr в браузере и даже следит за ci, а если проверки падают — пытается сама это поправить. по сути, они не просто ускоряют кодинг, а убирают операционную боль вокруг него.
— вывод: граница между дизайнером и билдерами становится сильно тоньше. не в смысле что дизайнер обязан стать полноценным фронтендером, а в смысле что лучший дизайн-процесс все чаще проходит через код, браузер, реальные модели и автоматизированные workflow, а не заканчивается на статическом макете.
Lennysnewsletter
🎙️ This week on How I AI: How Notion’s design team uses Claude Code to prototype
Your weekly listens from How I AI, part of the Lenny's Podcast Network
❤4
коротко:
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки
кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%
figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы