Пупырка AI
581 subscribers
822 photos
471 videos
1 file
839 links
Один канал про AI, который тебе нужен — дизайн, продукт и слухи. Авторские репосты, цитаты и жвачка. Основной канал — @logicIntermission
Download Telegram
ну вот, claude поддержал ремоут сессий claude code в телегу. пока в формате ресеч превью, предлагают так настраивать — github.com/anthropics/claude-plugins-official/blob/main/external_plugins/telegram/README.md
2
This media is not supported in your browser
VIEW IN TELEGRAM
смотрим интерфейс perplexity health. доступно платным подписчикам в us

testingcatalog
4
Пупырка AI
composer 2 cursor обновляет свою модель composer с версии 1.5 до версии 2. по заявлению команды, это уже frontier-level по качеству, при этом ценник у модели агрессивно ниже рынка. при этом по бенчмаркам она даже обгоняет opus 4.6 в целом это выглядит как…
cursor composer 2 оказался kimi k2.5 с reinforcement learning

новая модель cursor, анонсированная как «frontier-level coding performance», по сути является kimi k2.5 от moonshot ai, дообученная с помощью reinforcement learning (обучение с подкреплением — это когда модель учится методом проб и ошибок)

наверное это и логично, зачем делать полностью своё и тртатить время, если можно взять хороший код с полки и докрутить. но тем не менее я чуть удивился, думал у ребят что-то своё

но есть нюанс — moonshot ai публично обвинил cursor в нарушении лицензии (cursor зарабатывает ~$167M/мес, а лицензия требует указывать Kimi K2.5 при доходе выше $20M/мес)

upd: вроде cursor всё объяснили, они тренировали модель через посредника с лицензией и что-то такое. интересно, вероятно они не хотели чтобы это всплыло

https://news.ycombinator.com/item?id=47452404
3
openai выпустили гайд: как делать фронтенд с gpt-5.4
https://developers.openai.com/blog/designing-delightful-frontends-with-gpt-5-4

openai опубликовали практическое руководство для дизайнеров и разработчиков — как получить production-ready интерфейс с помощью gpt-5.4. авторы — инженеры openai, которые сами строили фронтенды с моделью.

почему gpt-5.4 другой:
первая модель openai обученная на computer use — она сама открывает браузер, смотрит как выглядит результат, находит баги и итерирует без участия человека. в связке с playwright может тестировать разные viewport'ы и фиксить интерфейс в цикле. для дизайнера это значит: можно описать интерфейс и получить рабочий прототип, не передавая задачу разработчику.

конкретные рекомендации из гайда:
1. сначала moodboard — просить модель собрать несколько визуальных вариантов прежде чем выбирать финальные ассеты. описывать атрибуты: стиль, палитра, настроение, композиция.

2. точный промпт — если промпт расплывчатый, модель падает в самые частые паттерны из обучения (generic cards, слабый брендинг, перегруженный ui). чем конкретнее описан стиль — тем лучше результат.

3. frontend-skill — openai выпустили отдельный скилл (набор инструкций) который ставит модели правила вкуса: restraint, image-led hierarchy, cohesive motion. убирает шаблонность по умолчанию.

4. playwright для проверки — давать модели инструмент для инспекции рендера. это значительно повышает шанс получить завершённый, функционально полный интерфейс.
10
новое интервью Андрея Карпати
youtube.com

интересно как поменялось его отношение меньше чем за год. в августе он рассуждал про то как ai частично дополняет его код. после прорыва модели в декабре к февралю он подошел с тем, что 99% кода за него пишет нейросеть. а основная проблема даже не качество моделей, а передача контекста.

сейчас он говорит о налаживании взаимодействий между агентами, рассуждает о изменениях в физическом мире и о том, что поменяется в профессиях в ближайшем будущем.
обзор основных поинтов:

— кодинг стал не про писать, а про выражать намерение. карпати прямо формулирует это как сдвиг от writing code к delegation/manifests for agents. его тезис: бутылочное горлышко больше не скорость набора на клавиатуре, а умение правильно ставить задачи, держать контекст, запускать несколько агентных потоков и организовывать их работу.

— новый дефицит — не compute, а token throughput и orchestration. одна из сильных идей: раньше люди были зациклены на flops и gpu, а теперь практический bottleneck для отдельного человека все больше в том, насколько эффективно он прогоняет токены через модели и насколько хорошо организует параллельную работу агентов. то есть выигрывает не тот, кто лучше пишет код, а тот, кто лучше строит loops, memory, task queues, agent.md / program.md и вообще среду для агентов.

— он считает, что большинство провалов агентов — это пока skill issue, а не потолок моделей. это, пожалуй, один из самых спорных, но важных тезисов. карпати склонен трактовать неудачи агентов не как модели еще не умеют, а как проблему инструкции, памяти, организации контекста, неудачного интерфейса или плохой обвязки. то есть он смотрит на сбой как на повод дооптимизировать систему. но он одновременно признает jaggedness: модели могут выглядеть как очень сильные инженеры в одной задаче и как дети в другой.

— autoresearch для него — не игрушка, а намек на автоматизацию самого research loop. важный блок интервью — про autoresearch. идея в том, что агент может не просто помочь с кодом, а замкнуть исследовательский цикл: менять training code, запускать эксперименты, смотреть метрики, предлагать следующие шаги. это уже не агент пишет функцию, а агент исследует, как лучше исследовать.

— самая быстрая трансформация будет в digital-only работе. еще одна ключевая мысль: все, что связано с манипуляцией цифровой информацией, будет меняться быстрее всего. причина простая — биты копируются почти бесплатно, а атомы нет. поэтому software, research, digital operations, knowledge work и прочие чисто цифровые профессии будут перестраиваться раньше и сильнее, чем robotics или physical-world automation.
4
и ещё 5 пунктов:

— физический мир запаздывает, но интерфейс между digital и physical — огромная возможность. карпати не говорит, что robotics не важна. наоборот: он считает, что после первой волны разблокировки цифрового труда следующий большой слой — это интерфейсы между цифровым интеллектом и физическим миром: sensors, cameras, lab equipment, actuators, сбор данных из реальности и выполнение действий в реальном мире. но из-за того, что atoms are much harder, это будет двигаться медленнее, чем pure digital ai.

— по jobs он осторожен: профессии не обязательно исчезнут, но набор задач внутри них поменяется. на вопрос о рынке труда он не дает громких прогнозов вида — инженеров станет меньше. скорее его позиция такая — jobs — это bundles of tasks, и часть задач внутри профессий теперь можно делать намного быстрее. что это сделает с общим числом рабочих мест, зависит уже не только от технологий, но и от спроса, эластичности рынка и экономики в целом.

— open source, по его мнению, будет отставать от закрытых моделей, но останется критически важным. карпати говорит, что закрытые frontier-модели пока впереди, а open models обычно отстают на месяцы. но он не считает, что из этого следует доминирование closed-only мира. его ожидание: open source будет покрывать огромный массив “обычных” use cases, включая локальный запуск, а frontier closed models останутся для самых сложных задач. при этом он прямо озвучивает опасение по поводу чрезмерной централизации интеллекта в закрытых системах.

— он ждет не только монокультуру, но и speciation моделей. интересная часть — про speciation. сейчас индустрия толкается в сторону “одна гигантская модель на все”, но карпати допускает, что позже возникнет более разнообразная экосистема специализированных моделей: с общим когнитивным ядром, но оптимизированных под разные классы задач. это похоже на аргумент против идеи, что один универсальный foundation model навсегда поглотит все остальное.

— education тоже меняется: документация и объяснения все чаще пишутся уже не для людей, а для агентов. в концовке он высказывает довольно радикальную мысль: образование и документация будут частично перенаправлены на агентную аудиторию. его пример — вместо html-документации для людей все важнее markdown / structured docs для агентов. человеческая ценность тогда смещается в few bits of insight: придумать хорошую идею, упростить концепцию, выбрать правильный фрейминг, а не тратить время на объяснение того, что агент и так уже сможет разжевать сам.
5
Угарное видео:
Media is too big
VIEW IN TELEGRAM
Вакансии!

Зачем нужна весна? Конечно, чтобы был повод сменить работу

А я как раз ищу продуктовых дизайнеров в Алису. Для вас это возможность работать в хайповой области LLM, развивать UX агентов, проектировать с нуля сценарии, которые ещё пару лет назад казались смелой фантазией и наблюдать как Женёк залетает утром в офис

Если вы ждали знак от вселенной, чтобы решиться сменить работу, то это он: пришлите портфолио Юле в ТГ — @juli_ennne



Если вы ждали вакансий дизайнеров-стажёров, то на вашей улице тоже праздник. Готовы взять двоих в умные устройства. Пишите Яне в ТГ — @noviky54
6🔥33
notion показал, как дизайн-команда прототипирует с claude code

https://www.lennysnewsletter.com/p/this-week-on-how-i-ai-how-notions

ребята создают сендбокс инфраструктуру для команды дизайна, в рамках которой видят вайбкод эксперименты и идеи друг-друга. упрощают всё скилами, чтобы это было доступнее для разных дизайнеров. надо стащить идеи

— у notion дизайн ai-фич все заметнее сдвигается в сторону code-first прототипирования. мысль простая: если делаешь ai-продукт, уже недостаточно рисовать красивый макет, нужно как можно раньше проверять идею в живом коде и с реальной моделью, чтобы проектировать не абстракцию, а что-то действительно правдоподобное и рабочее.

— базовый принцип — encounter reality as early as possible. то есть как можно быстрее вытаскивать идею из “салфеточного” уровня и гонять ее в браузере, потому что именно там вылезают состояния загрузки, адаптивность, реальные взаимодействия и прочие штуки, которые фигма очень легко скрывает.

— для этого brian lovin собрал общий prototype playground: по сути один shared next.js-репозиторий для всей дизайн-команды. вместо того чтобы каждый дизайнер поднимал свой отдельный проект, у всех есть единая среда с общими компонентами, стилями, иконками и понятной файловой структурой, где проще переиспользовать чужие наработки и видеть, что вообще делает команда.

— тезис: хорошие ai-экспириенсы почти невозможно по-настоящему спроектировать только в figma. можно нарисовать поле ввода, кнопки и сценарий, но нельзя почувствовать, как это реально ведет себя в использовании — где модель тупит, где ломается, где появляются edge cases и странные фейлы. для этого нужен кодовый прототип, подключенный к реальной модели.

— сам практический workflow у них тоже показательный: claude code в терминале, редактор кода посередине и живой браузер рядом. плюс голосовой ввод для быстрых промптов и обязательный plan mode перед генерацией. то есть ai тут не “волшебная кнопка”, а часть довольно дисциплинированного процесса, где ты сначала читаешь план, а уже потом разрешаешь писать код.

— отдельно очень сильная история — это их команда /figma. она берет ссылку на фрейм, вытаскивает токены, структуру и ассеты через figma api / mcp, пишет next.js + tailwind-код, потом открывает результат в браузере и сравнивает его с оригиналом. если что-то не сходится, идет в self-correction loop и пытается исправиться сама, а не останавливается на первом черновике.

— у brian хороший базовый принцип работы с ai: когда claude просит тебя что-то сделать руками, нужно не делать это самому, а учить его делать это самому. не “открой браузер и проверь”, а “научим агента открыть браузер, протестировать сценарий и убедиться, что все ок”. это, кажется, вообще один из самых полезных паттернов во всей новой агентной работе.

— еще один практичный момент: recurring-проблемы они не терпят, а превращают в skills. например, когда модель стабильно путала названия иконок, вместо ручных правок они сделали отдельный навык, который умеет искать правильные иконки и синонимы по их системе. то есть ai здесь не просто используется, а постепенно обрастает костылями и надстройками, которые убирают его типовые слабые места.

— то же самое с деплоем: у них есть кастомная команда /deploy, которая прячет от команды почти весь git-ритуал. она сама проверяет зависимости, создает ветку, коммитит, пушит, открывает pr в браузере и даже следит за ci, а если проверки падают — пытается сама это поправить. по сути, они не просто ускоряют кодинг, а убирают операционную боль вокруг него.

— вывод: граница между дизайнером и билдерами становится сильно тоньше. не в смысле что дизайнер обязан стать полноценным фронтендером, а в смысле что лучший дизайн-процесс все чаще проходит через код, браузер, реальные модели и автоматизированные workflow, а не заканчивается на статическом макете.
5
коротко:

openai делает единый десктоп-апп: chatgpt + codex + atlas браузер в одном окне. вероятно последствия фокусировки

кроме этого, про gpt-5.4 с окном в 1 млн токенов. модель набрала 75% на бенчмарке osworld-v — чуть выше человеческого базового уровня 72.4%

figma vectorize — ai превращает растровые изображения в редактируемые векторы прямо в figma. а figjam теперь синхронизируется с notion — документирует встречи и генерирует диаграммы. апдейты фигмы
1
Media is too big
VIEW IN TELEGRAM
Очередной бешеный апдейт Клода: управление курсором и клавиатурой на удалённом компе.
👍3😱2
агенты внутри figma

figma запустила ai-агентов прямо на холсте — начиная с сегодняшнего дня в figma можно запускать ai-агентов прямо на канвасе — через скилы. агент читает вашу библиотеку компонентов, токенов и переменных, и создаёт дизайн с тем, что уже есть в проекте.
по идее можно буквально сказать агенту — собери экран онбординга в нашем стиле — и он сделает это внутри figma, используя реальные компоненты, а не галлюцинируя чужие. навык подключается из claude code, cursor и тп

пошлите смотреть — https://www.figma.com/blog/the-figma-canvas-is-now-open-to-agents/
🔥63