Deep research в ChatGPT перевели на 5.2 (я думал он и так на актуальной модели).
Зато вместе с тем докатили фичей:
- Connect to apps in ChatGPT and search specific sites
- Track real-time progress and interrupt with follow-ups or new sources
- View fullscreen reports
Зато вместе с тем докатили фичей:
- Connect to apps in ChatGPT and search specific sites
- Track real-time progress and interrupt with follow-ups or new sources
- View fullscreen reports
👍2
Seedance 2.0
Не забудьте пообедать, ну или позавтракать хоть
Не забудьте пообедать, ну или позавтракать хоть
👏5
Forwarded from Denis Sexy IT 🤖
Я люблю разные тулы для создания web-прототипов и долго использовал Claude и Google AI Studio для таких прототипов, но недавно наткнулся на:
https://variant.com
И тут челам удалось в «эстетику» – дизайны, которые получаются – красивые, с приятной анимацией, с типографикой и тп.
В день дают сделать 60 дизайнов беслпатно и в каждый можно окунуться глубже или перегенировать "но близко к оригиналу", и скачать html после генерации
Рекомендую, в общем🌎
https://variant.com
И тут челам удалось в «эстетику» – дизайны, которые получаются – красивые, с приятной анимацией, с типографикой и тп.
В день дают сделать 60 дизайнов беслпатно и в каждый можно окунуться глубже или перегенировать "но близко к оригиналу", и скачать html после генерации
Рекомендую, в общем
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👀2
Пупырка AI
Недавно появился анонс Pencil.dev — почти как Figma прямо внутри курсор. Мы точно будем жить в каком-то похожем гибридном мире, не факт, что Pencil победит, но идея мне кажется правильная.
Pencil.dev уже можно попробовать поставить себе прямо в Cursor или отдельно. Есть экспорт из Figma, но ломается кое-что к сожалению.
Я пока для себя не придумал крутого флоу где применять, но если вы уже переехали полностью в Курсор или другой IDE и так, то возможно, что это вам заменит те случаи, когда ещё приходилось обращаться к Фигме.
Я пока для себя не придумал крутого флоу где применять, но если вы уже переехали полностью в Курсор или другой IDE и так, то возможно, что это вам заменит те случаи, когда ещё приходилось обращаться к Фигме.
🤔1
Про будущее и про передачу контекстов
Код фиксирует, что сейчас работает. Промпты и переписка с моделью фиксируют, почему это работает именно так — с какими ограничениями и компромиссами.
Вчера я увидел три разных сигнала, которые складываются в одну линию:
1) агенты делают софт податливым к изменениям
2) нам нужен способ версионировать не только код, но и ход мыслей
3) в пределе код может стать промежуточным форматом между намерением и исполняемым результатом.
Карпати пишет о malleability софта — о том, что программное обеспечение становится более пластичным. Его мысль не в том, что всё перепишет ИИ, а в том, что резко падает цена изменений: когда у тебя есть сильная модель, ты быстрее понимаешь чужой код и можешь проще адаптировать его под конкретную задачу, вместо того чтобы либо тащить огромную зависимость целиком, либо неделями вручную разбираться в чужом проекте. Отсюда новая привычка: относиться к коду как к материалу, который можно разбирать и собирать заново под нужную форму — быстро и точечно.
Но тут возникает разрыв: новая модель обычно видит только итоговый репозиторий — то есть застывший результат, и не видит путь, который к нему привёл. И вот это пытается закрыть Entire — стартап бывшего CEO GitHub: они строят инструменты, которые сохраняют и прикрепляют к проекту историю работы с ИИ (переписку, решения, контекст). И да, у них сразу был очень громкий старт: они подняли $60 млн сид-раунд, чтобы сделать «главную платформу для AI‑разработки».
Если это взлетит как паттерн, то источником истины станет не только код, но и связка: код + контекст его появления. Тогда с обновлением модели новый агент сможет подхватить не просто текущее состояние проекта, а и причины решений, неудачные подходы и уже проверенные ограничения — то, что сегодня часто растворяется в чатах, и мы пытаемся собирать в маркдаун файлах по крупицам.
Илон Маск формулирует самый радикальный край этой траектории — код уйдёт, будем делать бинарник напрямую, а потом — генерация пикселей в реальном времени как следующий уровень абстракции. Можно спорить про сроки, но вектор понятен, чем лучше агенты умеют превращать намерение в работающий результат, тем больше традиционные формы начинают выглядеть как компромиссы.
Для меня из этих трех точек получается простая, но важная мысль, которую я уже давно осознаю и пытаюсь использовать и в работе над дизайном — мы двигаемся к процессам, где главная компетенция — формулировать намерение, проверять его и сохранять весь путь так, чтобы и люди, и агенты могли продолжать работу без потери причинно‑следственных связей.
Код фиксирует, что сейчас работает. Промпты и переписка с моделью фиксируют, почему это работает именно так — с какими ограничениями и компромиссами.
Вчера я увидел три разных сигнала, которые складываются в одну линию:
1) агенты делают софт податливым к изменениям
2) нам нужен способ версионировать не только код, но и ход мыслей
3) в пределе код может стать промежуточным форматом между намерением и исполняемым результатом.
Карпати пишет о malleability софта — о том, что программное обеспечение становится более пластичным. Его мысль не в том, что всё перепишет ИИ, а в том, что резко падает цена изменений: когда у тебя есть сильная модель, ты быстрее понимаешь чужой код и можешь проще адаптировать его под конкретную задачу, вместо того чтобы либо тащить огромную зависимость целиком, либо неделями вручную разбираться в чужом проекте. Отсюда новая привычка: относиться к коду как к материалу, который можно разбирать и собирать заново под нужную форму — быстро и точечно.
Но тут возникает разрыв: новая модель обычно видит только итоговый репозиторий — то есть застывший результат, и не видит путь, который к нему привёл. И вот это пытается закрыть Entire — стартап бывшего CEO GitHub: они строят инструменты, которые сохраняют и прикрепляют к проекту историю работы с ИИ (переписку, решения, контекст). И да, у них сразу был очень громкий старт: они подняли $60 млн сид-раунд, чтобы сделать «главную платформу для AI‑разработки».
Если это взлетит как паттерн, то источником истины станет не только код, но и связка: код + контекст его появления. Тогда с обновлением модели новый агент сможет подхватить не просто текущее состояние проекта, а и причины решений, неудачные подходы и уже проверенные ограничения — то, что сегодня часто растворяется в чатах, и мы пытаемся собирать в маркдаун файлах по крупицам.
Илон Маск формулирует самый радикальный край этой траектории — код уйдёт, будем делать бинарник напрямую, а потом — генерация пикселей в реальном времени как следующий уровень абстракции. Можно спорить про сроки, но вектор понятен, чем лучше агенты умеют превращать намерение в работающий результат, тем больше традиционные формы начинают выглядеть как компромиссы.
Для меня из этих трех точек получается простая, но важная мысль, которую я уже давно осознаю и пытаюсь использовать и в работе над дизайном — мы двигаемся к процессам, где главная компетенция — формулировать намерение, проверять его и сохранять весь путь так, чтобы и люди, и агенты могли продолжать работу без потери причинно‑следственных связей.
❤1
Yandex AI App в Турции
Сегодня в турецких и медиа пишут, что Yandex официально выкатил в Турции новое приложение Yandex AI как суперапп, заточенный именно под локальный рынок.
Поздравляем Марго @twentytwo_bits и ребят!
Сегодня в турецких и медиа пишут, что Yandex официально выкатил в Турции новое приложение Yandex AI как суперапп, заточенный именно под локальный рынок.
Что это за приложение
• Позиционируется как «интернет için geliştirilen yapay zeka süper uygulaması» – в одном месте собраны ИИ‑ассистент, ИИ‑поиск и ИИ‑браузер.
• Делает ставку на турецкий контекст: сервис и до этого развивался вокруг Yazeka (ИИ‑слой над поиском), а теперь всё это упаковано в отдельное приложение Yandex AI.
Ключевые сценарии, которые отмечают
По описаниям и обзорам, упор на «универсальный помощник для всего, что связано с интернетом»:
• Следить за рыночными данными и финансами прямо в приложении (курсы, индексы и т.п.).
• Искать и структурировать рецепты, бытовые советы, ответы на сложные вопросы с подсборкой источников.
• «Оживлять» и обрабатывать фото – эффекты, генерация, визуальные трансформации.
• Использовать чат‑ассистента как тьютор, генератор текстов, помощник по учёбе и работе.
Приложение работает как чат‑бот с доступом к вебу, умеет разбирать изображения, подводить итоги текстов, сравнивать варианты и выдавать структурированные ответы с референсами.
Как связывают с прошлогодним Yazeka
Многие материалы делают отсылку к запуску Yazeka – ИИ‑слоя над поиском, который стартовал в Турции в конце 2024 года.
Отмечают, что благодаря ИИ‑поиску аудитория Yandex Search Türkiye выросла более чем на 75% за год, и Yandex AI подается как логичное развитие этой истории уже в формате отдельного супер‑приложения.
Общий тон реакций
• В турецких бизнес‑/тех‑СМИ подают это как усиление конкуренции на локальном рынке ИИ‑ассистентов и поиск‑платформ.
• Акцент делают на том, что сервис сделан «для Турции» – турецкий язык по умолчанию, локальные сценарии, адаптация под местный интернет и аудиторию.
Поздравляем Марго @twentytwo_bits и ребят!
🎉5
This media is not supported in your browser
VIEW IN TELEGRAM
Новая модель GPT 5.3 Codex Spark — в общем очень быстрая модель от 1000 токенов в секунду (и обещают еще ускорить), контекст всего 128k, доступно в подписке за 200 баксов.
Forwarded from Сиолошная
Ребята из Nebius наконец-то обновили RE-Bench и добавили кучу новых моделей + свежие задачи за январь.
(картинка 1)
В топе нос к носу идут Claude Opus 4.6 / Claude Code (с этой же моделью под капотом) и GPT-5.2. Последнюю тестировали с двумя настройками длины рассуждений, максимальным и средним, и результат там одинаковый, зато токенов можно сэкономить в два раза.
Все 4 лидера статистически значимо не отличаются друг от друга в решении задачи с первого раза, но если давать по 5 попыток и засчитывать лучшую, то Claude Code тут очень сильно вырывается вперёд — решает 70.8% по сравнению с ~60% у других.
Также замерили GPT-5.2-codex как модель и Codex как обёртку над ней — и получилось как-то грустно. Пока не вникал в причины того, почему так вышло🤷♂️ легко могу представить что заточенная под Codex модель в других обёртках может чувствовать себя плохо и проседать, но почему так плохо в родной — загадка. И это на фоне того, что обычная GPT-5.2 на уровне Opus 4.6
(картинка 2)
Ну а весь опенсурс находится сильно ниже, Kimi K2.5 почему-то ниже Kimi K2 Thinking. Все они и хуже, и не существенно дешевле, чем Gemini 3 Flash.
Из интересного тут Qwen3-Coder-Next, супер маленькая модель от Alibaba c 3 миллиардами активных параметров — сидит межу MiniMax 2.5 и GLM-5 и обгоняет DeepSeek v3.2. Думаю, увидим с ней много экспериментов, статей и на многих задачах.
(картинка 3)
Если объединять результаты за декабрь и январь, то доверительные интервалы сузятся, так как оценка будет на 96 задачах — тогда на первом месте GPT-5.2-xhigh, которая стат. значимо обгоняет Claude Code / Opus 4.6.
Это не означает что эта модель лучше (и уж тем более не означает "лучше для всего"), но показывает, как плотно OpenAI догнали Anthropic в гонке за кодинг. Ещё бы что-то с текстами сделать, дотянувшись до уровня Gemini 3, и можно снова Небесный мандат забрать.
(картинка 1)
В топе нос к носу идут Claude Opus 4.6 / Claude Code (с этой же моделью под капотом) и GPT-5.2. Последнюю тестировали с двумя настройками длины рассуждений, максимальным и средним, и результат там одинаковый, зато токенов можно сэкономить в два раза.
Все 4 лидера статистически значимо не отличаются друг от друга в решении задачи с первого раза, но если давать по 5 попыток и засчитывать лучшую, то Claude Code тут очень сильно вырывается вперёд — решает 70.8% по сравнению с ~60% у других.
Также замерили GPT-5.2-codex как модель и Codex как обёртку над ней — и получилось как-то грустно. Пока не вникал в причины того, почему так вышло
(картинка 2)
Ну а весь опенсурс находится сильно ниже, Kimi K2.5 почему-то ниже Kimi K2 Thinking. Все они и хуже, и не существенно дешевле, чем Gemini 3 Flash.
Из интересного тут Qwen3-Coder-Next, супер маленькая модель от Alibaba c 3 миллиардами активных параметров — сидит межу MiniMax 2.5 и GLM-5 и обгоняет DeepSeek v3.2. Думаю, увидим с ней много экспериментов, статей и на многих задачах.
(картинка 3)
Если объединять результаты за декабрь и январь, то доверительные интервалы сузятся, так как оценка будет на 96 задачах — тогда на первом месте GPT-5.2-xhigh, которая стат. значимо обгоняет Claude Code / Opus 4.6.
Это не означает что эта модель лучше (и уж тем более не означает "лучше для всего"), но показывает, как плотно OpenAI догнали Anthropic в гонке за кодинг. Ещё бы что-то с текстами сделать, дотянувшись до уровня Gemini 3, и можно снова Небесный мандат забрать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM