Yandex AI App в Турции
Сегодня в турецких и медиа пишут, что Yandex официально выкатил в Турции новое приложение Yandex AI как суперапп, заточенный именно под локальный рынок.
Поздравляем Марго @twentytwo_bits и ребят!
Сегодня в турецких и медиа пишут, что Yandex официально выкатил в Турции новое приложение Yandex AI как суперапп, заточенный именно под локальный рынок.
Что это за приложение
• Позиционируется как «интернет için geliştirilen yapay zeka süper uygulaması» – в одном месте собраны ИИ‑ассистент, ИИ‑поиск и ИИ‑браузер.
• Делает ставку на турецкий контекст: сервис и до этого развивался вокруг Yazeka (ИИ‑слой над поиском), а теперь всё это упаковано в отдельное приложение Yandex AI.
Ключевые сценарии, которые отмечают
По описаниям и обзорам, упор на «универсальный помощник для всего, что связано с интернетом»:
• Следить за рыночными данными и финансами прямо в приложении (курсы, индексы и т.п.).
• Искать и структурировать рецепты, бытовые советы, ответы на сложные вопросы с подсборкой источников.
• «Оживлять» и обрабатывать фото – эффекты, генерация, визуальные трансформации.
• Использовать чат‑ассистента как тьютор, генератор текстов, помощник по учёбе и работе.
Приложение работает как чат‑бот с доступом к вебу, умеет разбирать изображения, подводить итоги текстов, сравнивать варианты и выдавать структурированные ответы с референсами.
Как связывают с прошлогодним Yazeka
Многие материалы делают отсылку к запуску Yazeka – ИИ‑слоя над поиском, который стартовал в Турции в конце 2024 года.
Отмечают, что благодаря ИИ‑поиску аудитория Yandex Search Türkiye выросла более чем на 75% за год, и Yandex AI подается как логичное развитие этой истории уже в формате отдельного супер‑приложения.
Общий тон реакций
• В турецких бизнес‑/тех‑СМИ подают это как усиление конкуренции на локальном рынке ИИ‑ассистентов и поиск‑платформ.
• Акцент делают на том, что сервис сделан «для Турции» – турецкий язык по умолчанию, локальные сценарии, адаптация под местный интернет и аудиторию.
Поздравляем Марго @twentytwo_bits и ребят!
🎉5
This media is not supported in your browser
VIEW IN TELEGRAM
Новая модель GPT 5.3 Codex Spark — в общем очень быстрая модель от 1000 токенов в секунду (и обещают еще ускорить), контекст всего 128k, доступно в подписке за 200 баксов.
Forwarded from Сиолошная
Ребята из Nebius наконец-то обновили RE-Bench и добавили кучу новых моделей + свежие задачи за январь.
(картинка 1)
В топе нос к носу идут Claude Opus 4.6 / Claude Code (с этой же моделью под капотом) и GPT-5.2. Последнюю тестировали с двумя настройками длины рассуждений, максимальным и средним, и результат там одинаковый, зато токенов можно сэкономить в два раза.
Все 4 лидера статистически значимо не отличаются друг от друга в решении задачи с первого раза, но если давать по 5 попыток и засчитывать лучшую, то Claude Code тут очень сильно вырывается вперёд — решает 70.8% по сравнению с ~60% у других.
Также замерили GPT-5.2-codex как модель и Codex как обёртку над ней — и получилось как-то грустно. Пока не вникал в причины того, почему так вышло🤷♂️ легко могу представить что заточенная под Codex модель в других обёртках может чувствовать себя плохо и проседать, но почему так плохо в родной — загадка. И это на фоне того, что обычная GPT-5.2 на уровне Opus 4.6
(картинка 2)
Ну а весь опенсурс находится сильно ниже, Kimi K2.5 почему-то ниже Kimi K2 Thinking. Все они и хуже, и не существенно дешевле, чем Gemini 3 Flash.
Из интересного тут Qwen3-Coder-Next, супер маленькая модель от Alibaba c 3 миллиардами активных параметров — сидит межу MiniMax 2.5 и GLM-5 и обгоняет DeepSeek v3.2. Думаю, увидим с ней много экспериментов, статей и на многих задачах.
(картинка 3)
Если объединять результаты за декабрь и январь, то доверительные интервалы сузятся, так как оценка будет на 96 задачах — тогда на первом месте GPT-5.2-xhigh, которая стат. значимо обгоняет Claude Code / Opus 4.6.
Это не означает что эта модель лучше (и уж тем более не означает "лучше для всего"), но показывает, как плотно OpenAI догнали Anthropic в гонке за кодинг. Ещё бы что-то с текстами сделать, дотянувшись до уровня Gemini 3, и можно снова Небесный мандат забрать.
(картинка 1)
В топе нос к носу идут Claude Opus 4.6 / Claude Code (с этой же моделью под капотом) и GPT-5.2. Последнюю тестировали с двумя настройками длины рассуждений, максимальным и средним, и результат там одинаковый, зато токенов можно сэкономить в два раза.
Все 4 лидера статистически значимо не отличаются друг от друга в решении задачи с первого раза, но если давать по 5 попыток и засчитывать лучшую, то Claude Code тут очень сильно вырывается вперёд — решает 70.8% по сравнению с ~60% у других.
Также замерили GPT-5.2-codex как модель и Codex как обёртку над ней — и получилось как-то грустно. Пока не вникал в причины того, почему так вышло
(картинка 2)
Ну а весь опенсурс находится сильно ниже, Kimi K2.5 почему-то ниже Kimi K2 Thinking. Все они и хуже, и не существенно дешевле, чем Gemini 3 Flash.
Из интересного тут Qwen3-Coder-Next, супер маленькая модель от Alibaba c 3 миллиардами активных параметров — сидит межу MiniMax 2.5 и GLM-5 и обгоняет DeepSeek v3.2. Думаю, увидим с ней много экспериментов, статей и на многих задачах.
(картинка 3)
Если объединять результаты за декабрь и январь, то доверительные интервалы сузятся, так как оценка будет на 96 задачах — тогда на первом месте GPT-5.2-xhigh, которая стат. значимо обгоняет Claude Code / Opus 4.6.
Это не означает что эта модель лучше (и уж тем более не означает "лучше для всего"), но показывает, как плотно OpenAI догнали Anthropic в гонке за кодинг. Ещё бы что-то с текстами сделать, дотянувшись до уровня Gemini 3, и можно снова Небесный мандат забрать.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Сиолошная
Ребята из Nebius наконец-то обновили RE-Bench и добавили кучу новых моделей + свежие задачи за январь. (картинка 1) В топе нос к носу идут Claude Opus 4.6 / Claude Code (с этой же моделью под капотом) и GPT-5.2. Последнюю тестировали с двумя настройками длины…
Кстати, две новости этой недели про текущий проект Воложа Nebius
1) Покупка Tavily
Nebius договорился о покупке Tavily — провайдера agentic‑поиска, который умеет в real‑time веб‑поиск для автономных AI‑агентов. Сделка оценивается примерно в 275 млн долларов и должна принести в Nebius готовую инфраструктуру для grounding агентов (кодинг, трейдинг, энтерпрайз‑процессы) прямо из облака Nebius.
2) Отчёт за Q4 и 2025 год
Компания отчиталась за четвертый квартал и весь 2025‑й: выручка в Q4 выросла примерно в 6 раз год к году, до ~228 млн долларов, но оказалась чуть ниже консенсуса аналитиков. При этом Nebius впервые вышла в плюс по Adjusted EBITDA за квартал и сохраняет очень агрессивные планы по росту AI‑облака в 2026‑м на фоне высокого спроса на GPU‑мощность.
Manus clawd в telegram или нет
upd: починили к вечеру воскресенья
manus запустили свой openclawd в телеге — хотел написать я вчера вечером. но его уже забанили или удалили🌚
тем не менее вот инвайт с бонусами в manus, думаю его ещё починят и все смогут попробовать свой clawdbot без заморочек.
upd: починили к вечеру воскресенья
manus запустили свой openclawd в телеге — хотел написать я вчера вечером. но его уже забанили или удалили
тем не менее вот инвайт с бонусами в manus, думаю его ещё починят и все смогут попробовать свой clawdbot без заморочек.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Пупырка AI
Dario Amodei — “The Adolescence of Technology” Дарио Амодеи (CEO Anthropic) написал эссе про «подростковую» фазу технологий. Мы получаем очень мощные технологии, но общественные механизмы контроля отстают. Ну и описано как сценарии для «Черного зеркала».…
YouTube
Dario Amodei — “We are near the end of the exponential”
Dario Amodei thinks we are just a few years away from “a country of geniuses in a data center”. In this episode, we discuss what to make of the scaling hypothesis in the current RL regime, how AI will diffuse throughout the economy, whether Anthropic is underinvesting…
новое интервью Dario Amodei
https://youtu.be/n1E9IZfvGMA?si=NJEjBArmmLrVzXv9
https://youtu.be/n1E9IZfvGMA?si=NJEjBArmmLrVzXv9
1. выручка anthropic растёт безумно: 0 → 100м → 1млрд → ~10млрд. почти 10x каждый год. сам Амодеи говорит — это не может длиться вечно, экономика конечна. но мы сейчас в крутой части экспоненты.
2. «country of geniuses в датацентре» — 1–3 года. 90% что к 2035 это будет. речь не про маркетинговый agi, а про системы уровня нобелевских лауреатов, которые умеют полностью работать через компьютер и делать end-to-end задачи.
3. главный инсайт — технология будет готова раньше, чем мир сможет её внедрить. даже если ии найдёт лекарство от всего, всё равно есть производство, регуляторы, логистика. боттлнек — не capability, а diffusion.
4. end-to-end software engineering — 1–2 года. не «помогает писать код», а полностью: требования, архитектура, реализация, тесты, деплой. в anthropic уже есть инженеры, которые почти не пишут код вручную.
5. continual learning может вообще не стать критичным. большие контексты + rl + масштаб решают больше, чем казалось. многие «фундаментальные барьеры» уже растворились в compute.
6. по китаю позиция жёсткая: чипы и датацентры не продавать, бенефиты продавать. потому что ии + авторитаризм = очень опасная комбинация.
7. до 2030 возможны триллионы выручки в индустрии. звучит безумно, но он говорит это серьёзно.
Амодеи сейчас увереннее, чем три года назад. несмотря на весь хаос внедрения и регуляции.
Пупырка AI
Manus clawd в telegram или нет upd: починили к вечеру воскресенья manus запустили свой openclawd в телеге — хотел написать я вчера вечером. но его уже забанили или удалили🌚 тем не менее вот инвайт с бонусами в manus, думаю его ещё починят и все смогут…
OpenAI наняли создателя OpenClaw, так что скоро сделают всем и удобно.
а пока, телега разбанила Manus, можно поиграться пока ждем.
а пока, телега разбанила Manus, можно поиграться пока ждем.
claude code для дизайнеров
https://nervegna.substack.com/p/claude-code-for-designers-a-practical
главный тезис: дело не в «научиться кодить», а в выстроить правильный процесс управления llm как исполнителем. в статье подробнее с акцентом на инструменты и процесс.
выжимка:
инстурменты:
https://nervegna.substack.com/p/claude-code-for-designers-a-practical
главный тезис: дело не в «научиться кодить», а в выстроить правильный процесс управления llm как исполнителем. в статье подробнее с акцентом на инструменты и процесс.
выжимка:
— идея: дизайнеру не обязательно становиться разработчиком, чтобы шипать. главный барьер — не код, а перевод дизайн-намерения в системную реализацию
— связка claude code + строгий процесс (gsd-подход): сначала уточнение требований, крайних кейсов и границ задачи, потом уже код
— флоу работы: вопросы → ресёрч при необходимости → фиксация requirements / roadmap / state → план по фазам → выполнение фаз → проверка и uat
— принцип атомарных коммитов: каждая задача — отдельный git-коммит, чтобы легко откатываться и продолжать в новых сессиях
— быстрый деплой для демо через github + vercel с автопубликацией
— интеграция figma через mcp: дизайн-токены и компоненты синкаются с кодом, меньше ручного рассинхрона
— для более сложных штук: auth и база через supabase + подключение внешних api
инстурменты:
— gsd (get shit done, фреймворк на GitHub) — не просто промпт, а фреймворк работы. он заставляет модель:
1. сначала задавать уточняющие вопросы
2. фиксировать требования и ограничения
3. выписывать roadmap
4. делить работу на фазы
5. работать по фазам, а не хаотично
— обязательные артефакты:
requirements md — что именно делаем
roadmap md — этапы
state md — текущее состояние проекта
это снижает «дрейф» модели и позволяет продолжать работу в новых сессиях
— claude code как основной агент для работы с репозиторием и многошаговых изменений
— vercel + github — быстрый способ деплоя и демо без лишней инфраструктуры
Substack
Claude Code for Designers: A Practical Guide
A Step-by-Step Guide to Designing and Shipping with Claude Code
❤1