LoongX — будущее txt2img?
Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.
LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.
Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.
В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).
Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)
Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.
Project page
Пейпер
@ai_newz
Только вот оно наступит уже без использования текста. Надеваешь беспроводной BCI (brain-computer interface), фантазируешь себе картинку — и готово.
LoongX хорошо так приблизился к этому, но пока в сфере редактирования изображений (img2img). На вход подаются данные с электроэнцефалограммы (ЭЭГ), функциональной ближней инфракрасной спектроскопии (fNIRS), фотоплетизмографии (PPG) и датчиков движения головы. Проще говоря, система считывает сигналы мозга, изменения кровотока, пульс и движения.
Каждый сигнал несёт свой смысл: ЭЭГ отвечает за само намерение, fNIRS — за когнитивную нагрузку и эмоции, а PPG и движение — за стресс и вовлечённость.
В комбинации с речью LoongX обходит текстовый метод OminiControl по семантическому соответствию (CLIP-T: 0.2588 против 0.2549). Что ещё интереснее, чисто нейронные сигналы (без речи) превосходят текст в структурной точности (DINO: 0.4812 против 0.4636) и семантической схожести с целевым изображением (CLIP-I: 0.6605 против 0.6558).
Это большой шаг к тому, чтобы научиться интерпретировать и оцифровывать нашу фантазию напрямую. Ещё немного, и (возможно, не без помощи Neuralink и подобных) мы сможем транслировать свои фантазии прямо на экран, минуя потери при текстовом описании. У всех же было, когда пытаешься что-то нарисовать: в голове такая красивая картинка, а на бумаге выходит шляпа🤠 Давно вообще руками рисовали?)
Кроме подробнейшей статьи нам дали датасет и код, в том числе тренировочный, что делает проект полностью опенсорсным, так что стоит ожидать еще больше подобных проектов.
Project page
Пейпер
@ai_newz
1🤯142👍56🔥46❤25🫡6❤🔥3⚡3😁3
Рассуждение с данными: как работает новая функция в GigaChat
В GigaChat появился полноценный reasoning — с логикой, выводами и автоматическим подключением нужных инструментов под задачу. Модель не просто отвечает, а рассуждает: анализирует ввод, выбирает подход и при необходимости подключает чтение ссылок или документов.
Пользователь задаёт запрос — система определяет формат задачи и адаптируется без ручной настройки. На выходе — обоснованное решение с пошаговым трейсингом размышлений.
Кейс на проверку:
«Почему так много новостей про Grok 4 в интернете? Что произошло и при чём тут Илон Маск?»
GigaChat подошёл к вопросу последовательно: сначала задал фрейм — выяснить, что такое Grok 4, почему модель на слуху и как в этом замешан Маск. Затем определил дату и собрал свежие данные — от релиза 10 июля до заявлений о контракте с Пентагоном и технических сбоях.
Ответ получился развёрнутым: с фоном по xAI, краткой характеристикой модели, объяснением причин медийного хайпа и роли Маска. Модель упомянула и скандал с прошлой версией, и эффект громких заявлений, и то, как Grok 4 стал инструментом политического обсуждения. Структурно и без выдумок.
Ризонинг активируется кнопкой «Рассуждать» под окном ввода. В интерфейсе отображается весь процесс — как модель формулирует шаги, проверяет данные и делает выводы.
Функция работает в веб-версии giga.chat — уже можно потестить.
@ai_newz
В GigaChat появился полноценный reasoning — с логикой, выводами и автоматическим подключением нужных инструментов под задачу. Модель не просто отвечает, а рассуждает: анализирует ввод, выбирает подход и при необходимости подключает чтение ссылок или документов.
Пользователь задаёт запрос — система определяет формат задачи и адаптируется без ручной настройки. На выходе — обоснованное решение с пошаговым трейсингом размышлений.
Кейс на проверку:
«Почему так много новостей про Grok 4 в интернете? Что произошло и при чём тут Илон Маск?»
GigaChat подошёл к вопросу последовательно: сначала задал фрейм — выяснить, что такое Grok 4, почему модель на слуху и как в этом замешан Маск. Затем определил дату и собрал свежие данные — от релиза 10 июля до заявлений о контракте с Пентагоном и технических сбоях.
Ответ получился развёрнутым: с фоном по xAI, краткой характеристикой модели, объяснением причин медийного хайпа и роли Маска. Модель упомянула и скандал с прошлой версией, и эффект громких заявлений, и то, как Grok 4 стал инструментом политического обсуждения. Структурно и без выдумок.
Ризонинг активируется кнопкой «Рассуждать» под окном ввода. В интерфейсе отображается весь процесс — как модель формулирует шаги, проверяет данные и делает выводы.
Функция работает в веб-версии giga.chat — уже можно потестить.
@ai_newz
1😁181❤94👍61🫡16🔥14💔11🤯6😱3🤩2
Anthropic обсуждает новый раунд по оценке более чем в $100 миллиардов
Заметный рост после мартовских ~$60 миллиардов пост-мани. Такой рост не удивителен — июля сообщила инвесторам о >$4 миллиардах run-rate, что уже выше ранних внутренних сценариев на 2025 год. Ранее закладывали куда более скромные ~$2.2 млрд в 2025 в консервативном кейсе, компания пробила эту планку менее чем за три месяца 2025 года, с миллиарда в декабре 2024. Такой бешенный рост объясняется бумом ризонеров, которые используют сильно больше токенов чем традиционные инстракт модели.
Неплохо растёт и Claude Code — он уже приносит >$200M annualized. Это хоть и уступает Cursor (Anysphere) с ~$500M ARR, но маржа у Anthropic сильно выше — они используют только свои модели, в отличие от Cursor, который в значительной мере крутится на моделях Anthropic. Кстати два лида команды Claude Code, которые ушли в Anysphere пару недель назад, уже успели вернуться в Anthropic.
На фоне такой выручки оценка xAI выглядит дико — при выручке в 500 миллионов в год, компания ищет следующий раунд финансирования при оценке до $200 миллиардов. Да, Grok 4 — SOTA в куче бенчей, но мне всё ещё непонятно? что видят инвесторы в xAI и как компания собирается зарабатывать деньги.
@ai_newz
Заметный рост после мартовских ~$60 миллиардов пост-мани. Такой рост не удивителен — июля сообщила инвесторам о >$4 миллиардах run-rate, что уже выше ранних внутренних сценариев на 2025 год. Ранее закладывали куда более скромные ~$2.2 млрд в 2025 в консервативном кейсе, компания пробила эту планку менее чем за три месяца 2025 года, с миллиарда в декабре 2024. Такой бешенный рост объясняется бумом ризонеров, которые используют сильно больше токенов чем традиционные инстракт модели.
Неплохо растёт и Claude Code — он уже приносит >$200M annualized. Это хоть и уступает Cursor (Anysphere) с ~$500M ARR, но маржа у Anthropic сильно выше — они используют только свои модели, в отличие от Cursor, который в значительной мере крутится на моделях Anthropic. Кстати два лида команды Claude Code, которые ушли в Anysphere пару недель назад, уже успели вернуться в Anthropic.
На фоне такой выручки оценка xAI выглядит дико — при выручке в 500 миллионов в год, компания ищет следующий раунд финансирования при оценке до $200 миллиардов. Да, Grok 4 — SOTA в куче бенчей, но мне всё ещё непонятно? что видят инвесторы в xAI и как компания собирается зарабатывать деньги.
@ai_newz
2😁56❤32🤯18🔥8❤🔥3🦄3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
В Le Chat закинули фич
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
Самое интересное — завезли Deep Research. Он явно не самый лучший, но за счёт партнёрства Cerebras и Mistral явно самый быстрый на рынке. Развивается и партнёрство с Black Forest Labs — теперь в Le Chat есть редактирование изображений на основе FLUX Kontext.
Более чем спустя год после Anthropic добавили возможность организовывать чаты в проекты. Ещё добавили голосовой режим на основе Voxtral (к сожалению работает через TTS) и многоязычный ризонинг — наконец-то Magistral в чём-то лучше конкурентов. В целом у Le Chat теперь паритет по фичам с конкурентами, хотелось бы и паритета по моделям.
@ai_newz
1🔥66❤27👍20🦄7😁1
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT Agent — Deep Research и Operator теперь одно целое
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
Внутри теперь единая модель которая может пользоваться всеми тулами: текстовый и визуальный браузеры, терминал, прямой API доступ и коннекторы (Gmail, GitHub, etc.) — всё, что раньше жило раздельно в Operator и Deep Research, собрано в одном режиме. Агент теперь умеет заниматься и офисными задачами: генерировать редактируемые презентации и таблицы, обновлять их данными и подтягивать файлы (Docs/Slides/PowerPoint/Sheets) из подключённых облаков.
Обновлённая модель достигает 41.6% на Humanity's Last Exam, что немного ниже чем у Grok 4 Heavy, но сильно выше чем у изначального Deep Research режима. Запустив 8 параллельных прогонов и взяв лучший по самооценке, OpenAI смогли улучшить результат до 44.4%, то есть ровно до уровня Grok 4 Heavy.
Важная фича — агент сможет теперь спрашивать уточнения задачи во время её выполнения, но и вы теперь сможете прерывать агента и давать дополнительные указания если он делает что-то не то. Завершённые задачи можно ставить на расписание (еженедельные отчёты, брифы перед созвонами) — агент будет повторять их автоматически.
Довольно много внимания уделили фичам для безопасности: подтверждение перед необратимыми действиями, Watch Mode для чувствительных задач (вроде финансов), плюс проактивные меры против prompt‑injection. Ну и конечно можно вмешаться и остановить задачу в любой момент. Пока что safety фичи работают очень агрессивно, но количество false positives обещают постепенно уменьшать.
Доступ начнут давать уже сегодня Pro, Plus и Team подписчикам. Все Pro подписчики получат доступ сегодня, остальным придётся подождать до пары дней. Pro подписчики получат 400 сообщений в месяц, Plus и Team — 40. Кредиты можно будет дополнительно докупать, цену не сказали.
@ai_newz
5👍111🔥46❤34💔5❤🔥1😁1😱1🫡1🦄1
Т‑Банк завёз открытый свежачок: T-pro 2.0
32B русскоязычная модель на базе Qwen3‑32B. Модель прогнали через 40 млрд токенов претрейна (треть из них reasoning), потом долили ~500к SFT‑промптов и ещё 100к пар для preference‑tuning, так что она заметно лучше думает на русском.
На публичных бенчах получаем +5‑10 процентных пунктов к голому Qwen3‑32B: ruMMLU 79 % (+5), Ru‑Arena‑Hard 87,6 % (+4,4), MERA 66 % (+7,6) — среди локальных языковых моделей это один из лучших результатов прямо сейчас. Детали тренировки обещают завтра, на Turbo ML Conf.
Модель — гибридный ризонер, с 32к контекста, которые растягиваются до 131к при помощи YaRN. Авторы опубликовали не просто чекпоинт — релизнули сразу и официальную fp8 версию плюс пачку GGUF, так что модель могут использовать обычные юзеры без плясок с бубном. Натренировали и Eagle драфт модель, которая даёт до 60% прироста в скорости инференса при маленьких батчах — скорость растёт с 69 токенов в секунду до 110.
Лицензия — Apache 2.0, так что можно спокойно юзать в любых целях, в том числе коммерческих.
Веса
@ai_newz
32B русскоязычная модель на базе Qwen3‑32B. Модель прогнали через 40 млрд токенов претрейна (треть из них reasoning), потом долили ~500к SFT‑промптов и ещё 100к пар для preference‑tuning, так что она заметно лучше думает на русском.
На публичных бенчах получаем +5‑10 процентных пунктов к голому Qwen3‑32B: ruMMLU 79 % (+5), Ru‑Arena‑Hard 87,6 % (+4,4), MERA 66 % (+7,6) — среди локальных языковых моделей это один из лучших результатов прямо сейчас. Детали тренировки обещают завтра, на Turbo ML Conf.
Модель — гибридный ризонер, с 32к контекста, которые растягиваются до 131к при помощи YaRN. Авторы опубликовали не просто чекпоинт — релизнули сразу и официальную fp8 версию плюс пачку GGUF, так что модель могут использовать обычные юзеры без плясок с бубном. Натренировали и Eagle драфт модель, которая даёт до 60% прироста в скорости инференса при маленьких батчах — скорость растёт с 69 токенов в секунду до 110.
Лицензия — Apache 2.0, так что можно спокойно юзать в любых целях, в том числе коммерческих.
Веса
@ai_newz
2👍179😁66🔥44❤31🫡5😱2❤🔥1💯1
This media is not supported in your browser
VIEW IN TELEGRAM
Runway Act-Two - mocap + нейронный рендеринг
Пока мы не научились полностью контролировать действия персонажа и делать качественный липсинк, у актёров всё ещё есть работа.
Runway анонсировали Act-Two — прямого наследника первой версии, но теперь с улучшенным трекингом лица и новой фичей — трекингом движений и рук. Полноценный AI-мокап. Не показали только ноги — кажется все туловище еще не завезли?
Выглядит очень добротно. На вход принимает видео с актёром и референсную картинку или видео.
Вроде бы ничего сложного, похоже на обычный video-to-video, где на вход идут токены видео актера, а рядом подаются токены референсного персонажа - для переноса внешности. Нужно только хороший датасет насобирать :)
Генерит до 30 сек в 1MP разрешении, 24 fps. Не очень много, но достаточтно чтобы склеивать клипы. 1 секунда — 5 токенов ~ $0,09.
Дипфейки вышли на новый уровень.
Анонс
@ai_newz
Пока мы не научились полностью контролировать действия персонажа и делать качественный липсинк, у актёров всё ещё есть работа.
Runway анонсировали Act-Two — прямого наследника первой версии, но теперь с улучшенным трекингом лица и новой фичей — трекингом движений и рук. Полноценный AI-мокап. Не показали только ноги — кажется все туловище еще не завезли?
Выглядит очень добротно. На вход принимает видео с актёром и референсную картинку или видео.
Вроде бы ничего сложного, похоже на обычный video-to-video, где на вход идут токены видео актера, а рядом подаются токены референсного персонажа - для переноса внешности. Нужно только хороший датасет насобирать :)
Генерит до 30 сек в 1MP разрешении, 24 fps. Не очень много, но достаточтно чтобы склеивать клипы. 1 секунда — 5 токенов ~ $0,09.
Дипфейки вышли на новый уровень.
Анонс
@ai_newz
1❤115👍28🤯18❤🔥7🔥3🦄2😁1
Telegram
Neural Shit
Снова роботы бесоёбят
1😁234🤯47❤22🔥14😱13🦄3
Нейродайджест за неделю (#78)
LLM
- ChatGPT Agent — Мощный агент для выполнения рутинных задач с доступом в интернет. Не первые, но, возможно, лучшие.
- Обновление Le Chat — Завезли быстрый Deep Research, FLUX Kontext и ещё по мелочи.
- Grok virtual waifu — Маск добавил в свой чат 3D-аватаров: аниме-девочку Ani и красную панду Bad Rudy.
- Косяки Voice Mode — Или почему нужно чистить датасеты.
- Оценка Anthropic в $100 миллиардов — Ведутся обсуждения нового раунда, по которому оценка Anthropic вырастет еще на $40 миллиардов за раз.
Генеративные модели
- LoongX — Редактируем картинки прямо через сенсоры активности головного мозга.
- Runway Act-Two — Mocap + нейронный рендеринг.
Прочее
- Thinking Machines to the moon — Стартап бывшего CTO OpenAI Миры Мурати теперь стоит $10 миллиардов, чуть больше чем через полгода после основания. Как — непонятно.
- Восстание машин здесь — Мем выходного дня.
> Читать дайджест #77
#дайджест
@ai_newz
LLM
- ChatGPT Agent — Мощный агент для выполнения рутинных задач с доступом в интернет. Не первые, но, возможно, лучшие.
- Обновление Le Chat — Завезли быстрый Deep Research, FLUX Kontext и ещё по мелочи.
- Grok virtual waifu — Маск добавил в свой чат 3D-аватаров: аниме-девочку Ani и красную панду Bad Rudy.
- Косяки Voice Mode — Или почему нужно чистить датасеты.
- Оценка Anthropic в $100 миллиардов — Ведутся обсуждения нового раунда, по которому оценка Anthropic вырастет еще на $40 миллиардов за раз.
Генеративные модели
- LoongX — Редактируем картинки прямо через сенсоры активности головного мозга.
- Runway Act-Two — Mocap + нейронный рендеринг.
Прочее
- Thinking Machines to the moon — Стартап бывшего CTO OpenAI Миры Мурати теперь стоит $10 миллиардов, чуть больше чем через полгода после основания. Как — непонятно.
- Восстание машин здесь — Мем выходного дня.
> Читать дайджест #77
#дайджест
@ai_newz
❤35🔥22👍9❤🔥2🦄1
Qwen 3 обновили
235B теперь по куче бенчей обходит Claude 4 Opus и Kimi K2. Да, релизнули только большую модель, но скоро, по идее, её должны дистиллировать это в модели помельче, так что и у простых смертных на улице будет праздник.
Модель исключительно Instruct — ризонер выпустят отдельной моделью чуть позже. Происходит это из-за того что команде Qwen слишком сложно засовывать два режима в одну модель, в результате модель работает хуже чем отдельные ризонер/инстракт модели. Тем не менее они не прекращают работать над гибридными ризонерами, так что есть шансы что эту проблему решат.
Веса
@ai_newz
235B теперь по куче бенчей обходит Claude 4 Opus и Kimi K2. Да, релизнули только большую модель, но скоро, по идее, её должны дистиллировать это в модели помельче, так что и у простых смертных на улице будет праздник.
Модель исключительно Instruct — ризонер выпустят отдельной моделью чуть позже. Происходит это из-за того что команде Qwen слишком сложно засовывать два режима в одну модель, в результате модель работает хуже чем отдельные ризонер/инстракт модели. Тем не менее они не прекращают работать над гибридными ризонерами, так что есть шансы что эту проблему решат.
Веса
@ai_newz
1❤132🔥72👍24🤯7❤🔥6⚡3😁1😱1
Всем привет!
Последний раз я проводил опрос 2 года назад, за это время канал вырос в 2 раза! Так же произошло много изменений в мире AI, и, я думаю, искуственным интеллектом стало интересоваться гораздо больше людей.
Когда знакомлюсь с вами оффлайн на наших тусах, я всегда спрашиваю, что именно вам нравится на канале эйай ньюз и чего вам не хватает. Теперь хочется получше узнать и тех, кто меня читает, но с кем я лично еще не знаком – что вас больше интересует, и какие посты вы бы хотели чаще видеть.
Давайте знакомиться! Здесь, в комментах, и, главное, в опросе — так я смогу лучше вас понять и сделать канал лучше. Пишите кто вы, что вы, где и чем занимаетесь, что хотели бы больше видеть в канале.
Опрос [вот здесь], займёт буквально 1 минутку, я проверял).
Спасибо, что читаете!
@ai_newz
Последний раз я проводил опрос 2 года назад, за это время канал вырос в 2 раза! Так же произошло много изменений в мире AI, и, я думаю, искуственным интеллектом стало интересоваться гораздо больше людей.
Когда знакомлюсь с вами оффлайн на наших тусах, я всегда спрашиваю, что именно вам нравится на канале эйай ньюз и чего вам не хватает. Теперь хочется получше узнать и тех, кто меня читает, но с кем я лично еще не знаком – что вас больше интересует, и какие посты вы бы хотели чаще видеть.
Давайте знакомиться! Здесь, в комментах, и, главное, в опросе — так я смогу лучше вас понять и сделать канал лучше. Пишите кто вы, что вы, где и чем занимаетесь, что хотели бы больше видеть в канале.
Опрос [вот здесь], займёт буквально 1 минутку, я проверял).
Спасибо, что читаете!
@ai_newz
Telegram
эйай ньюз
Фотоотчет с тусовки "эйай ньюз" на Бали
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было…
Выкладываю запоздалые фоточки с оффлайн встречи 3 Января, которую мы провели на Бали. Неожиданно много людей собралось. На пике было около 40 человек, только посмотрите на толпу на коллективном фото!
Как всегда было…
6❤81🔥33🫡22👍8🦄6❤🔥3🤯3😱1
Colossus 2 почти готов
xAI, уже через несколько недель, начнут вводить в строй кластер из 550к GB200/GB300 на жидкостном охлаждении. Чтобы запитать этого монстра, xAI купили электростанцию в другой стране и привезли её в США — обойтись мобильными генераторами, как в случае с оригинальным Colossus, не вышло.
Добро пожаловать в эру гигаваттных кластеров
@ai_newz
xAI, уже через несколько недель, начнут вводить в строй кластер из 550к GB200/GB300 на жидкостном охлаждении. Чтобы запитать этого монстра, xAI купили электростанцию в другой стране и привезли её в США — обойтись мобильными генераторами, как в случае с оригинальным Colossus, не вышло.
Добро пожаловать в эру гигаваттных кластеров
@ai_newz
1🤯345🔥117👍29❤11🦄6😁5❤🔥2⚡1
Qwen 3 Coder
Ещё один релиз от китайцев, тоже без ризонинга. На кодинг и агентных бенчах почти дотягивает до Claude 4 Sonnet. Нативно поддерживает до 256к токенов контекста, но масштабируется до миллиона с использованием YaRN.
Архитектурно это MoE на 480B параметров (35B активных), который натренировали на 7.5 триллионах токенов, 70% из них — код. Это почти в 5 раз меньше датасет чем у оригинального Qwen 3. Много внимание уделили скейлингу RL — модель учили решать реальные задачи используя реальные тулы в течении множества попыток. Чтобы это всё нормально тренировалось, они скейлили свою RL систему до 20к параллельных энвайронментов.
В официальном API у модели очень резко растёт цена с длиной контекста: до 32k контекста модель стоит $1/$5 за миллион токенов, при 128k-256k — стоит как Claude Sonnet, а при миллионе токенов контекста цена доходит до бешенных $6/$60 за миллион токенов. Так что вряд ли стоит использовать официальное API — сторонние API провайдеры хоть и дают пока лишь до 262к контекста, но там нет шанса стать на грабли бешеного прайсинга. Да и цена у сторонних провайдеров заметно ниже — самый дешёвый отдаёт модель по цене $1.5/$2 за миллион токенов.
С моделью опубликовали и Qwen Code — форк Gemini CLI, специально заточенный под Qwen Coder. Для пользователей Claude Code запустили совместимый с API Anthropic эндпоинт, но ему присущи все проблемы официального API.
С большим любопытством слежу за противостоянием открытых китайских моделей и закрытых западных. Китайцы уж очень дышат в затылок своими опенсорсными моделями.
Веса
Блогпост
Qwen Code
@ai_newz
Ещё один релиз от китайцев, тоже без ризонинга. На кодинг и агентных бенчах почти дотягивает до Claude 4 Sonnet. Нативно поддерживает до 256к токенов контекста, но масштабируется до миллиона с использованием YaRN.
Архитектурно это MoE на 480B параметров (35B активных), который натренировали на 7.5 триллионах токенов, 70% из них — код. Это почти в 5 раз меньше датасет чем у оригинального Qwen 3. Много внимание уделили скейлингу RL — модель учили решать реальные задачи используя реальные тулы в течении множества попыток. Чтобы это всё нормально тренировалось, они скейлили свою RL систему до 20к параллельных энвайронментов.
В официальном API у модели очень резко растёт цена с длиной контекста: до 32k контекста модель стоит $1/$5 за миллион токенов, при 128k-256k — стоит как Claude Sonnet, а при миллионе токенов контекста цена доходит до бешенных $6/$60 за миллион токенов. Так что вряд ли стоит использовать официальное API — сторонние API провайдеры хоть и дают пока лишь до 262к контекста, но там нет шанса стать на грабли бешеного прайсинга. Да и цена у сторонних провайдеров заметно ниже — самый дешёвый отдаёт модель по цене $1.5/$2 за миллион токенов.
С моделью опубликовали и Qwen Code — форк Gemini CLI, специально заточенный под Qwen Coder. Для пользователей Claude Code запустили совместимый с API Anthropic эндпоинт, но ему присущи все проблемы официального API.
С большим любопытством слежу за противостоянием открытых китайских моделей и закрытых западных. Китайцы уж очень дышат в затылок своими опенсорсными моделями.
Веса
Блогпост
Qwen Code
@ai_newz
1❤142👍42🔥27😁6🙏3
Всем, привет! Я опять в Грузии - приехали с нашей командой на оффсайт.
Завтра я организую тусовку "эйай ньюз" в Тбилиси. Будем раговаривать про AI, стартапы, пить вино и нетворкать!
Можно заметить, как мне нравится Грузия: 1) я тут уже третий раз и провожу третью тосувку 2) предыдущая туса была 20 июня в Пало Альто, но в Грузинском ресторане 🇬🇪.
Где и когда:
Завтра (Пятнциа 25 July) в 18:30.
Адрес получите после регистрации.
RSVP на ивент можно тут (количество мест ограничено): https://lu.ma/g5aqdpx1
Всех жду! Обнял!
@ai_newz
Завтра я организую тусовку "эйай ньюз" в Тбилиси. Будем раговаривать про AI, стартапы, пить вино и нетворкать!
Можно заметить, как мне нравится Грузия: 1) я тут уже третий раз и провожу третью тосувку 2) предыдущая туса была 20 июня в Пало Альто, но в Грузинском ресторане 🇬🇪.
Где и когда:
Завтра (Пятнциа 25 July) в 18:30.
Адрес получите после регистрации.
RSVP на ивент можно тут (количество мест ограничено): https://lu.ma/g5aqdpx1
Всех жду! Обнял!
@ai_newz
lu.ma
эйай ньюз x Тбилиси · Luma
Social event of the "Эйай Ньюз" community (t.iss.one/ai_newz).
You should expect discussions on AI, Startups, drinking Georgian wine and a lot of networking!
You should expect discussions on AI, Startups, drinking Georgian wine and a lot of networking!
1🔥84❤36🤩7👍6😁6🤯4🦄3😱2🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Google Virtual Try-On и Price Alerts
Google начал раскатывать главные AI-фишки для шоппинга, которые обещал на последней презентации. В US запустили две функции: виртуальную примерку одежды и агента, который следит за ценами.
Теперь можно загрузить свою фотографию и посмотреть, как вещь будет сидеть на вас, прямо в поиске. Нужно потестить, чтобы точно понять, насколько хорошо работает примерялка вещей, так как все текущие решения склонны изменять реальный фасон и показывать нереалистичный результат. Ещё релизнули Doppl. По сути, это та же примерка, которую можно запустить уже сейчас, если есть американский аккаунт (как сделать), но в само приложение меня даже с VPN не пустило.
А вот Price Alerts это уже серьёзный шаг к автоматизации покупок. Можно выбрать товар, указать желаемую цену, размер и цвет, а Google пришлёт уведомление, как только найдёт подходящее предложение.
Это хороший ответ дропшипперам, так как тулза ищет товар вообще везде. Ещё немного, и AI-агенты будут сами заказывать нам еду на вечер.
Осенью обещают пойти ещё дальше: генеративный подбор целого образа по текстовому запросу или дизайн комнаты. Все с реально существующими продуктами.
*дизайнеры напряглись*
Источник
@ai_newz
Google начал раскатывать главные AI-фишки для шоппинга, которые обещал на последней презентации. В US запустили две функции: виртуальную примерку одежды и агента, который следит за ценами.
Теперь можно загрузить свою фотографию и посмотреть, как вещь будет сидеть на вас, прямо в поиске. Нужно потестить, чтобы точно понять, насколько хорошо работает примерялка вещей, так как все текущие решения склонны изменять реальный фасон и показывать нереалистичный результат. Ещё релизнули Doppl. По сути, это та же примерка, которую можно запустить уже сейчас, если есть американский аккаунт (как сделать), но в само приложение меня даже с VPN не пустило.
А вот Price Alerts это уже серьёзный шаг к автоматизации покупок. Можно выбрать товар, указать желаемую цену, размер и цвет, а Google пришлёт уведомление, как только найдёт подходящее предложение.
Это хороший ответ дропшипперам, так как тулза ищет товар вообще везде. Ещё немного, и AI-агенты будут сами заказывать нам еду на вечер.
Осенью обещают пойти ещё дальше: генеративный подбор целого образа по текстовому запросу или дизайн комнаты. Все с реально существующими продуктами.
*дизайнеры напряглись*
Источник
@ai_newz
4👍92🔥40❤16🦄5
This media is not supported in your browser
VIEW IN TELEGRAM
ChatGPT Agent теперь доступен всем подписчикам Plus и Team
Раскатывали режим дольше чем обещали, ссылаясь на повышенный спрос. Попробовать агента можно в Tools>Agent mode, там же где Deep Research.
@ai_newz
Раскатывали режим дольше чем обещали, ссылаясь на повышенный спрос. Попробовать агента можно в Tools>Agent mode, там же где Deep Research.
@ai_newz
❤69👍36🔥22🦄4💔3😱1🤩1
Yandex B2B Tech открыл бизнесу доступ к обновлённому Qwen3
Компания запустила в своём облаке Qwen3‑235B‑A22B‑Instruct‑2507, которая стала крупнейшей моделью в Yandex Cloud. Модель умеет удерживать большой контекст для более точных логических и интеллектуальных задач, поддерживает 119 языков и диалектов, пишет код, обладает обширной базой знаний и даёт быстрые, точные ответы с улучшенной персонализацией по сравнению с предыдущей версией.
Для бизнеса модель доступна в Yandex Cloud AI Studio — через API по стандарту OpenAI. Это позволяет быстро собирать ИИ‑агентов без крупных инвестиций: от автоматизации поддержки и виртуальных ассистентов для e‑commerce до создания корпоративных кодовых ассистентов. Стоимость — 50 копеек за 1 000 токенов.
Источник
@ai_newz
Компания запустила в своём облаке Qwen3‑235B‑A22B‑Instruct‑2507, которая стала крупнейшей моделью в Yandex Cloud. Модель умеет удерживать большой контекст для более точных логических и интеллектуальных задач, поддерживает 119 языков и диалектов, пишет код, обладает обширной базой знаний и даёт быстрые, точные ответы с улучшенной персонализацией по сравнению с предыдущей версией.
Для бизнеса модель доступна в Yandex Cloud AI Studio — через API по стандарту OpenAI. Это позволяет быстро собирать ИИ‑агентов без крупных инвестиций: от автоматизации поддержки и виртуальных ассистентов для e‑commerce до создания корпоративных кодовых ассистентов. Стоимость — 50 копеек за 1 000 токенов.
Источник
@ai_newz
Telegram
эйай ньюз
Qwen 3 обновили
235B теперь по куче бенчей обходит Claude 4 Opus и Kimi K2. Да, релизнули только большую модель, но скоро, по идее, её должны дистиллировать это в модели помельче, так что и у простых смертных на улице будет праздник.
Модель исключительно…
235B теперь по куче бенчей обходит Claude 4 Opus и Kimi K2. Да, релизнули только большую модель, но скоро, по идее, её должны дистиллировать это в модели помельче, так что и у простых смертных на улице будет праздник.
Модель исключительно…
8😁104❤27👍25🔥7🫡5😱1🤩1💯1💔1🦄1
Эйай Ньюз Митап в Тбилиси
Ребят, я договорился на нашей локации на большее число людей. Так что все, кому инвайт не пришел, или пришел с опозданием – все равно приходите. Тут места много.
Chacha Time. Tbilisi
Мы будем минимум до 23:00 точно. И возможно будет афтер-пати.
https://maps.app.goo.gl/cygAJj8iP2SobLBB6
Жду всех!
@ai_newz
Ребят, я договорился на нашей локации на большее число людей. Так что все, кому инвайт не пришел, или пришел с опозданием – все равно приходите. Тут места много.
Chacha Time. Tbilisi
Мы будем минимум до 23:00 точно. И возможно будет афтер-пати.
https://maps.app.goo.gl/cygAJj8iP2SobLBB6
Жду всех!
@ai_newz
Chacha Time · Tbilisi
Find local businesses, view maps and get driving directions in Google Maps.
❤69😱17🔥11😁11🦄5🤯4