o3-pro на подходе
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании😈
Один из главных наших бро-инсайдеров пишет, что o3-pro вот-вот и еще чуть-чуть и будет у нас.
Потираем ручки в ожидании
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16❤6🍓3 2
Media is too big
VIEW IN TELEGRAM
Thomas Iljic, product lead в Veo 3, высказал интересные мысли — что видео, симуляции, игры, всё это начинает сливаться в нечто единое. Не контент по раздельности, а симулированная реальность, которую можно ставить на паузу, переписывать, проживать заново. Запахло “Черным зеркалом” 😀
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
И вот сижу и думаю, а воображение начинает дорисовывать картинку. Мы всегда смотрели на экран тв, монитора, смартфона — как на окно: оно что-то нам показывает, а ты просто смотришь (потребляешь). В кино наблюдаешь, в игре участвуешь, но с жёсткими ограничениями и правилами.
А что если с приходом мощных 3D и видео-генераций, VR-очков и нейроимплантов, которые могут дополнить наши ощущения, это окно превратится в дверь, куда можно войти и погрузиться в атмосферу нужного момента? Ты уже не зритель, а участник.
Когда-то чудом было ч/б фото. Потом цветное. Потом видео.
И мы постепенно приходим к тому, что любое фото уже сейчас можно оживить, наложить липсинк, синтезировать голос по речи конкретного человека.
Какие-то моменты можно уже сильно иначе проживать и вспоминать из прошлого. У нас хранятся тысячи фото и видео на смартфоне, есть записанные голоса наших близких. Это можно расширить и на тонны контента в сети.
Их комбинация способна воссоздавать те самые моменты, атмосферу, эмоции, 3D-сцены.
Это уже не контент в привычном понимании. Это переживание, которое можно отмотать, как память. Перепрожить. Поменять.
Как в одной из серий «Черного зеркала» в последнем сезоне, где на основе фото или воспоминания можно создать сцену и оказаться в том самом моменте с помощью нейро-штуки, которую закрепляешь себе у виска.
Может, скоро мы будем говорить не “смотри, какую картинку я сгенерировал”, не “зацени фотку”, а “загляни в этот момент, почувствуй, раздели со мной радость, проживи его по-своему, почувствуй вайб”.
Не фото, не видео, не игра — а момент, симуляция, “набор ощущений”, которые ты просто кому-то кидаешь в чат в виде ссылки.
❤23🤔7
“Память” в ChatGPT теперь бесплатная
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе😬 )
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Вчера начали раскатывать прокаченную фичу “Память” в ChatGPT для пользователей без подписки, но важно, чтобы пользователь имел аккаунт и был авторизован (было бы странно, если бы было иначе
Память для бесплатных будет урезанной по длине контекста в отличие от Plus и Pro пользоватей, контекст памяти у которых длиннее (на сколько длиннее кстати?)
Подробнее о том, что такое “Память” в ChatGPT и как она работает, я писал в этом посте.
В Европе свои прибамбасы с активацией этой фичи, почитать можно тут
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15
Media is too big
VIEW IN TELEGRAM
Сэм Альтман говорит о будущем ИИ не как о гигантской модели, а как раз наоборот. Будущее за очень компактной моделью, которая умеет рассуждать лучше человека.
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
Главная идея не в том, чтобы модель знала всё на свете (это супер дорого и неэффективно), а в том, чтобы она могла быстро и точно думать, опираясь на огромный контекст (до триллиона токенов, т.е. вместить в себя всю вашу жизнь или все знания компании) и подключая любые нужные инструменты — от баз данных до физического симулятора.
По сути, это не хранилище знаний, а универсальный механизм принятия решений, который может решать любые задачи, даже если сам не содержит нужных данных. Всё, что нужно — дать доступ к информации и инструментам.
Именно к такому ИИ, по мнению Альтмана, мы сейчас и идём (вместе с OpenAI).
Сразу вспомнилась песенка: Мы в город Изумрудный, идём дорогой трудной, дорогой непростой. И Сэм в роли Гудвина 😉
❤32👍8🫡1
Forwarded from Data Secrets
OpenAI показали большое обновление ChatGPT для бизнеса: теперь в бота можно интегрировать любые базы знаний вашей компании
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей🤑
Ну и, по классике, ищем на скрине со стрима пасхалки⬆️
Подсоединить к ChatGPT можно Google Drive, Dropbox, SharePoint, Box, OneDrive и другие сервисы. По этим данным можно будет осуществлять поиск, Deep Reserch, ну или просто обрабатывать как хотите.
Это называется "коннекторы", фича раскатывается на пользователей Team и Enterprise. Говорят, что данные "будут оставаться внутри периметра компании", и у каждого юзера будет доступ только к тем файлам, к которым у него есть доступ в корпоративной структуре.
Кроме того, OpenAI анонсировали record mode: это режим записи и транскрибирования любых ваших встреч. Модель сможет автоматически получать доступ к вашим встречам из Teams, Zoom, Google Meet и так далее (+ коннектиться с календарем) и обрабатывать информацию со встречи.
Можно будет задавать по митингам вопросы, суммаризировать, превратить в документ, таблицу и прочее. Доступно, аналогично, для Enterprise. В Team завезут в ближайшее время.
Кстати, как раз сегодня OpenAI пробили три миллиона платных бизнес-пользователей
Ну и, по классике, ищем на скрине со стрима пасхалки
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍3❤1🫡1
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣12👨💻1
Полный список коннекторов, которые анонсировали в ChatGPT
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
Коннекторы для других сервисов будут постепенно появляться. Но вы можете подключать свои кастомные коннекторы в виде MCP.
Лимитов для коннекторов нет, они работают в рамках общего лимита для выбранной модели и вашего тарифа.
Более подробно о коннекторах тут
❤13👍7
This media is not supported in your browser
VIEW IN TELEGRAM
А вот и видео от OpenAI как подключить кастомный (свой) MCP в виде коннектора для ChatGPT Deep Search.
🔥16👍4❤2
И немного подробностей про record mode.
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
Завезли режим записи разговоров только в Mac OS приложение и пока только для Team тарифа. Нажал кнопку и модель начинает слушать.
Что происходит дальше:
— Запись превращается в расшифровку и саммари.
— Из неё автоматически извлекаются ключевые решения, действия (action points), темы/задачи.
— Всё это сохраняется в отдельной “canvas” страничке внутри чата.
— И далее в любой момент можно задать вопрос типа “Что мы решили на вчерашней встрече?” и получить ответ с цитатами.
Плюс, по желанию превратить это всё в письмо, план, табличку или даже код.
Запись длится до 2 часов. Аудио удаляется сразу после транскрибации. Модель не учится на этих данных (верим?).
Работает пока лучше всего на английском. Но поддерживает и другие языки.
Теперь ждем, когда завезут в остальные тарифы. Мега крутая фича! Больше деталей тут
🔥18❤7👍4
Media is too big
VIEW IN TELEGRAM
Ура! Большой релиз Cursor версии 1.0
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
Редактор получил крупное обновление:
— BugBot: автоматически проверяет pull request’ы в GitHub, ищет потенциальные баги и оставляет комментарии. Один клик на “Fix in Cursor” и ты сразу в редакторе с готовым промптом для исправления.
— Memories: Cursor теперь может запоминать факты, правила и особенности кода, с которым ты работаешь. Эти «воспоминания» сохраняются на уровне проекта, и могут использоваться в будущих запросах, чтобы не объяснять одно и то же по кругу. Управляется через Settings → Rules, пока работает в бете. В будущем планируют совместные меморис для команд.
— Background Agent: теперь доступен всем. Это асинхронный агент, который может выполнять задачи в фоне, без блокировки редактора. Работает даже через Slack — просто упомяни @cursor, и он сам внесёт изменения.
— MCP-серверы: теперь ставятся в один клик, появилась поддержка OAuth. Есть каталог готовых серверов.
Весь change log доступен тут
Выглядит супер! Бегом обновляться 🤩
🔥13❤8👍3👾1
Forwarded from Zavtracast (Ярослав Ивус)
Nucleus представила услугу Embryo, которая позволяет узнать детальные характеристики ребёнка до рождения. Это выглядит, как выбор персонажа в игре.
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
Nucleus Embryo доступна только для родителей, которые собираются пройти процедуру ЭКО. В своей клинике им дают какое-то количество эмбрионов на выбор, а затем данные заливают в сервис.
Через пару часов родители могут узнать пол, цвет волос, рост, IQ, а также склонность к диабету и генетическим заболеваниям своего будущего ребёнка. Конечно же, это не гарантии, а вероятность, но Nucleus изучили 120,000 эмбрионов, чтобы создать Embryo.
Услуга обойдётся в $5,999 — это без учёта самой процедуры ЭКО и дальнейших наблюдений у врача.
@zavtracast
🔥14❤3👍2 2
Новый Advanced Voice mode в ChatGPT
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
Засветилось обновление голосового режима в чатике.
- Более живая речь со словами паразитами для естественности.
- Говорят, что поёт (наконец-то!).
Всё меньше и меньше ощущение, что говоришь с роботом.
Почему-то начало появляться в Андроид приложении 🤨
❤18 8👍4👾1
Google обновила Gemini 2.5 Pro (Preview)
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
На бенчмарках модель заметно подросла и «поумнела» на задачах кода, логики и точных наук.
– 82.2% на задачах по программированию (Aider Polyglot)
– 86.4% на вопросах по естественным наукам (GPQA)
– 21.6% на Humanity’s Last Exam (тест на мышление и знания)
Цены в API:
— до 200K токенов: $1.25 input / $10 output
— больше 200K: $2.50 / $15 (за 1M токенов)
Доступ: AI Studio, Vertex, Gemini App.
🔥19
Media is too big
VIEW IN TELEGRAM
Elevenlabs выкатила text-to-speech модель Eleven v3 (alpha)
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
Вы только послушайте эти голоса, эмоции, смех, акценты. Вау!
В видео есть демо запись футбольного комментатора с британским акцентом! Просто восторг!
Поддерживает 70+ языков, несколько голосов в виде диалогов, аудио тэги типа смех, восторг, шепот и прочие.
🔥43
Media is too big
VIEW IN TELEGRAM
AGI может и не случиться
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
Сундар Пичаи не строит иллюзий: прогресс впечатляет, но гарантий ноль. Мы можем просто упереться в потолок.
ИИ уже умеет многое, но иногда не справляется с элементарным. Waymo всё ещё учат водить, а школьник осваивает это за пару выходных.
Так что да — всё красиво, но до настоящего интеллекта ещё, возможно, очень далеко 😬
👍14❤8👾2👨💻1
Наконец-то выкатили обновление Advanced Voice в ChatGPT
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
Теперь ассистент говорит с реалистичными паузами, интонацией, с нотками эмпатии и даже сарказма 🤨
А ещё наконец-то нормальный голосовой переводчик. Просто скажи «переводи», и ассистент будет автоматически переводить всё, что вы говорите, туда-обратно. Например, вы говорите официанту по-английски, он отвечает по-португальски и ChatGPT мгновенно переводит оба направления. И так — пока не скажете остановиться.
Кайф же! Еще больше кейсов для использования AVM.
1🔥37❤4
Сбой у OpenAI длится уже больше 7 часов.
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году😭
Вайб: когда 30% кода в компании написано с помощью AI 😅
Затронуло и API и ChatGPT. И это уже не первый такой глобальный сбой в этом году
Вайб: когда 30% кода в компании написано с помощью AI 😅
Please open Telegram to view this post
VIEW IN TELEGRAM
😭31 4
OpenAI выкатила o3-pro
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра🐰
Это самая мощная в своей линейке reasoning-моделей. Она уже доступна в ChatGPT Pro, Team и API.
Что умеет o3-pro:
— Лучше решает задачи по науке, коду, бизнесу и обучению
— Лучшая по всем метрикам по сравнению с o3
— Умеет использовать все инструменты: Python, файлы, веб, визуальный ввод
Цены в API:
— o3-pro: $20 за 1M токенов на вход, $80 — на выход
— обычную o3 удешевили на 80%: теперь $2 / $8 (на уровне GPT-4.1)
Теперь понятно, почему вчера у OpenAI всё лежало: катили нового монстра
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17
OpenAI теперь и на Google Cloud
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
Кажется, конкуренция конкуренцией, а вычислительные мощности по расписанию (текущих от Microsoft не хватает, вчера снова был глобальный сбой). OpenAI договорились с Google и будут использовать их Google Cloud для своих моделей. Раньше вся нагрузка лежала на Microsoft, теперь мощности начали распределять.
Что известно:
– Сделку закрыли в мае
– Переговоры шли несколько месяцев (мешали условия с Microsoft)
– У OpenAI выросли запросы на обучение и запуск моделей, одной Azure уже мало
– Для Google это большая победа, особенно на фоне того, что ChatGPT “ест” их поисковик
– Параллельно OpenAI строят дата-центр Stargate и пилят собственные чипы, чтобы меньше зависеть от партнёров
Акции Google уже пошли вверх. И да, Google снова себя прекрасно ощущает и сумела выправить курс (Apple учись!).
❤20🔥5👾1