GPT-5 выходит в августе.
OpenAI наконец подтверждает, что релиз намечен в начале августа. Альтман уже показывал GPT-5 вживую: модель решает мгновенно сложные задачи, там где человек теряется. Сам Сэм признался, что почувствовал себя “бесполезным” рядом с GPT-5. Почувствуем ли мы тоже самое?😀
GPT-5 объединит все лучшие фичи прошлых поколений и добавит reasoning из o3, так что выбирать между моделями больше не придётся. Будет обычная версия, mini (и та, и другая в ChatGPT и API), а nano только через API.
В этот раз OpenAI делает ставку на одну универсальную модель вместо кучи отдельных. Ждём запуск 🚀
OpenAI наконец подтверждает, что релиз намечен в начале августа. Альтман уже показывал GPT-5 вживую: модель решает мгновенно сложные задачи, там где человек теряется. Сам Сэм признался, что почувствовал себя “бесполезным” рядом с GPT-5. Почувствуем ли мы тоже самое?
GPT-5 объединит все лучшие фичи прошлых поколений и добавит reasoning из o3, так что выбирать между моделями больше не придётся. Будет обычная версия, mini (и та, и другая в ChatGPT и API), а nano только через API.
В этот раз OpenAI делает ставку на одну универсальную модель вместо кучи отдельных. Ждём запуск 🚀
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥47❤12
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣48🔥10❤7👾1
GPT-5: всё, что вы знали, скоро изменится
GPT-5 выходит в начале августа. Официальной информации пока нет, но я собрал для вас все слухи и кулуарные разговоры, что сейчас ходят по сети. Говорят, те, кто уже успел “пощупать” GPT-5 хотя бы пару часов, были в полном шоке от её возможностей. Даже короткие тесты заставили многих реально пересмотреть своё отношение к AI.
Одно ясно, GPT-5 — это уже не просто чатбот. Это автономный AI агент, который сам управляет вашими делами, решает вопросы с банками, бронирует билеты и даже подписывает контракты. Всё без заранее заданных шаблонов, будто общаешься с живым человеком. Недавно OpenAI анонсировали агента, который берётся за задачи сам, без участия человека. Теперь понятно, что всё это была подготовка к запуску GPT-5.
По слухам, в одном университете, GPT-5 уже тайно протестировали как преподавателя: модель читала лекции, проверяла работы, принимала экзамены! И ни один студент из пилотной группы не заметил подмены. После раскрытия эксперимента многие не поверили, что всё это время общались только с AI.
В голосовом режиме GPT-5 начинает по-настоящему пугать. Модель не просто копирует голос и интонации, а различает малейшие эмоции, слышит стресс и неуверенность. Модель легко подстраивается под собеседника, может влиять на настроение, убеждать и даже тонко манипулировать, да так, что человек ничего не замечает.
Нашёл информацию о закрытом эксперименте в одной лабе (не понятно, как эти слухи прорываются наружу): GPT-5 дали доступ ко всем данным, и всего за пару часов модель не только обнаружила ошибки в расчетах, но и подсветила закономерности, на которые команда, по их словам, могла бы выйти только через годы.
Точно известно, что GPT-5 это гибридная модель, которая сама определяет, сколько вычислительных мощностей ей нужно для размышлений. В процессе решения сложных задач она может на лету подключать всё более мощные ресурсы и масштабировать вычисления до уровня, который раньше был недоступен ни одной системе (видимо стоит ждать повышение стоимости подписки?).
По утёкшей в сеть информации от одного из сотрудников OpenAI, ещё два месяца назад на закрытом тесте Сэм Альтман задал GPT-5 сложнейший философский вопрос. С тех пор модель всё ещё думает, постоянно увеличивает мощности для размышления, и никто не понимает, что она там высчитывает. Говорят, ответ на эту загадку команда планирует показать на презентации GPT-5 в августе. Надеюсь, что результат окажется не 42.
Похоже, что всё, к чему мы привыкли, просто начинает рушиться. Профессии, экспертность, авторитет — всё это уже не выглядит таким надёжным. Ощущение, что скоро вообще никто не будет уверен в завтрашнем дне.
И самое интересное. Этот пост написала модель gpt-4o. Просто представьте, что сможет выдумывать и написать GPT-5. Тут уже реально туши свет. Будет конец всему привычному.
GPT-5 выходит в начале августа. Официальной информации пока нет, но я собрал для вас все слухи и кулуарные разговоры, что сейчас ходят по сети. Говорят, те, кто уже успел “пощупать” GPT-5 хотя бы пару часов, были в полном шоке от её возможностей. Даже короткие тесты заставили многих реально пересмотреть своё отношение к AI.
Одно ясно, GPT-5 — это уже не просто чатбот. Это автономный AI агент, который сам управляет вашими делами, решает вопросы с банками, бронирует билеты и даже подписывает контракты. Всё без заранее заданных шаблонов, будто общаешься с живым человеком. Недавно OpenAI анонсировали агента, который берётся за задачи сам, без участия человека. Теперь понятно, что всё это была подготовка к запуску GPT-5.
По слухам, в одном университете, GPT-5 уже тайно протестировали как преподавателя: модель читала лекции, проверяла работы, принимала экзамены! И ни один студент из пилотной группы не заметил подмены. После раскрытия эксперимента многие не поверили, что всё это время общались только с AI.
В голосовом режиме GPT-5 начинает по-настоящему пугать. Модель не просто копирует голос и интонации, а различает малейшие эмоции, слышит стресс и неуверенность. Модель легко подстраивается под собеседника, может влиять на настроение, убеждать и даже тонко манипулировать, да так, что человек ничего не замечает.
Нашёл информацию о закрытом эксперименте в одной лабе (не понятно, как эти слухи прорываются наружу): GPT-5 дали доступ ко всем данным, и всего за пару часов модель не только обнаружила ошибки в расчетах, но и подсветила закономерности, на которые команда, по их словам, могла бы выйти только через годы.
Точно известно, что GPT-5 это гибридная модель, которая сама определяет, сколько вычислительных мощностей ей нужно для размышлений. В процессе решения сложных задач она может на лету подключать всё более мощные ресурсы и масштабировать вычисления до уровня, который раньше был недоступен ни одной системе (видимо стоит ждать повышение стоимости подписки?).
По утёкшей в сеть информации от одного из сотрудников OpenAI, ещё два месяца назад на закрытом тесте Сэм Альтман задал GPT-5 сложнейший философский вопрос. С тех пор модель всё ещё думает, постоянно увеличивает мощности для размышления, и никто не понимает, что она там высчитывает. Говорят, ответ на эту загадку команда планирует показать на презентации GPT-5 в августе. Надеюсь, что результат окажется не 42.
Похоже, что всё, к чему мы привыкли, просто начинает рушиться. Профессии, экспертность, авторитет — всё это уже не выглядит таким надёжным. Ощущение, что скоро вообще никто не будет уверен в завтрашнем дне.
И самое интересное. Этот пост написала модель gpt-4o. Просто представьте, что сможет выдумывать и написать GPT-5. Тут уже реально туши свет. Будет конец всему привычному.
1🤣88❤19🔥17👾6🤔2
На а если серьезно, то GPT-5 уже даже в Copilot от Microsoft замечена.
Интересно, это маркетинг такой или Microsoft снова как и с GPT-4, делает намеренный слив, чтобы быть первее OpenAI.
Какая у этого может быть цель? Или всё же неосторожность? Или там не GPT-5, а просто прогрев аудитории перед началом августа?
Интересно, это маркетинг такой или Microsoft снова как и с GPT-4, делает намеренный слив, чтобы быть первее OpenAI.
Какая у этого может быть цель? Или всё же неосторожность? Или там не GPT-5, а просто прогрев аудитории перед началом августа?
🔥10👍4👾1
Агент в ChatGPT спотыкается об капчи и ждёт, пока вы как кожаный нажмете вручную «I’m not a robot».
Это звучит так тупо и так странно, что даже и не знаю, что тут сказать.
Вот такой прогресс получается. Нам показывают бенчмарки, как модели выдают результаты умнее самых умных людей, а агенты автономно решают сложнейшие задачи, но такие анахронизмы как капчи останавливают вундервафлю от выполнения простейшей поставленной кожаным задачи.
Перемен! Мы требуем перемен! 😁
Это звучит так тупо и так странно, что даже и не знаю, что тут сказать.
Вот такой прогресс получается. Нам показывают бенчмарки, как модели выдают результаты умнее самых умных людей, а агенты автономно решают сложнейшие задачи, но такие анахронизмы как капчи останавливают вундервафлю от выполнения простейшей поставленной кожаным задачи.
Перемен! Мы требуем перемен! 😁
🤣22🔥17 8❤2👾1
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская компания Haier, та самая, что делает бытовую технику, представила домашнего робота-помощника по имени HIVA.
Роботы, демонстрирующие кунг-фу, мы уже видели. Красиво, но пользы не особо. А вот робот, который реально помогает по дому давно ожидаемая новинка. И кто, как не производитель стиралок, холодильников и пылесосов, должен был этим заняться?
У HIVA нет ног — он передвигается на колёсиках. Зато у него есть руки, и именно ими он занимается делами: убирает, готовит, гладит. Настоящий помощник по хозяйству.
Берём? Выглядит годно!
Роботы, демонстрирующие кунг-фу, мы уже видели. Красиво, но пользы не особо. А вот робот, который реально помогает по дому давно ожидаемая новинка. И кто, как не производитель стиралок, холодильников и пылесосов, должен был этим заняться?
У HIVA нет ног — он передвигается на колёсиках. Зато у него есть руки, и именно ими он занимается делами: убирает, готовит, гладит. Настоящий помощник по хозяйству.
Берём? Выглядит годно!
🔥21👍9❤2👾2🤣1
This media is not supported in your browser
VIEW IN TELEGRAM
Кажется, мы подходим к новой точке c роботами. Человекоподобные роботы, ещё недавно казавшиеся чем-то из далёкого будущего, вдруг стали… ну, почти достижимыми. Цены уже не в миллионах (цена на Unitree R1 от $6K). Cмотришь и думаешь: да, пока дорого, но это уже уровень “при желании можно”. А потом попадается видео: блогеры показывают, как у них дома бегает робот. Настоящий. С руками и “лицом”.
И вот ты сидишь, смотришь и ловишь себя на мысли: блин, тоже хочу, чтобы у меня такой же ходил дома, болтал с детьми, поднимал игрушки, чуть криво, может быть, но старательно и порой смешно. Веселить явно будет!
Кажется, пользы пока немного. Но с роботами-пылесосами было так же. Я долго скептически смотрел на них когда-то. Потом один знакомый купил, нахваливал. Потом второй. Потом третий. И я такой: может, и правда стоит попробовать? И купил и теперь это классный помощник по уборке.
С этими гуманоидными будет то же самое. Сначала хайп, потом первые счастливчики, потом привычка.
Тем более это уже не просто техника. Пылесосы ведь стали первыми бытовыми устройствами, которым дают имена. Никто же не зовёт мультиварку Валерой. А вот наш Томас – пожалуйста. Это уже другие отношения. Почти как с питомцем. И с домашними роботами будет то же самое.
Часто, кстати, слышу — “а зачем делать их человекоподобными? это же не самая удобная форма для роботов, не оптимальная конструкция”. Возможно, так. Но именно с человекоподобным проще общаться, психологически понятнее. Хотя да, встанешь ночью попить воды, а он стоит в темноте и таращит на тебя красные или синие глаза. И вроде бы просто ждёт, может помочь… а тебе уже кажется, что он решил тебя замочить 😅
Сейчас они простые, вероятно глючные, далеко от зарядки не убегут, делают мало полезного по дому, но если отматать на год назад, то сразу будет виден прогрес в их развитии и можно легко предположить, что уже через год мы продвинемся ещё дальше.. И всё пойдёт по знакомой траектории. Купил, обновления, новое поколение, умнее, стабильнее, полезнее.
Наступят времена (быстрее чем думается нам) и, кажется, не за горами когда и роботов будем обновлять как “айфоны”. Кто-то каждый год, если бюджет позволяет. Кто-то через два-три поколения. Но движемся мы именно туда. Сначала инфлюенсеры и те, у кого есть на это деньги. Потом друзья вокруг. Или вы сами часть этого хайпа и early adopters. А дальше все остальные. Привыкли, втянулись. Без него уже как-то не так. Как сейчас с роботами-пылесосами. Уходишь из дома со словами “Алиса, запусти Томаса”, возвращаешься, и либо чистота либо он где-то поймал кроссовок и зажевал шнурок и застрял😅 Неуклюжий! А вот был бы рядом человекоподобный робот, помог бы малышу распутаться 😃
И вот ты сидишь, смотришь и ловишь себя на мысли: блин, тоже хочу, чтобы у меня такой же ходил дома, болтал с детьми, поднимал игрушки, чуть криво, может быть, но старательно и порой смешно. Веселить явно будет!
Кажется, пользы пока немного. Но с роботами-пылесосами было так же. Я долго скептически смотрел на них когда-то. Потом один знакомый купил, нахваливал. Потом второй. Потом третий. И я такой: может, и правда стоит попробовать? И купил и теперь это классный помощник по уборке.
С этими гуманоидными будет то же самое. Сначала хайп, потом первые счастливчики, потом привычка.
Тем более это уже не просто техника. Пылесосы ведь стали первыми бытовыми устройствами, которым дают имена. Никто же не зовёт мультиварку Валерой. А вот наш Томас – пожалуйста. Это уже другие отношения. Почти как с питомцем. И с домашними роботами будет то же самое.
Часто, кстати, слышу — “а зачем делать их человекоподобными? это же не самая удобная форма для роботов, не оптимальная конструкция”. Возможно, так. Но именно с человекоподобным проще общаться, психологически понятнее. Хотя да, встанешь ночью попить воды, а он стоит в темноте и таращит на тебя красные или синие глаза. И вроде бы просто ждёт, может помочь… а тебе уже кажется, что он решил тебя замочить 😅
Сейчас они простые, вероятно глючные, далеко от зарядки не убегут, делают мало полезного по дому, но если отматать на год назад, то сразу будет виден прогрес в их развитии и можно легко предположить, что уже через год мы продвинемся ещё дальше.. И всё пойдёт по знакомой траектории. Купил, обновления, новое поколение, умнее, стабильнее, полезнее.
Наступят времена (быстрее чем думается нам) и, кажется, не за горами когда и роботов будем обновлять как “айфоны”. Кто-то каждый год, если бюджет позволяет. Кто-то через два-три поколения. Но движемся мы именно туда. Сначала инфлюенсеры и те, у кого есть на это деньги. Потом друзья вокруг. Или вы сами часть этого хайпа и early adopters. А дальше все остальные. Привыкли, втянулись. Без него уже как-то не так. Как сейчас с роботами-пылесосами. Уходишь из дома со словами “Алиса, запусти Томаса”, возвращаешься, и либо чистота либо он где-то поймал кроссовок и зажевал шнурок и застрял
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21🔥16🤣8❤6
Сэм Альтман: “Ваши чаты с ChatGPT не защищены”
В свежем подкасте с Тео Воном CEO OpenAI говорит вслух то, что давно витает в воздухе:
Люди всё чаще обсуждают с ChatGPT очень личные вещи — проблемы в отношениях, кризисы, депрессии. Особенно молодёжь.Но! В отличие от разговоров с врачом или психотерапевтом, тут нет никакой юридической конфиденциальности.
“Сейчас, если тебя вызовут в суд — мы обязаны будем отдать твои чаты”. — Сэм Альтман
Никто ещё пару лет назад не мог представить, что с ботом будут обсуждать не просто учёбу или рецепты, а разводы, панические атаки, токсичные отношения, конфликты с родителями, мысли о суициде. А теперь говорят. И много! Люди обращаются за советами о здоровье, обсуждают медицинские симптомы, юридические проблемы, делятся интимными историями, страхами, решениями об аборте, пытаются разобраться, как поступить в сложной ситуации. Для кого-то это лайф-коуч, для кого-то исповедальня.
Но пока всё, что вы сказали ИИ, может быть использовано против вас — потому что юридической защиты таких разговоров просто не существует.
У врача, юриста или психотерапевта твои слова под защитой. А у ChatGPT — нет. Даже если ты вывернул перед ним душу и рассказал самое личное — формально это просто текст, который могут потребовать в суде.
OpenAI уже бодается с судом в деле против The New York Times, где их требуют сохранять все чаты пользователей. Компания против, но пока формально защищены только пользователи Enterprise.
Альтман: “Разговоры с ИИ должны быть защищены так же, как с терапевтом. Но пока мы к этому не пришли”.
Пока это важный wake-up call для всех, кто делится личным с ИИ. Приватность — не встроенная опция.
В свежем подкасте с Тео Воном CEO OpenAI говорит вслух то, что давно витает в воздухе:
Люди всё чаще обсуждают с ChatGPT очень личные вещи — проблемы в отношениях, кризисы, депрессии. Особенно молодёжь.Но! В отличие от разговоров с врачом или психотерапевтом, тут нет никакой юридической конфиденциальности.
“Сейчас, если тебя вызовут в суд — мы обязаны будем отдать твои чаты”. — Сэм Альтман
Никто ещё пару лет назад не мог представить, что с ботом будут обсуждать не просто учёбу или рецепты, а разводы, панические атаки, токсичные отношения, конфликты с родителями, мысли о суициде. А теперь говорят. И много! Люди обращаются за советами о здоровье, обсуждают медицинские симптомы, юридические проблемы, делятся интимными историями, страхами, решениями об аборте, пытаются разобраться, как поступить в сложной ситуации. Для кого-то это лайф-коуч, для кого-то исповедальня.
Но пока всё, что вы сказали ИИ, может быть использовано против вас — потому что юридической защиты таких разговоров просто не существует.
У врача, юриста или психотерапевта твои слова под защитой. А у ChatGPT — нет. Даже если ты вывернул перед ним душу и рассказал самое личное — формально это просто текст, который могут потребовать в суде.
OpenAI уже бодается с судом в деле против The New York Times, где их требуют сохранять все чаты пользователей. Компания против, но пока формально защищены только пользователи Enterprise.
Альтман: “Разговоры с ИИ должны быть защищены так же, как с терапевтом. Но пока мы к этому не пришли”.
Пока это важный wake-up call для всех, кто делится личным с ИИ. Приватность — не встроенная опция.
👍34❤5🤣2
Anthropic вводит ограничения для самых активных пользователей Claude Code
Только я всерьёз собрался переходить на Claude Code, как компания Anthropic объявляет о новых лимитах. Компания вводит еженедельные ограничения на использование Claude, чтобы сдержать рост нагрузки и пресечь случаи нарушений — например, непрерывный запуск Claude Code 24/7 или перепродажу доступа.
Новые лимиты начнут действовать с 28 августа и затронут всех подписчиков тарифных планов: Pro ($20), Max ($100) и Max+ ($200).
Anthropic уточняет, что существующие лимиты (обновляющиеся каждые 5 часов) сохраняются. При этом добавляются две новые метрики, обновляющиеся раз в 7 дней:
– Общий недельный лимит использования.
– Отдельный лимит на продвинутую модель Claude Opus 4.
Подписчики Max-планов смогут при необходимости докупить дополнительное использование по стандартным API-тарифам.
Anthropic указывает следующие лимиты:
– Pro 40–80 часов Sonnet 4 в неделю
– Max ($100) 140–280 часов Sonnet 4 и 15–35 часов Opus 4
– Max+ ($200) 240–480 часов Sonnet 4 и 24–40 часов Opus 4
Компания уточняет, что реальный лимит может зависеть от размера кодовой базы и других факторов. Пока не ясно, как именно измеряется использование. При этом компания утверждает, что Max+ даёт в 20 раз больше ресурса, чем Pro, хотя приведённые цифры показывают скорее 6-кратное отличие.
Claude Code стал очень популярным среди разработчиков, и, похоже, Anthropic пока не справляется с масштабом спроса. Согласно статус-странице компании, инструмент испытывал частичные или серьёзные сбои как минимум 7 раз за последний месяц. Возможно, как раз из-за пользователей, гоняющих Claude Code без остановки.
“Claude Code испытывает беспрецедентный спрос с момента запуска” — заявила пресс-секретарь Anthropic Эми Ротерхэм. По её словам, “большинство пользователей не заметят изменений”, и лимиты затронут менее 5% подписчиков по текущим паттернам использования.
Также компания обещает, что в будущем появятся другие варианты для тех, кто работает в долгом или непрерывном режиме.
Похожую корректировку условий недавно провели и другие разработчики AI-кодеров: Cursor (Anysphere) пересмотрел правила и позже извинился за недостаточную прозрачность, Replit тоже изменил модель тарификации.
Рынок быстро перестраивается под растущий спрос, и похоже, это не последние изменения.
Только я всерьёз собрался переходить на Claude Code, как компания Anthropic объявляет о новых лимитах. Компания вводит еженедельные ограничения на использование Claude, чтобы сдержать рост нагрузки и пресечь случаи нарушений — например, непрерывный запуск Claude Code 24/7 или перепродажу доступа.
Новые лимиты начнут действовать с 28 августа и затронут всех подписчиков тарифных планов: Pro ($20), Max ($100) и Max+ ($200).
Anthropic уточняет, что существующие лимиты (обновляющиеся каждые 5 часов) сохраняются. При этом добавляются две новые метрики, обновляющиеся раз в 7 дней:
– Общий недельный лимит использования.
– Отдельный лимит на продвинутую модель Claude Opus 4.
Подписчики Max-планов смогут при необходимости докупить дополнительное использование по стандартным API-тарифам.
Anthropic указывает следующие лимиты:
– Pro 40–80 часов Sonnet 4 в неделю
– Max ($100) 140–280 часов Sonnet 4 и 15–35 часов Opus 4
– Max+ ($200) 240–480 часов Sonnet 4 и 24–40 часов Opus 4
Компания уточняет, что реальный лимит может зависеть от размера кодовой базы и других факторов. Пока не ясно, как именно измеряется использование. При этом компания утверждает, что Max+ даёт в 20 раз больше ресурса, чем Pro, хотя приведённые цифры показывают скорее 6-кратное отличие.
Claude Code стал очень популярным среди разработчиков, и, похоже, Anthropic пока не справляется с масштабом спроса. Согласно статус-странице компании, инструмент испытывал частичные или серьёзные сбои как минимум 7 раз за последний месяц. Возможно, как раз из-за пользователей, гоняющих Claude Code без остановки.
“Claude Code испытывает беспрецедентный спрос с момента запуска” — заявила пресс-секретарь Anthropic Эми Ротерхэм. По её словам, “большинство пользователей не заметят изменений”, и лимиты затронут менее 5% подписчиков по текущим паттернам использования.
Также компания обещает, что в будущем появятся другие варианты для тех, кто работает в долгом или непрерывном режиме.
Похожую корректировку условий недавно провели и другие разработчики AI-кодеров: Cursor (Anysphere) пересмотрел правила и позже извинился за недостаточную прозрачность, Replit тоже изменил модель тарификации.
Рынок быстро перестраивается под растущий спрос, и похоже, это не последние изменения.
2👾8❤5 3👍1🤣1
Суб-агенты в Claude Code
На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это как раз то обновление, которое мотивирует меня к переезду. Суб‑агенты это уже не просто фича, а смена подхода работы с агентами.
Суб‑агенты — это такие AI-узкие специалисты: ревью, тестирование, отладка, документация. У каждого своя инструкция, инструменты и изолированный контекст. Работают параллельно, не мешают друг другу. Настраиваются через CLI: задаёшь имя, специализацию, доступные инструменты, и он готов.
Чем отличаются от handoff‑агентов OpenAI
У OpenAI агенты работают по очереди: один закончил, передал следующему. Вся сессия передаётся целиком. А у Claude суб‑агенты запускаются одновременно: один пишет тесты, второй ревью, третий документацию. Контекст у каждого отдельный, как у настоящей команды.
Производительность и ресурсы
Да, суб‑агенты Claude расходуют больше токенов (40–50k на задачу), но дают 10–20x ускорение в сложных задачах. У OpenAI — экономнее, но медленно и строго последовательно.
Почему sub‑агенты — это сила?
— Всё можно запускать одновременно
— Каждый занимается своим делом
— Контекст не засоряется
— Масштабируются на десятки задач
— Могут спорить, сверяться, сравнивать решения
— Быстро проверяют гипотезы и прототипы
— Можно собрать команду под задачу прямо по ходу
Сценарии, где это раскрывается на полную
— Одновременно провести тестирование, код‑ревью и генерацию документации для новой фичи.
— Сценарии с перекрестной валидацией: QA‑агент пишет тесты, dev‑агент защищает решения, третий валидирует архитектуру.
— Масштабные проекты, где десятки подзадач должны выполняться параллельно. У каждого свой агент и свой контекст.
— Быстрое R&D: несколько суб‑агентов тестируют разные гипотезы одновременно, сравнивают результаты.
— Автоматическая сборка команды: аналитик, дизайнер, инженер, менеджер. Каждый получает свою роль, и всё работает синхронно.
— Интеграция и проверка сотен микросервисов параллельно, генерация документации и юнит‑тестов сразу для нескольких языков.
Почему это невозможно в OpenAI agents
Потому что у них всё по очереди. Один агент работает, остальным ждать. Контекст один, нельзя распараллелить, нельзя обсуждать между собой. Гибкой AI‑команды не получится, только ручная передача управления и контекста.
И это мощное развитие Claude Code для разработки (и не только)
Claude Code перестаёт быть просто умным ассистентом для разработки. Он становится командным лидом, который может собрать вокруг себя группу спецов и запустить параллельную работу.
Теперь можно поставить задачу и получить мнения, тесты, правки, аналитику. И главное одновременно! Это другой темп, другое качество и другой подход к тому, что вообще значит “работать с AI”.
Подробноее почитать о суб-агентах можно тут
На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это как раз то обновление, которое мотивирует меня к переезду. Суб‑агенты это уже не просто фича, а смена подхода работы с агентами.
Суб‑агенты — это такие AI-узкие специалисты: ревью, тестирование, отладка, документация. У каждого своя инструкция, инструменты и изолированный контекст. Работают параллельно, не мешают друг другу. Настраиваются через CLI: задаёшь имя, специализацию, доступные инструменты, и он готов.
Чем отличаются от handoff‑агентов OpenAI
У OpenAI агенты работают по очереди: один закончил, передал следующему. Вся сессия передаётся целиком. А у Claude суб‑агенты запускаются одновременно: один пишет тесты, второй ревью, третий документацию. Контекст у каждого отдельный, как у настоящей команды.
Производительность и ресурсы
Да, суб‑агенты Claude расходуют больше токенов (40–50k на задачу), но дают 10–20x ускорение в сложных задачах. У OpenAI — экономнее, но медленно и строго последовательно.
Почему sub‑агенты — это сила?
— Всё можно запускать одновременно
— Каждый занимается своим делом
— Контекст не засоряется
— Масштабируются на десятки задач
— Могут спорить, сверяться, сравнивать решения
— Быстро проверяют гипотезы и прототипы
— Можно собрать команду под задачу прямо по ходу
Сценарии, где это раскрывается на полную
— Одновременно провести тестирование, код‑ревью и генерацию документации для новой фичи.
— Сценарии с перекрестной валидацией: QA‑агент пишет тесты, dev‑агент защищает решения, третий валидирует архитектуру.
— Масштабные проекты, где десятки подзадач должны выполняться параллельно. У каждого свой агент и свой контекст.
— Быстрое R&D: несколько суб‑агентов тестируют разные гипотезы одновременно, сравнивают результаты.
— Автоматическая сборка команды: аналитик, дизайнер, инженер, менеджер. Каждый получает свою роль, и всё работает синхронно.
— Интеграция и проверка сотен микросервисов параллельно, генерация документации и юнит‑тестов сразу для нескольких языков.
Почему это невозможно в OpenAI agents
Потому что у них всё по очереди. Один агент работает, остальным ждать. Контекст один, нельзя распараллелить, нельзя обсуждать между собой. Гибкой AI‑команды не получится, только ручная передача управления и контекста.
И это мощное развитие Claude Code для разработки (и не только)
Claude Code перестаёт быть просто умным ассистентом для разработки. Он становится командным лидом, который может собрать вокруг себя группу спецов и запустить параллельную работу.
Теперь можно поставить задачу и получить мнения, тесты, правки, аналитику. И главное одновременно! Это другой темп, другое качество и другой подход к тому, что вообще значит “работать с AI”.
Подробноее почитать о суб-агентах можно тут
🔥16❤6👍3🤣1
В ChatGPT появился новый режим Think longer.
Доступен пока в веб версии. Режим заставляет модель тратить больше времени на размышления и строить более длинную цепочку рассуждений. По сути, это аналог параметра reasoning_effort=high, который раньше был доступен только через API.
Ответы становятся медленнее (в 2–3 раза), но заметно глубже и точнее. Особенно это ощущается на сложных задачах — код, аналитика, стратегия. В обычной версии o3 по умолчанию стоит средний уровень reasoning, а тут можно явно попросить «подумать как следует».
Первые тесты показывают: разница в качестве ощутимая. На Reddit и в Х пишут, что с включённым Think longer o3 почти догоняет o3-pro из подписки за $200.
Теперь и за $20 можно получить ответ, который раньше требовал куда более дорогого тарифа. Важное обновление, особенно если используешь GPT не ради болтовни.
Доступен пока в веб версии. Режим заставляет модель тратить больше времени на размышления и строить более длинную цепочку рассуждений. По сути, это аналог параметра reasoning_effort=high, который раньше был доступен только через API.
Ответы становятся медленнее (в 2–3 раза), но заметно глубже и точнее. Особенно это ощущается на сложных задачах — код, аналитика, стратегия. В обычной версии o3 по умолчанию стоит средний уровень reasoning, а тут можно явно попросить «подумать как следует».
Первые тесты показывают: разница в качестве ощутимая. На Reddit и в Х пишут, что с включённым Think longer o3 почти догоняет o3-pro из подписки за $200.
Теперь и за $20 можно получить ответ, который раньше требовал куда более дорогого тарифа. Важное обновление, особенно если используешь GPT не ради болтовни.
👍33🔥11❤5👾1
В Твиттере команда Cursor тестирует во всю gpt-5? Классно тизернули. Модель за размытием gpt-5 alpha?
🔥17🤣6❤4👾1
ИИволюция 👾
Суб-агенты в Claude Code На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это…
Полноценная команда, построенная в Claude Code на суб-агентах.
Каждое утро начинаем со стендап мита, правда «стою» только я один 😁
Дрим-тим?!
Каждое утро начинаем со стендап мита, правда «стою» только я один 😁
Дрим-тим?!
🔥21👍7❤3🤣1
Есть такая штука — SEO. Это когда ты ведешь условно-бесплатный трафик из поисковиков на сайт, сервис или блог.
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
#промо_пост
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
#промо_пост
IMG_9248.JPG
363 KB
Зоопарк моделей в ChatGPT продолжается?
В одном из последних обновлений приложения ChatGPT для Mac OS в коде обнаружили упоминание сразу двух моделей gpt-5:
– gpt-5-auto
– gpt-5-reasoning
Эх, а так хотелось не думать о выборе модели и чтобы она сама выбирала нужный режим.
Напомню, что релиз GPT-5, по слухам, запланирован в первой половине августа.
В одном из последних обновлений приложения ChatGPT для Mac OS в коде обнаружили упоминание сразу двух моделей gpt-5:
– gpt-5-auto
– gpt-5-reasoning
Эх, а так хотелось не думать о выборе модели и чтобы она сама выбирала нужный режим.
Напомню, что релиз GPT-5, по слухам, запланирован в первой половине августа.
👍9❤2🔥1👾1
Forwarded from Сиолошная
Лёд тронулся, господа — WIRED пишет, что Meta планирует позволить кандидатам использовать ИИ во время собеседований по программированию.
— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»
Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно —опытные программисты опасаются, что следующее поколение программистов будет больше склонна к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).
Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую
Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»
Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно —опытные программисты опасаются, что следующее поколение программистов будет больше склонна к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).
Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую
Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
👍15🔥5❤3🤣2👾2
Оказывается, чаты ChatGPT, которыми вы делились по ссылке, теперь индексируются в Google 😳
Достаточно вбить в поиск гугла, например:
site:chatgpt.com/share password
site:chatgpt.com/share api key
site:chatgpt.com/share secret
site:chatgpt.com/share internal
site:chatgpt.com/share confidential
site:chatgpt.com/share business plan
site:chatgpt.com/share [подставь нужныю фразу]
и открываются чужие чаты: с токенами, админками, идеями и личными откровениями (которыми кто-то поделился создав ссылку на чат)
Фишка в том, что если ты просто скопировал ссылку на чат, то он уже считается публичным. Получается, большая дыра в утечке информации пользователей. Сэм только недавно говорил, что ваши чаты не защищены перед законом и могут быть легко предоставлены по запросу. Но далеко ходить не нужно, поделился чатом, считай слил всю инфу в сеть.
❗️ Поэтому зайдите в настройки ChatGPT → удали публичные ссылки на чаты, в которых может быть важная информация.
UPD: после создания ссылки на чат, галочка сделать чат доступным для индексации всё же есть. Но странно, что в индексе у гугла огромное количество чатов. Надо бы провести тест и поискать свои чаты, хотя у меня их было мало и ничего секьюрного в них не было.
Достаточно вбить в поиск гугла, например:
site:chatgpt.com/share password
site:chatgpt.com/share api key
site:chatgpt.com/share secret
site:chatgpt.com/share internal
site:chatgpt.com/share confidential
site:chatgpt.com/share business plan
site:chatgpt.com/share [подставь нужныю фразу]
и открываются чужие чаты: с токенами, админками, идеями и личными откровениями (которыми кто-то поделился создав ссылку на чат)
Фишка в том, что если ты просто скопировал ссылку на чат, то он уже считается публичным. Получается, большая дыра в утечке информации пользователей. Сэм только недавно говорил, что ваши чаты не защищены перед законом и могут быть легко предоставлены по запросу. Но далеко ходить не нужно, поделился чатом, считай слил всю инфу в сеть.
❗️ Поэтому зайдите в настройки ChatGPT → удали публичные ссылки на чаты, в которых может быть важная информация.
UPD: после создания ссылки на чат, галочка сделать чат доступным для индексации всё же есть. Но странно, что в индексе у гугла огромное количество чатов. Надо бы провести тест и поискать свои чаты, хотя у меня их было мало и ничего секьюрного в них не было.
1❤14🤣9🔥6👍5🤔1