Anthropic вводит ограничения для самых активных пользователей Claude Code
Только я всерьёз собрался переходить на Claude Code, как компания Anthropic объявляет о новых лимитах. Компания вводит еженедельные ограничения на использование Claude, чтобы сдержать рост нагрузки и пресечь случаи нарушений — например, непрерывный запуск Claude Code 24/7 или перепродажу доступа.
Новые лимиты начнут действовать с 28 августа и затронут всех подписчиков тарифных планов: Pro ($20), Max ($100) и Max+ ($200).
Anthropic уточняет, что существующие лимиты (обновляющиеся каждые 5 часов) сохраняются. При этом добавляются две новые метрики, обновляющиеся раз в 7 дней:
– Общий недельный лимит использования.
– Отдельный лимит на продвинутую модель Claude Opus 4.
Подписчики Max-планов смогут при необходимости докупить дополнительное использование по стандартным API-тарифам.
Anthropic указывает следующие лимиты:
– Pro 40–80 часов Sonnet 4 в неделю
– Max ($100) 140–280 часов Sonnet 4 и 15–35 часов Opus 4
– Max+ ($200) 240–480 часов Sonnet 4 и 24–40 часов Opus 4
Компания уточняет, что реальный лимит может зависеть от размера кодовой базы и других факторов. Пока не ясно, как именно измеряется использование. При этом компания утверждает, что Max+ даёт в 20 раз больше ресурса, чем Pro, хотя приведённые цифры показывают скорее 6-кратное отличие.
Claude Code стал очень популярным среди разработчиков, и, похоже, Anthropic пока не справляется с масштабом спроса. Согласно статус-странице компании, инструмент испытывал частичные или серьёзные сбои как минимум 7 раз за последний месяц. Возможно, как раз из-за пользователей, гоняющих Claude Code без остановки.
“Claude Code испытывает беспрецедентный спрос с момента запуска” — заявила пресс-секретарь Anthropic Эми Ротерхэм. По её словам, “большинство пользователей не заметят изменений”, и лимиты затронут менее 5% подписчиков по текущим паттернам использования.
Также компания обещает, что в будущем появятся другие варианты для тех, кто работает в долгом или непрерывном режиме.
Похожую корректировку условий недавно провели и другие разработчики AI-кодеров: Cursor (Anysphere) пересмотрел правила и позже извинился за недостаточную прозрачность, Replit тоже изменил модель тарификации.
Рынок быстро перестраивается под растущий спрос, и похоже, это не последние изменения.
Только я всерьёз собрался переходить на Claude Code, как компания Anthropic объявляет о новых лимитах. Компания вводит еженедельные ограничения на использование Claude, чтобы сдержать рост нагрузки и пресечь случаи нарушений — например, непрерывный запуск Claude Code 24/7 или перепродажу доступа.
Новые лимиты начнут действовать с 28 августа и затронут всех подписчиков тарифных планов: Pro ($20), Max ($100) и Max+ ($200).
Anthropic уточняет, что существующие лимиты (обновляющиеся каждые 5 часов) сохраняются. При этом добавляются две новые метрики, обновляющиеся раз в 7 дней:
– Общий недельный лимит использования.
– Отдельный лимит на продвинутую модель Claude Opus 4.
Подписчики Max-планов смогут при необходимости докупить дополнительное использование по стандартным API-тарифам.
Anthropic указывает следующие лимиты:
– Pro 40–80 часов Sonnet 4 в неделю
– Max ($100) 140–280 часов Sonnet 4 и 15–35 часов Opus 4
– Max+ ($200) 240–480 часов Sonnet 4 и 24–40 часов Opus 4
Компания уточняет, что реальный лимит может зависеть от размера кодовой базы и других факторов. Пока не ясно, как именно измеряется использование. При этом компания утверждает, что Max+ даёт в 20 раз больше ресурса, чем Pro, хотя приведённые цифры показывают скорее 6-кратное отличие.
Claude Code стал очень популярным среди разработчиков, и, похоже, Anthropic пока не справляется с масштабом спроса. Согласно статус-странице компании, инструмент испытывал частичные или серьёзные сбои как минимум 7 раз за последний месяц. Возможно, как раз из-за пользователей, гоняющих Claude Code без остановки.
“Claude Code испытывает беспрецедентный спрос с момента запуска” — заявила пресс-секретарь Anthropic Эми Ротерхэм. По её словам, “большинство пользователей не заметят изменений”, и лимиты затронут менее 5% подписчиков по текущим паттернам использования.
Также компания обещает, что в будущем появятся другие варианты для тех, кто работает в долгом или непрерывном режиме.
Похожую корректировку условий недавно провели и другие разработчики AI-кодеров: Cursor (Anysphere) пересмотрел правила и позже извинился за недостаточную прозрачность, Replit тоже изменил модель тарификации.
Рынок быстро перестраивается под растущий спрос, и похоже, это не последние изменения.
2👾8❤5 3👍1🤣1
Суб-агенты в Claude Code
На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это как раз то обновление, которое мотивирует меня к переезду. Суб‑агенты это уже не просто фича, а смена подхода работы с агентами.
Суб‑агенты — это такие AI-узкие специалисты: ревью, тестирование, отладка, документация. У каждого своя инструкция, инструменты и изолированный контекст. Работают параллельно, не мешают друг другу. Настраиваются через CLI: задаёшь имя, специализацию, доступные инструменты, и он готов.
Чем отличаются от handoff‑агентов OpenAI
У OpenAI агенты работают по очереди: один закончил, передал следующему. Вся сессия передаётся целиком. А у Claude суб‑агенты запускаются одновременно: один пишет тесты, второй ревью, третий документацию. Контекст у каждого отдельный, как у настоящей команды.
Производительность и ресурсы
Да, суб‑агенты Claude расходуют больше токенов (40–50k на задачу), но дают 10–20x ускорение в сложных задачах. У OpenAI — экономнее, но медленно и строго последовательно.
Почему sub‑агенты — это сила?
— Всё можно запускать одновременно
— Каждый занимается своим делом
— Контекст не засоряется
— Масштабируются на десятки задач
— Могут спорить, сверяться, сравнивать решения
— Быстро проверяют гипотезы и прототипы
— Можно собрать команду под задачу прямо по ходу
Сценарии, где это раскрывается на полную
— Одновременно провести тестирование, код‑ревью и генерацию документации для новой фичи.
— Сценарии с перекрестной валидацией: QA‑агент пишет тесты, dev‑агент защищает решения, третий валидирует архитектуру.
— Масштабные проекты, где десятки подзадач должны выполняться параллельно. У каждого свой агент и свой контекст.
— Быстрое R&D: несколько суб‑агентов тестируют разные гипотезы одновременно, сравнивают результаты.
— Автоматическая сборка команды: аналитик, дизайнер, инженер, менеджер. Каждый получает свою роль, и всё работает синхронно.
— Интеграция и проверка сотен микросервисов параллельно, генерация документации и юнит‑тестов сразу для нескольких языков.
Почему это невозможно в OpenAI agents
Потому что у них всё по очереди. Один агент работает, остальным ждать. Контекст один, нельзя распараллелить, нельзя обсуждать между собой. Гибкой AI‑команды не получится, только ручная передача управления и контекста.
И это мощное развитие Claude Code для разработки (и не только)
Claude Code перестаёт быть просто умным ассистентом для разработки. Он становится командным лидом, который может собрать вокруг себя группу спецов и запустить параллельную работу.
Теперь можно поставить задачу и получить мнения, тесты, правки, аналитику. И главное одновременно! Это другой темп, другое качество и другой подход к тому, что вообще значит “работать с AI”.
Подробноее почитать о суб-агентах можно тут
На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это как раз то обновление, которое мотивирует меня к переезду. Суб‑агенты это уже не просто фича, а смена подхода работы с агентами.
Суб‑агенты — это такие AI-узкие специалисты: ревью, тестирование, отладка, документация. У каждого своя инструкция, инструменты и изолированный контекст. Работают параллельно, не мешают друг другу. Настраиваются через CLI: задаёшь имя, специализацию, доступные инструменты, и он готов.
Чем отличаются от handoff‑агентов OpenAI
У OpenAI агенты работают по очереди: один закончил, передал следующему. Вся сессия передаётся целиком. А у Claude суб‑агенты запускаются одновременно: один пишет тесты, второй ревью, третий документацию. Контекст у каждого отдельный, как у настоящей команды.
Производительность и ресурсы
Да, суб‑агенты Claude расходуют больше токенов (40–50k на задачу), но дают 10–20x ускорение в сложных задачах. У OpenAI — экономнее, но медленно и строго последовательно.
Почему sub‑агенты — это сила?
— Всё можно запускать одновременно
— Каждый занимается своим делом
— Контекст не засоряется
— Масштабируются на десятки задач
— Могут спорить, сверяться, сравнивать решения
— Быстро проверяют гипотезы и прототипы
— Можно собрать команду под задачу прямо по ходу
Сценарии, где это раскрывается на полную
— Одновременно провести тестирование, код‑ревью и генерацию документации для новой фичи.
— Сценарии с перекрестной валидацией: QA‑агент пишет тесты, dev‑агент защищает решения, третий валидирует архитектуру.
— Масштабные проекты, где десятки подзадач должны выполняться параллельно. У каждого свой агент и свой контекст.
— Быстрое R&D: несколько суб‑агентов тестируют разные гипотезы одновременно, сравнивают результаты.
— Автоматическая сборка команды: аналитик, дизайнер, инженер, менеджер. Каждый получает свою роль, и всё работает синхронно.
— Интеграция и проверка сотен микросервисов параллельно, генерация документации и юнит‑тестов сразу для нескольких языков.
Почему это невозможно в OpenAI agents
Потому что у них всё по очереди. Один агент работает, остальным ждать. Контекст один, нельзя распараллелить, нельзя обсуждать между собой. Гибкой AI‑команды не получится, только ручная передача управления и контекста.
И это мощное развитие Claude Code для разработки (и не только)
Claude Code перестаёт быть просто умным ассистентом для разработки. Он становится командным лидом, который может собрать вокруг себя группу спецов и запустить параллельную работу.
Теперь можно поставить задачу и получить мнения, тесты, правки, аналитику. И главное одновременно! Это другой темп, другое качество и другой подход к тому, что вообще значит “работать с AI”.
Подробноее почитать о суб-агентах можно тут
🔥16❤6👍3🤣1
В ChatGPT появился новый режим Think longer.
Доступен пока в веб версии. Режим заставляет модель тратить больше времени на размышления и строить более длинную цепочку рассуждений. По сути, это аналог параметра reasoning_effort=high, который раньше был доступен только через API.
Ответы становятся медленнее (в 2–3 раза), но заметно глубже и точнее. Особенно это ощущается на сложных задачах — код, аналитика, стратегия. В обычной версии o3 по умолчанию стоит средний уровень reasoning, а тут можно явно попросить «подумать как следует».
Первые тесты показывают: разница в качестве ощутимая. На Reddit и в Х пишут, что с включённым Think longer o3 почти догоняет o3-pro из подписки за $200.
Теперь и за $20 можно получить ответ, который раньше требовал куда более дорогого тарифа. Важное обновление, особенно если используешь GPT не ради болтовни.
Доступен пока в веб версии. Режим заставляет модель тратить больше времени на размышления и строить более длинную цепочку рассуждений. По сути, это аналог параметра reasoning_effort=high, который раньше был доступен только через API.
Ответы становятся медленнее (в 2–3 раза), но заметно глубже и точнее. Особенно это ощущается на сложных задачах — код, аналитика, стратегия. В обычной версии o3 по умолчанию стоит средний уровень reasoning, а тут можно явно попросить «подумать как следует».
Первые тесты показывают: разница в качестве ощутимая. На Reddit и в Х пишут, что с включённым Think longer o3 почти догоняет o3-pro из подписки за $200.
Теперь и за $20 можно получить ответ, который раньше требовал куда более дорогого тарифа. Важное обновление, особенно если используешь GPT не ради болтовни.
👍33🔥11❤5👾1
В Твиттере команда Cursor тестирует во всю gpt-5? Классно тизернули. Модель за размытием gpt-5 alpha?
🔥17🤣6❤4👾1
ИИволюция 👾
Суб-агенты в Claude Code На днях Anthropic выкатили в Claude Code sub‑agents (или суб‑агенты). Теперь вместо одного помощника ты собираешь целую AI‑команду, где каждый эксперт в своей теме. Я уже давно хочу перейти на Claude Code для разработки и вот это…
Полноценная команда, построенная в Claude Code на суб-агентах.
Каждое утро начинаем со стендап мита, правда «стою» только я один 😁
Дрим-тим?!
Каждое утро начинаем со стендап мита, правда «стою» только я один 😁
Дрим-тим?!
🔥21👍7❤3🤣1
Есть такая штука — SEO. Это когда ты ведешь условно-бесплатный трафик из поисковиков на сайт, сервис или блог.
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
#промо_пост
Причём она зачастую даёт лидов в 5-10 раз дешевле, чем по рекламе. А работать может годами, если один раз всё правильно настроить.
Но у 90% людей это вызывает панику, потому что вокруг сео много мутных типов и мифов. А нормальных сеошников можно буквально пересчитать по пальцам. И один из лучших в сфере — Антон Маркин.
Он уже 16 лет занимается SEO и публично продвигает сайты подписчиков, пошагово показывает все ошибки и делится только тем, что реально работает.
Антон даже полных новичков учит настраивать SEO так, что клиенты платят им за результат годами. А владельцы сайтов самостоятельно оптимизируют свои страницы и получают самый дешёвый целевой трафик.
В общем, если у вас свой сайт или вы начинающий сеошник и хотите быстро выйти на стабильные 100к в месяц — обязательно подпишитесь на Антона: @markin_seo
#промо_пост
IMG_9248.JPG
363 KB
Зоопарк моделей в ChatGPT продолжается?
В одном из последних обновлений приложения ChatGPT для Mac OS в коде обнаружили упоминание сразу двух моделей gpt-5:
– gpt-5-auto
– gpt-5-reasoning
Эх, а так хотелось не думать о выборе модели и чтобы она сама выбирала нужный режим.
Напомню, что релиз GPT-5, по слухам, запланирован в первой половине августа.
В одном из последних обновлений приложения ChatGPT для Mac OS в коде обнаружили упоминание сразу двух моделей gpt-5:
– gpt-5-auto
– gpt-5-reasoning
Эх, а так хотелось не думать о выборе модели и чтобы она сама выбирала нужный режим.
Напомню, что релиз GPT-5, по слухам, запланирован в первой половине августа.
👍9❤2🔥1👾1
Forwarded from Сиолошная
Лёд тронулся, господа — WIRED пишет, что Meta планирует позволить кандидатам использовать ИИ во время собеседований по программированию.
— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»
Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно —опытные программисты опасаются, что следующее поколение программистов будет больше склонна к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).
Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую
Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
— начать планируется не со всех должностей, требующих навыки программирования
— компания также предлагает существующим сотрудникам добровольно пройти «тренировочное собеседование с использованием ИИ-инструмента». Насколько я могу представить, это нужно для обкатки процесса, выявления лучших задач для интервью, лучших форматов, калибровки сложности, итд.
— представители компании заявили, что «это более соответствует среде разработки, в которой будут работать наши будущие сотрудники, а также делает мошенничество на собеседованиях менее эффективным»
Сам топик предоставления ИИ-инструментов для собеседований вызывает споры повсеместно. Оно и ясно —опытные программисты опасаются, что следующее поколение программистов будет больше склонна к «промптингу» и «вайбам», чем к непосредственно Software Engineering, и что они могут не знать, как устранять баги и проблемы в коде (который они же и сгенерировали).
Тут я на стороне прогресса — интервью точно должны измениться (привет, Cluely, и спасибо вам), и рад, что инициатива уже есть. В хорошие компании вне-FAANG собеседования уже несколько лет как ушли от «вот вам задача с литкода» к двум-трём более крутым, по моему мнению, типам:
— быстро разобраться в большом куске кода и сделать новую фичу
— найти и исправить баг(и) в предоставленном коде
— прочитать статью и имплементировать часть функционала / обсудить техническую составляющую
Все три гораздо ближе к той работе, которую приходится делать. При этом я прекрасно понимал, почему FAANG выбрал именно задачки на алгоритмы — им нужно масштабируемое решение с консистентной оценкой и минимумом субъективщины, да ещё и позволяющее оценить упорство в достижении цели. Я бы сказал, что это худший тип собеседований, если не считать всех других. Рад, что с приходом AI мы сможем подвинуть планочку поближе к real world tasks.
👍15🔥5❤3🤣2👾2
Оказывается, чаты ChatGPT, которыми вы делились по ссылке, теперь индексируются в Google 😳
Достаточно вбить в поиск гугла, например:
site:chatgpt.com/share password
site:chatgpt.com/share api key
site:chatgpt.com/share secret
site:chatgpt.com/share internal
site:chatgpt.com/share confidential
site:chatgpt.com/share business plan
site:chatgpt.com/share [подставь нужныю фразу]
и открываются чужие чаты: с токенами, админками, идеями и личными откровениями (которыми кто-то поделился создав ссылку на чат)
Фишка в том, что если ты просто скопировал ссылку на чат, то он уже считается публичным. Получается, большая дыра в утечке информации пользователей. Сэм только недавно говорил, что ваши чаты не защищены перед законом и могут быть легко предоставлены по запросу. Но далеко ходить не нужно, поделился чатом, считай слил всю инфу в сеть.
❗️ Поэтому зайдите в настройки ChatGPT → удали публичные ссылки на чаты, в которых может быть важная информация.
UPD: после создания ссылки на чат, галочка сделать чат доступным для индексации всё же есть. Но странно, что в индексе у гугла огромное количество чатов. Надо бы провести тест и поискать свои чаты, хотя у меня их было мало и ничего секьюрного в них не было.
Достаточно вбить в поиск гугла, например:
site:chatgpt.com/share password
site:chatgpt.com/share api key
site:chatgpt.com/share secret
site:chatgpt.com/share internal
site:chatgpt.com/share confidential
site:chatgpt.com/share business plan
site:chatgpt.com/share [подставь нужныю фразу]
и открываются чужие чаты: с токенами, админками, идеями и личными откровениями (которыми кто-то поделился создав ссылку на чат)
Фишка в том, что если ты просто скопировал ссылку на чат, то он уже считается публичным. Получается, большая дыра в утечке информации пользователей. Сэм только недавно говорил, что ваши чаты не защищены перед законом и могут быть легко предоставлены по запросу. Но далеко ходить не нужно, поделился чатом, считай слил всю инфу в сеть.
❗️ Поэтому зайдите в настройки ChatGPT → удали публичные ссылки на чаты, в которых может быть важная информация.
UPD: после создания ссылки на чат, галочка сделать чат доступным для индексации всё же есть. Но странно, что в индексе у гугла огромное количество чатов. Надо бы провести тест и поискать свои чаты, хотя у меня их было мало и ничего секьюрного в них не было.
1❤14🤣9🔥6👍5🤔1
GPT-5 обходит Claude в разработке
По слухам изнутри OpenAI: GPT‑5 рвёт Claude не только на бенчмарках, но и в реальной разработке
А ведь именно среди разработчиков у Claude был свой вайб, почти культ. Если GPT‑5 и тут лучше, Anthropic надо срочно отвечать.
GPT-5 ждём в начале августа. А Claude 5 где-то рядом?
По слухам изнутри OpenAI: GPT‑5 рвёт Claude не только на бенчмарках, но и в реальной разработке
А ведь именно среди разработчиков у Claude был свой вайб, почти культ. Если GPT‑5 и тут лучше, Anthropic надо срочно отвечать.
GPT-5 ждём в начале августа. А Claude 5 где-то рядом?
1🔥23❤1
Forwarded from Data Secrets
OpenAI избавились от фичи, которая делала чаты пользователей видимыми для поисковиков
На днях разразился настоящий скандал: выяснилось, что некоторые разговоры с ботом, которыми пользователи делились по ссылкам вроде как частным образом, становились видимыми для поисковых систем и начинали появляться в поисковой выдаче.
Как оказалось, это был не баг, а фича. Точнее, как пишет директор по инфобезу OpenAI, «краткосрочный эксперимент, призванный помочь пользователям находить полезные чаты».
То есть то, что некоторые зашаренные беседы были проиндексированы поисковиком – это не случайность: пользователи сами давали на это согласие, если во время создания ссылки на чат устанавливали флажок «Разрешить показывать в поиске».
Тем не менее, после шумихи в СМИ куча людей все равно остались недовольны и обвинили OpenAI. Потому что кто вообще читает эти флажки, правильно?
Короче, эксперимент не удался (хотя идея была неплохая, ведь в чатах часто действительно куча полезного контента). Теперь OpenAI откатывает фичу и начинает процесс по удалению из индексации всех уже провалившихся туда чатов.
Даже немного жаль.
На днях разразился настоящий скандал: выяснилось, что некоторые разговоры с ботом, которыми пользователи делились по ссылкам вроде как частным образом, становились видимыми для поисковых систем и начинали появляться в поисковой выдаче.
Как оказалось, это был не баг, а фича. Точнее, как пишет директор по инфобезу OpenAI, «краткосрочный эксперимент, призванный помочь пользователям находить полезные чаты».
То есть то, что некоторые зашаренные беседы были проиндексированы поисковиком – это не случайность: пользователи сами давали на это согласие, если во время создания ссылки на чат устанавливали флажок «Разрешить показывать в поиске».
Тем не менее, после шумихи в СМИ куча людей все равно остались недовольны и обвинили OpenAI. Потому что кто вообще читает эти флажки, правильно?
Короче, эксперимент не удался (хотя идея была неплохая, ведь в чатах часто действительно куча полезного контента). Теперь OpenAI откатывает фичу и начинает процесс по удалению из индексации всех уже провалившихся туда чатов.
Даже немного жаль.
2👍13🤣7🔥4
Сегодня уже 1 августа, лето убегает
Расскажите, над чем всё лето работали? Что на вайб-кодили? Какие пет проекты сделали/выпустили? Что интересного за 2 месяца случилось?
Пятница, а значит хочется немного оффтопа 😀
Расскажите, над чем всё лето работали? Что на вайб-кодили? Какие пет проекты сделали/выпустили? Что интересного за 2 месяца случилось?
Пятница, а значит хочется немного оффтопа 😀
❤7👾1
Gemini 2.5 Deep Think — возможно, самое мощное обновление от Google DeepMind за всё лето.
Google добавил в свою модель новый режим размышлений. По сути, это как если бы нейросеть перестала торопиться, начала рассматривать проблему с разных сторон, строить гипотезы, сравнивать варианты и только потом выдавать ответ. Взвешенное решение!
И, кажется, это отлично работает.
Результаты в тестах:
– AIME 2025 (математика) — 99.2%
– LiveCodeBench (кодинг) — 87.6%
– HLE — 34.8%
– IMO 2025 — 60.7% (это уже медаль по олимпиадным стандартам)
Главная фишка Deep Think — параллельное мышление. Модель одновременно «думает в нескольких направлениях»: пробует разные подходы, комбинирует, отбрасывает лишнее и в итоге приходит к лучшему варианту. Плюс в обучении применили reinforcement learning с наградой за длинные и глубокие размышления. Модель буквально учат думать не быстро, а правильно. Как в книге Канемана 😀
Один из тестов, моделям дали задачу: «Построй HTML-сцену с восточным храмом, деревьями и объемной структурой», — Gemini Flash выдал базу, Pro собрал что-то приличное, а Deep Think выдал полноценную, детализированную и логичную сцену.
Теперь остаётся ждать выхода GPT-5. Будет ли ответ достойным? Скоро узнаем.
Google добавил в свою модель новый режим размышлений. По сути, это как если бы нейросеть перестала торопиться, начала рассматривать проблему с разных сторон, строить гипотезы, сравнивать варианты и только потом выдавать ответ. Взвешенное решение!
И, кажется, это отлично работает.
Результаты в тестах:
– AIME 2025 (математика) — 99.2%
– LiveCodeBench (кодинг) — 87.6%
– HLE — 34.8%
– IMO 2025 — 60.7% (это уже медаль по олимпиадным стандартам)
Главная фишка Deep Think — параллельное мышление. Модель одновременно «думает в нескольких направлениях»: пробует разные подходы, комбинирует, отбрасывает лишнее и в итоге приходит к лучшему варианту. Плюс в обучении применили reinforcement learning с наградой за длинные и глубокие размышления. Модель буквально учат думать не быстро, а правильно. Как в книге Канемана 😀
Один из тестов, моделям дали задачу: «Построй HTML-сцену с восточным храмом, деревьями и объемной структурой», — Gemini Flash выдал базу, Pro собрал что-то приличное, а Deep Think выдал полноценную, детализированную и логичную сцену.
Теперь остаётся ждать выхода GPT-5. Будет ли ответ достойным? Скоро узнаем.
❤17👍8🔥3🤣3
This media is not supported in your browser
VIEW IN TELEGRAM
Как думаете, реальное видео или AI? 🤔
🤣45🔥4❤1👾1