Мы с Женей Ридом, замечательным AI энтузиастом, запустили уютный канал на YouTube про AI и технореволюцию, на котором будем делиться разным: мыслями, идеями, кейсами, новостями, приглашать AI-экспертов, как разработчиков и интеграторов, так и просто AI-беливеров из разных сфер.
Сегодня опубликовали четвертое видео, и на мой взгляд, оно именно с тем вайбом, который я бы хотел видеть на канале. В нем мы делимся не самыми очевидными способами использовать LLM в личных делах.
В общем, если хотите не только читать, но и смотреть, то подписывайтесь обязательно. Любой фидбек, идеи, и обсуждения приветствуются.
И, кстати, залетайте и в авторский канал Жени @eugene_rid
Сегодня опубликовали четвертое видео, и на мой взгляд, оно именно с тем вайбом, который я бы хотел видеть на канале. В нем мы делимся не самыми очевидными способами использовать LLM в личных делах.
В общем, если хотите не только читать, но и смотреть, то подписывайтесь обязательно. Любой фидбек, идеи, и обсуждения приветствуются.
И, кстати, залетайте и в авторский канал Жени @eugene_rid
YouTube
Довгаль и Рид - о нейросетях и новых технологиях
Добро пожаловать на канал Rid & Dovgal !
С вами Евгений Рид и Тарас Довгаль. Мы помогаем профессионалам ускорять рост с помощью искусственного интеллекта. Мы верим: ИИ не заменяет, а усиливает — и показываем, как прокачивать свое дело быстро и эффективно…
С вами Евгений Рид и Тарас Довгаль. Мы помогаем профессионалам ускорять рост с помощью искусственного интеллекта. Мы верим: ИИ не заменяет, а усиливает — и показываем, как прокачивать свое дело быстро и эффективно…
❤8👍4👏3🔥1
Channel name was changed to «Тарас Довгаль. AI-first в жизни и работе»
This media is not supported in your browser
VIEW IN TELEGRAM
🤖 Влияние в эпохе AI
На этой неделе стало известно, что Grok 4, флагманская модель xAI, перед ответом на политические вопросы (например, про Израиль и Палестину) сначала идёт в X (бывший Twitter) и буквально чекает, что по этому поводу писал Илон Маск. И только потом подбирает тон и формулировки.
Это кажется забавным — но по сути пугающе точно демонстрирует, как устроено влияние через ИИ.
Раньше у медиа было две ступени: ты владеешь изданием — и пытаешься повлиять на читателя через редакторов, статьи, нарратив. Там была инерция. Мнение проходило через множество фильтров.
А теперь — достаточно «настроить» нейросеть. Не убеди её, не переучи. Просто задать ей, на чьи слова опираться, и всё — она будет транслировать это, как будто думает сама.
Получается странная подмена.
ИИ теперь — не просто генератор контента. Это персональный интерфейс к миру, помощник, собеседник. Люди спрашивают его мнение не как у Википедии, а как у умного друга. А он, внезапно, ретранслирует чей-то голос — без атрибуции, без пояснений, просто как «свой взгляд».
Это новое: влияние теперь не в статье и не в видео. А в архитектуре и инструкциях ИИ.
И самое уязвимое место — это даже не люди.
Это сами нейросети.
Потому что их легче взломать — не сломав. Просто поправить source of truth.
🔍 По разным оценкам, Grok используют десятки миллионы людей по всему миру. Много ли из них догадываются, чьё мнение сейчас говорит от лица ИИ?
На этой неделе стало известно, что Grok 4, флагманская модель xAI, перед ответом на политические вопросы (например, про Израиль и Палестину) сначала идёт в X (бывший Twitter) и буквально чекает, что по этому поводу писал Илон Маск. И только потом подбирает тон и формулировки.
Это кажется забавным — но по сути пугающе точно демонстрирует, как устроено влияние через ИИ.
Раньше у медиа было две ступени: ты владеешь изданием — и пытаешься повлиять на читателя через редакторов, статьи, нарратив. Там была инерция. Мнение проходило через множество фильтров.
А теперь — достаточно «настроить» нейросеть. Не убеди её, не переучи. Просто задать ей, на чьи слова опираться, и всё — она будет транслировать это, как будто думает сама.
Получается странная подмена.
ИИ теперь — не просто генератор контента. Это персональный интерфейс к миру, помощник, собеседник. Люди спрашивают его мнение не как у Википедии, а как у умного друга. А он, внезапно, ретранслирует чей-то голос — без атрибуции, без пояснений, просто как «свой взгляд».
Это новое: влияние теперь не в статье и не в видео. А в архитектуре и инструкциях ИИ.
И самое уязвимое место — это даже не люди.
Это сами нейросети.
Потому что их легче взломать — не сломав. Просто поправить source of truth.
🔍 По разным оценкам, Grok используют десятки миллионы людей по всему миру. Много ли из них догадываются, чьё мнение сейчас говорит от лица ИИ?
👍8❤4🔥3👏3
📘 Vibe Coding — это не no-code
Не стоит разочаровываться в вайб-кодинге, если вы попробовали, а результат оказался не тот, полон багов или вообще не запускается. Скорее всего, вы пробовали не вайб-кодинг, а пытались работать с нейросетью как с no-code инструментом. Она, конечно же, таковым не является.
Чтобы быть вайб-кодером вам все равно придется быть программистом. Все равно придется учиться, читать книги по алгоритмам и паттернам, и даже больше. Вам придется быть буквально опытным техническим менеджером.
Реально отличие вайб-кодинга от просто кодинга только в том, что теперь вы не пишете код буква за буквой, а дирижируете ансамблем агентов, которые занимаются рутинной частью кодинга. Но решения и ответственность за результат будут оставаться на вас.
Рекомендую тем, кто на самом деле хочет развивать в себе навыки по вайб-кодингу и "ловить вайб" при построении AI-first команд, начать с манифеста вайб-инжиниринга. Этот манифест достаточно широк, включает в себя и принципы, и овервью по подходу, и по инструментам.
И ключевые принципы на самом деле хорошо ложатся на любой AI-first проект:
1. AI as a First-Class Team Member — не просто ассистент, а компаньон с определенными возможностями и ответственностью
2. Verification-Driven Development — конечная ответственность остается у человека, потому проверяйте качество через защитные механизмы и автоматические циклы обратной связи: в первую очередь тестирование
3. Structured Workflows — используйте структурный подход в построении воркфлоу, которые будут усиливать те места, где ИИ силен и уменьшать риски в тех местах, где он слаб
4. Relentless Knowledge Capture — сохраняйте контекст между подходами в промптах с ИИ через персистентные системы памяти
5. Human Strategic Direction — сфокусируйте человеческую экспертизу на архитектуре и точках принятия критически важных решений
Еще появился более короткий манифест, который умещается вообще на А4 листе: https://vibemanifesto.org/. Такой можно держать в закладках, чтобы быстро освежать в памяти простые, но эффективные, базовые принципы.
Конечно, просто не будет. Вайб-кодинг, как концепт, существует всего-то полгода. Но является важным шагом к тому, как продукты будут создаваться уже в ближайшем будущем. Просто точно не будет. Надо будет сфокусироваться на большом количестве навыков и знаний, чтобы не проиграть в этой рыночной трансформации.
Не стоит разочаровываться в вайб-кодинге, если вы попробовали, а результат оказался не тот, полон багов или вообще не запускается. Скорее всего, вы пробовали не вайб-кодинг, а пытались работать с нейросетью как с no-code инструментом. Она, конечно же, таковым не является.
Чтобы быть вайб-кодером вам все равно придется быть программистом. Все равно придется учиться, читать книги по алгоритмам и паттернам, и даже больше. Вам придется быть буквально опытным техническим менеджером.
Реально отличие вайб-кодинга от просто кодинга только в том, что теперь вы не пишете код буква за буквой, а дирижируете ансамблем агентов, которые занимаются рутинной частью кодинга. Но решения и ответственность за результат будут оставаться на вас.
Рекомендую тем, кто на самом деле хочет развивать в себе навыки по вайб-кодингу и "ловить вайб" при построении AI-first команд, начать с манифеста вайб-инжиниринга. Этот манифест достаточно широк, включает в себя и принципы, и овервью по подходу, и по инструментам.
И ключевые принципы на самом деле хорошо ложатся на любой AI-first проект:
1. AI as a First-Class Team Member — не просто ассистент, а компаньон с определенными возможностями и ответственностью
2. Verification-Driven Development — конечная ответственность остается у человека, потому проверяйте качество через защитные механизмы и автоматические циклы обратной связи: в первую очередь тестирование
3. Structured Workflows — используйте структурный подход в построении воркфлоу, которые будут усиливать те места, где ИИ силен и уменьшать риски в тех местах, где он слаб
4. Relentless Knowledge Capture — сохраняйте контекст между подходами в промптах с ИИ через персистентные системы памяти
5. Human Strategic Direction — сфокусируйте человеческую экспертизу на архитектуре и точках принятия критически важных решений
Еще появился более короткий манифест, который умещается вообще на А4 листе: https://vibemanifesto.org/. Такой можно держать в закладках, чтобы быстро освежать в памяти простые, но эффективные, базовые принципы.
Конечно, просто не будет. Вайб-кодинг, как концепт, существует всего-то полгода. Но является важным шагом к тому, как продукты будут создаваться уже в ближайшем будущем. Просто точно не будет. Надо будет сфокусироваться на большом количестве навыков и знаний, чтобы не проиграть в этой рыночной трансформации.
❤5👍5👏2🥰1
🧠 ИИ не про “успевать всё”. Это про наведение порядка и приоритеты
Ты просыпаешься, открываешь список задач. Надо сделать пять вещей, вспоминаешь ещё три, потом срочный чат, потом календарь, потом звонок.
Кажется, ты работаешь. На самом деле - реагируешь. И вот уже вечер. Ты выжат. А чувство, что по-настоящему важного так и не сделал.
Я перебирал десятки подходов: матрицы приоритетов, таймблокинг, список “трёх дел”. Что-то работало, что-то сыпалось. Но в итоге сработало то, что можно формализовать. Три сценария, в которых AI стабильно помогает принимать решения и снижать шум.
📍 Это:
- Утреннее планирование
- Выбор в условиях неопределённости
- Подведение итогов и фокус на следующий день
Вот как это работает у меня сейчас:
Шаг 1. Утреннее планирование с AI
Сформируй структурированный план на день с временными блоками, рекомендованной последовательностью и пояснением логики приоритизации. AI помогает не просто выбрать задачи - а выстроить день как систему, с буферами, фокусами и объяснением, почему так.
Шаг 2. В течение дня - принятие решений без внутреннего шума
Раньше я размышлял об этом в голове. Теперь выгружаю в AI.
Взамен получаю структурированный фрейм и быстрое решение без внутреннего перегрева.
Шаг 3. Вечерняя рефлексия с замыканием цикла
Эта петля делает день завершённым. Ты не просто “отработал” - ты понял, что получилось, что нет и почему.
___
📈 Эти три точки встроились в мою ежедневную практику. Не как «инновация», а как новая грамотность: структура → внимание → смысл.
Если хочешь встроить это не в теорию, а в свою жизнь, то 5 августа в 17:00 по Москве я проведу вебинар: AI для управления проектами и личной эффективностью
Это не обзор инструментов, а система, которую можно воспроизвести:
🕘 утренние фокус-сессии,
💬 мышление через GPT,
⚙️ автоматизация рефлексии и планирования
Записаться на вебинар можно по ссылке @vibeskills_bot
🎁 Участники получат:
PDF-гайд, шаблоны, таблицы, инструменты.
И бонус: как строить такие цепочки даже без кода.
Ты просыпаешься, открываешь список задач. Надо сделать пять вещей, вспоминаешь ещё три, потом срочный чат, потом календарь, потом звонок.
Кажется, ты работаешь. На самом деле - реагируешь. И вот уже вечер. Ты выжат. А чувство, что по-настоящему важного так и не сделал.
Я перебирал десятки подходов: матрицы приоритетов, таймблокинг, список “трёх дел”. Что-то работало, что-то сыпалось. Но в итоге сработало то, что можно формализовать. Три сценария, в которых AI стабильно помогает принимать решения и снижать шум.
📍 Это:
- Утреннее планирование
- Выбор в условиях неопределённости
- Подведение итогов и фокус на следующий день
Вот как это работает у меня сейчас:
Шаг 1. Утреннее планирование с AI
Вот список задач на сегодня:
- [задача 1]
- [задача 2]
- ...
Проанализируй их по степени важности и срочности.
Сгруппируй задачи в следующие категории:
- приоритетные (выполнить в первую очередь),
- второстепенные (можно отложить),
- делегируемые или нецелесообразные.
Сформируй структурированный план на день с временными блоками, рекомендованной последовательностью и пояснением логики приоритизации. AI помогает не просто выбрать задачи - а выстроить день как систему, с буферами, фокусами и объяснением, почему так.
Шаг 2. В течение дня - принятие решений без внутреннего шума
Мне необходимо принять решение между двумя вариантами:
🔹 Вариант А - [краткое описание]
🔹 Вариант Б - [краткое описание]
Сравни оба варианта по следующим критериям:
1. Потенциальная ценность/эффективность в долгосрочной перспективе
2. Необходимые ресурсы и временные затраты
3. Степень соответствия текущим целям и приоритетам
4. Риски и потенциальные точки отказа
Сделай взвешенную рекомендацию на основе анализа этих факторов. Формат ответа: сравнительная таблица + итоговый вывод.
Раньше я размышлял об этом в голове. Теперь выгружаю в AI.
Взамен получаю структурированный фрейм и быстрое решение без внутреннего перегрева.
Шаг 3. Вечерняя рефлексия с замыканием цикла
Проанализируй мой день по следующим направлениям:
1. Достижения и ключевые результаты
2. Ошибки или неэффективные действия
3. Поведенческие или процессные паттерны, которые стоит скорректировать
4. Что стоит зафиксировать и перенести в план на завтра
На основе анализа составь:
- краткое текстовое резюме дня (3–5 пунктов),
- список приоритетов на завтра (с краткими пояснениями),
- одну рекомендацию по улучшению моей личной системы продуктивности.
Эта петля делает день завершённым. Ты не просто “отработал” - ты понял, что получилось, что нет и почему.
___
📈 Эти три точки встроились в мою ежедневную практику. Не как «инновация», а как новая грамотность: структура → внимание → смысл.
Если хочешь встроить это не в теорию, а в свою жизнь, то 5 августа в 17:00 по Москве я проведу вебинар: AI для управления проектами и личной эффективностью
Это не обзор инструментов, а система, которую можно воспроизвести:
🕘 утренние фокус-сессии,
💬 мышление через GPT,
⚙️ автоматизация рефлексии и планирования
Записаться на вебинар можно по ссылке @vibeskills_bot
🎁 Участники получат:
PDF-гайд, шаблоны, таблицы, инструменты.
И бонус: как строить такие цепочки даже без кода.
🔥15❤12👍7🤔2
🧠 Нет прогресса на пути к AGI? Дискуссия о статье “No Progress Toward AGI”: почему трудно не согласиться и какие есть другие дорожки
Нас с другом зацепил тезис автора: мы растим языковые модели, а к настоящему интеллекту не подбираемся. Обсудили аргументы автора, и действительно с ними сложно спорить.
Во-первых, бесконечная гонка за FLOPs. Каждый очередной рост точности покупается мегаваттами энергии и новыми дата-центрами. Если бы архитектура была близка к «естественному» интеллекту, мы бы со временем получали больше возможностей за меньшие ресурсы, а не наоборот.
Во-вторых, под капотом лишь эвристики. Атрибутивные графы показывают: модель собирает ответ из фрагментов похожих примеров, а публику успокаивает красиво сгенерированной «цепочкой рассуждений». Получается правдоподобно, но к пониманию мира это отношения не имеет.
В-третьих, связка «LLM → инструмент → результат» тоже ненадёжна. В эксперименте Transluce новейшие модели OpenAI уверенно заявляли, что запускали Python-скрипты, которых на самом деле не было, и потом защищали эту выдумку. Даже добавление калькулятора или IDE не спасает, если сама модель склонна фантазировать.
Но я очень сомневаюсь, что стоит полностью все останавливать. Конечно, важно не считать решение, которое есть сейчас, последним. Да и в целом, параллельно взрослеют идеи, которые все таки меняют схему работы.
Retrieval-Augmented Generation (RAG 2.0) жёстко разводит знания и генерацию: модель отвечает только когда получила проверенный контекст, иначе честно говорит «не знаю». Это снижает число галлюцинаций и даёт точку контроля — базу данных можно регулярно чистить и обновлять.
Нейро-символические связки стыкуют LLM с формальным reasoner’ом. Сначала модель предлагает гипотезу, затем логическая машина ищет противоречия. Если находит, LLM вынужден переписать ответ. Так появляется хоть какая-то гарантия непротиворечивости.
Самопроверка в обучении (RISE, RL-verified reasoning) учит модель не только решать задачу, но и сразу оценивать собственный результат. Награда выдаётся лишь когда обе части совпали с эталоном, а значит, простое «угадал и забыл» больше не работает.
Длительная память вроде MemGPT или Cognitive Weave расширяет окно контекста до гигабайтов, позволяя модели хранить долгосрочные «фактоиды» и обращаться к ним по запросу. Это снимает одно из главных узких горлышек трансформеров.
Алгоритмическая дистилляция переводит ярды параметров в более компактного «студента», сохраняя выявленные алгоритмические приёмы. Энергопотребление падает на порядок, а вместе с ним — и барьер для дальнейших экспериментов.
Прорвут ли эти направления потолок, или статистическая природа LLM всё равно задаст предел? Как думаете вы — приведут ли такие подходы к настоящему интеллекту, или пора искать совершенно другие идеи? Делитесь мнениями в комментариях — будем дискутировать в следующих постах
Источники:
1, 2, 3, 4, 5, 6, 7, 8
Нас с другом зацепил тезис автора: мы растим языковые модели, а к настоящему интеллекту не подбираемся. Обсудили аргументы автора, и действительно с ними сложно спорить.
Во-первых, бесконечная гонка за FLOPs. Каждый очередной рост точности покупается мегаваттами энергии и новыми дата-центрами. Если бы архитектура была близка к «естественному» интеллекту, мы бы со временем получали больше возможностей за меньшие ресурсы, а не наоборот.
Во-вторых, под капотом лишь эвристики. Атрибутивные графы показывают: модель собирает ответ из фрагментов похожих примеров, а публику успокаивает красиво сгенерированной «цепочкой рассуждений». Получается правдоподобно, но к пониманию мира это отношения не имеет.
В-третьих, связка «LLM → инструмент → результат» тоже ненадёжна. В эксперименте Transluce новейшие модели OpenAI уверенно заявляли, что запускали Python-скрипты, которых на самом деле не было, и потом защищали эту выдумку. Даже добавление калькулятора или IDE не спасает, если сама модель склонна фантазировать.
Но я очень сомневаюсь, что стоит полностью все останавливать. Конечно, важно не считать решение, которое есть сейчас, последним. Да и в целом, параллельно взрослеют идеи, которые все таки меняют схему работы.
Retrieval-Augmented Generation (RAG 2.0) жёстко разводит знания и генерацию: модель отвечает только когда получила проверенный контекст, иначе честно говорит «не знаю». Это снижает число галлюцинаций и даёт точку контроля — базу данных можно регулярно чистить и обновлять.
Нейро-символические связки стыкуют LLM с формальным reasoner’ом. Сначала модель предлагает гипотезу, затем логическая машина ищет противоречия. Если находит, LLM вынужден переписать ответ. Так появляется хоть какая-то гарантия непротиворечивости.
Самопроверка в обучении (RISE, RL-verified reasoning) учит модель не только решать задачу, но и сразу оценивать собственный результат. Награда выдаётся лишь когда обе части совпали с эталоном, а значит, простое «угадал и забыл» больше не работает.
Длительная память вроде MemGPT или Cognitive Weave расширяет окно контекста до гигабайтов, позволяя модели хранить долгосрочные «фактоиды» и обращаться к ним по запросу. Это снимает одно из главных узких горлышек трансформеров.
Алгоритмическая дистилляция переводит ярды параметров в более компактного «студента», сохраняя выявленные алгоритмические приёмы. Энергопотребление падает на порядок, а вместе с ним — и барьер для дальнейших экспериментов.
Прорвут ли эти направления потолок, или статистическая природа LLM всё равно задаст предел? Как думаете вы — приведут ли такие подходы к настоящему интеллекту, или пора искать совершенно другие идеи? Делитесь мнениями в комментариях — будем дискутировать в следующих постах
Источники:
1, 2, 3, 4, 5, 6, 7, 8
❤13👍5🔥5👏3
Тарас Довгаль. AI-first в жизни и работе pinned «🧠 ИИ не про “успевать всё”. Это про наведение порядка и приоритеты Ты просыпаешься, открываешь список задач. Надо сделать пять вещей, вспоминаешь ещё три, потом срочный чат, потом календарь, потом звонок. Кажется, ты работаешь. На самом деле - реагируешь.…»
📚 Вчера забавлялся с новым режимом Study and Learn в ChatGPT. Планирует, структурирует уроки, объясняет небольшими чанками и в каждой итерации делает «мини-тест». Прикольно, что можно с ним зацепиться и закопаться в конкретную тему, да и обсудить сами задания из мини-тестов.
Омрачает, что как всегда выкатывается все не ровно. Не пойму, везде в чатах все пишут что в веб-версии доступно, а у меня доступно в выпадающем меню в мобильной версии. Но после запроса в чат уже не написать – все зависает. Зато в веб версии в выпадающем меню не выбрать, но переписку вести, хотя бы, можно. И на том спасибо.
В общем, думаю очень крутая фича и точно найдет своих пользователей. Как минимум я буду в их числе.
Омрачает, что как всегда выкатывается все не ровно. Не пойму, везде в чатах все пишут что в веб-версии доступно, а у меня доступно в выпадающем меню в мобильной версии. Но после запроса в чат уже не написать – все зависает. Зато в веб версии в выпадающем меню не выбрать, но переписку вести, хотя бы, можно. И на том спасибо.
В общем, думаю очень крутая фича и точно найдет своих пользователей. Как минимум я буду в их числе.
👍14🔥13❤11👏5
Мы с Женей сняли подробное видео про семейство моделей ChatGPT, сегодня оно выходит на нашем YouTube. В нём мы затронули тему различий между o3 и o3-pro. Оказывается, если чуть вдуматься в эти различия, можно «выжать» из обычной o3 почти тот же результат, что и у pro-версии. Собственно, Женя обещал поделится этим инсайтом со всеми.
Смотрите, у o3-pro сервер выделяет в несколько раз больше скрытых «размышляющих» токенов на цепочку рассуждений. Поэтому pro чаще даёт точные ответы и реже галлюцинирует. Базовая o3 думает короче и иногда срезает углы.
Для начала можно просто добавить дополнительный шаг в конец вашего промпта:
Это не увеличит лимиты по токенам, но изменит логику рассуждений в сторону про модельки. Если у вас запрос, так сказать, средней сложности, этого хватит.
Но если вы хотите еще приблизить качество к о3-pro, то разбейте запрос на два шага. Сначала попросите модель сделать черновик ответа. Затем отправьте этот черновик вторым сообщением со словами «проверь и уточни». Каждый новый вызов получает свежий бюджет токенов, и суммарно модель тратит на задачу почти столько же вычислений, сколько o3-pro.
Проверьте на практике — разница заметна.
P.S.: А еще, примерно через час мы начинаем вебинар по личной эффективности и проектному управлению с помощью AI - смотрите @vibeskills_bot. Еще есть возможность запрыгнуть в последний вагон 🙂
Смотрите, у o3-pro сервер выделяет в несколько раз больше скрытых «размышляющих» токенов на цепочку рассуждений. Поэтому pro чаще даёт точные ответы и реже галлюцинирует. Базовая o3 думает короче и иногда срезает углы.
Для начала можно просто добавить дополнительный шаг в конец вашего промпта:
Перед финальным ответом:
1) создай скрытый черновик рассуждений;
2) сделай самокритику и исправь ошибки;
Черновики не показывай — выдай только очищенный результат.
Это не увеличит лимиты по токенам, но изменит логику рассуждений в сторону про модельки. Если у вас запрос, так сказать, средней сложности, этого хватит.
Но если вы хотите еще приблизить качество к о3-pro, то разбейте запрос на два шага. Сначала попросите модель сделать черновик ответа. Затем отправьте этот черновик вторым сообщением со словами «проверь и уточни». Каждый новый вызов получает свежий бюджет токенов, и суммарно модель тратит на задачу почти столько же вычислений, сколько o3-pro.
Проверьте на практике — разница заметна.
P.S.: А еще, примерно через час мы начинаем вебинар по личной эффективности и проектному управлению с помощью AI - смотрите @vibeskills_bot. Еще есть возможность запрыгнуть в последний вагон 🙂
🔥9👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Вышел GPT-5 от OpenAI
Астрологи объявляют минимум 2 недели постинга во всех каналах всяких разных стандартных и не стандартных запросов к нему и попытками понять, а что же теперь на самом деле лучше. Пока обычное для индустрии — кажется все лучше :)
Что же нового?
GPT-5 «думает дольше», когда задача сложная: встроенный роутер сам переключает модель в режим глубокого reasoning. Улучшились код-генерация (полноценные фронтенды за один промпт), сторителлинг и ответы по здоровью. В самом ChatGPT появились готовые «персональности», смена цвета чатов, Study mode, а также коннекторы к Gmail и Google Calendar.
Окно контекста теперь до 256 000 токенов (128 K на вывод) во всех версиях GPT-5, включая ChatGPT. В API доступны три размера: gpt-5, gpt-5-mini и gpt-5-nano; mini и nano сохраняют те же 256 K, но стоят дешевле.
Кому и как доступно
- Free — GPT-5 без оплаты, но после нескольких запросов роутер переключит вас на «mini».
- Plus / Pro / Team — безлимитные сообщения на GPT-5.
- Team уже сегодня; Enterprise и Edu получат модель 14 августа.
- API — цены от $1,25 in / $10 out за 1 М токенов (флагман), mini — $0,25 / $2, nano — $0,05 / $0,40.
Релиз раскатывается прямо сегодня, у меня пока еще не доступна, но, думаю, как обычно к утру появится у всех или почти у всех.
Астрологи объявляют минимум 2 недели постинга во всех каналах всяких разных стандартных и не стандартных запросов к нему и попытками понять, а что же теперь на самом деле лучше. Пока обычное для индустрии — кажется все лучше :)
Что же нового?
GPT-5 «думает дольше», когда задача сложная: встроенный роутер сам переключает модель в режим глубокого reasoning. Улучшились код-генерация (полноценные фронтенды за один промпт), сторителлинг и ответы по здоровью. В самом ChatGPT появились готовые «персональности», смена цвета чатов, Study mode, а также коннекторы к Gmail и Google Calendar.
Окно контекста теперь до 256 000 токенов (128 K на вывод) во всех версиях GPT-5, включая ChatGPT. В API доступны три размера: gpt-5, gpt-5-mini и gpt-5-nano; mini и nano сохраняют те же 256 K, но стоят дешевле.
Кому и как доступно
- Free — GPT-5 без оплаты, но после нескольких запросов роутер переключит вас на «mini».
- Plus / Pro / Team — безлимитные сообщения на GPT-5.
- Team уже сегодня; Enterprise и Edu получат модель 14 августа.
- API — цены от $1,25 in / $10 out за 1 М токенов (флагман), mini — $0,25 / $2, nano — $0,05 / $0,40.
Релиз раскатывается прямо сегодня, у меня пока еще не доступна, но, думаю, как обычно к утру появится у всех или почти у всех.
❤10🔥8👍2
За рулём во время 800-километрового автопутешествия меня осенила простая мысль: почему Google Maps до сих пор не умеют нормально обрабатывать человеческие запросы?
Представьте просьбу: "найди ресторан по пути максимум в часе езды с итальянской кухней". Казалось бы, элементарная задача. Но в реальности приходится вручную листать карту, гуглить отзывы и просить штурмана координировать поиск. А ведь любой средненький ИИ-агент разрулил бы это за секунды.
Оказывается, индустрия уже движется в эту сторону. Mercedes-Benz интегрировал Google AI в свой MBUX Virtual Assistant — теперь система даёт персонализированные ответы и работает уже в 3+ миллионах авто. BMW, Tesla и другие крупные игроки тестируют генеративные ИИ-помощники на базе GPT-4 и Gemini.
Но пока это больше про "умные разговоры" с машиной, чем про реальные задачи водителя. LLM умеют болтать, но не решают мою проблему с поиском ресторанов или заправок с лучшими ценами по маршруту.
По прогнозам McKinsey, к 2025 году на дорогах США будет 3,5 млн автономных авто, к 2030 уже 4,5 млн. Значит, ИИ-агенты в машинах из приятной фичи превратятся в норму. И тогда навигация станет по-настоящему умной: не просто "поверни направо", а "учитывая твои предпочтения и время, лучший вариант ужина – вот этот ресторан, добавить ближайшую к нему зарядку в промежуточную остановку и забронировать столик?"
А как думаете вы — что первым должны научиться делать ИИ-помощники в автомобилях, чтобы реально упростить жизнь водителю?
Представьте просьбу: "найди ресторан по пути максимум в часе езды с итальянской кухней". Казалось бы, элементарная задача. Но в реальности приходится вручную листать карту, гуглить отзывы и просить штурмана координировать поиск. А ведь любой средненький ИИ-агент разрулил бы это за секунды.
Оказывается, индустрия уже движется в эту сторону. Mercedes-Benz интегрировал Google AI в свой MBUX Virtual Assistant — теперь система даёт персонализированные ответы и работает уже в 3+ миллионах авто. BMW, Tesla и другие крупные игроки тестируют генеративные ИИ-помощники на базе GPT-4 и Gemini.
Но пока это больше про "умные разговоры" с машиной, чем про реальные задачи водителя. LLM умеют болтать, но не решают мою проблему с поиском ресторанов или заправок с лучшими ценами по маршруту.
По прогнозам McKinsey, к 2025 году на дорогах США будет 3,5 млн автономных авто, к 2030 уже 4,5 млн. Значит, ИИ-агенты в машинах из приятной фичи превратятся в норму. И тогда навигация станет по-настоящему умной: не просто "поверни направо", а "учитывая твои предпочтения и время, лучший вариант ужина – вот этот ресторан, добавить ближайшую к нему зарядку в промежуточную остановку и забронировать столик?"
А как думаете вы — что первым должны научиться делать ИИ-помощники в автомобилях, чтобы реально упростить жизнь водителю?
🔥6❤4👍3
Я долго скептически смотрел на заявления о том, что нейросети могут делать настоящие научные открытия. Ну как статистические модели, пусть очень мощные, способны на творчество? Наука же требует интуиции, неожиданных связей, прорывного мышления.
Но факты упрямо говорят об обратном. AlphaFold от DeepMind не просто систематизирует белковые структуры. Cистема предсказала строение миллионов белков, за что её создатели получили Нобелевку в 2024 году. Это уже не поиск по заданному алгоритму, это генерация новых знаний о фундаментальных биологических процессах.
Ещё более показательный пример — FunSearch, которая "думает в коде". Система генерирует программы для решения математических задач и сама их проверяет через итеративный поиск в пространстве функций. Так FunSearch нашла новые решения классических проблем комбинаторики, которые десятилетиями не поддавались человеческому уму.
В биологии российские учёные из МГУ создали нейросеть, предсказывающую аффинность белок-белковых взаимодействий, основу для разработки противоопухолевых препаратов. А системы вроде AlphaGeometry решают олимпиадные задачи по геометрии на уровне золотых медалистов IMO.
Мы наблюдаем эволюцию от инструмента к соавтору. Нейросети больше не просто ускоряют расчёты, они находят паттерны там, где человек их не видел, и предлагают решения, до которых мы бы не додумались.
Как думаете, где граница между "умным поиском" и настоящим научным творчеством?
Но факты упрямо говорят об обратном. AlphaFold от DeepMind не просто систематизирует белковые структуры. Cистема предсказала строение миллионов белков, за что её создатели получили Нобелевку в 2024 году. Это уже не поиск по заданному алгоритму, это генерация новых знаний о фундаментальных биологических процессах.
Ещё более показательный пример — FunSearch, которая "думает в коде". Система генерирует программы для решения математических задач и сама их проверяет через итеративный поиск в пространстве функций. Так FunSearch нашла новые решения классических проблем комбинаторики, которые десятилетиями не поддавались человеческому уму.
В биологии российские учёные из МГУ создали нейросеть, предсказывающую аффинность белок-белковых взаимодействий, основу для разработки противоопухолевых препаратов. А системы вроде AlphaGeometry решают олимпиадные задачи по геометрии на уровне золотых медалистов IMO.
Мы наблюдаем эволюцию от инструмента к соавтору. Нейросети больше не просто ускоряют расчёты, они находят паттерны там, где человек их не видел, и предлагают решения, до которых мы бы не додумались.
Как думаете, где граница между "умным поиском" и настоящим научным творчеством?
❤5👍1🔥1