Привет! Это Vibes and Tech — канал про то, как люди учатся работать с ИИ не просто «по инструкции», а в паре.
Будем говорить про vibe working — ту самую штуку, где нейросети становятся твоим реальным напарником: в коде, в идеях, в обучении.
Без инфоцыганщины, без бессмысленных цепочек «10 привычек успешных пользователей GPT». Зато с примерами, микроинструментами, новыми подходами и наблюдениями, как меняется профессия, когда ты работаешь не в одиночку, а с AI-компаньоном.
Контент — с уважением к вашему времени. Иногда полезно, иногда вдохновляюще, иногда просто чтобы поржать над промптами, которые вышли из-под контроля.
Подпишись и поехали. Let’s vibe.
Будем говорить про vibe working — ту самую штуку, где нейросети становятся твоим реальным напарником: в коде, в идеях, в обучении.
Без инфоцыганщины, без бессмысленных цепочек «10 привычек успешных пользователей GPT». Зато с примерами, микроинструментами, новыми подходами и наблюдениями, как меняется профессия, когда ты работаешь не в одиночку, а с AI-компаньоном.
Контент — с уважением к вашему времени. Иногда полезно, иногда вдохновляюще, иногда просто чтобы поржать над промптами, которые вышли из-под контроля.
Подпишись и поехали. Let’s vibe.
1👍4❤1👀1
Gemini 2.5 Pro (I/O Edition) — новый лидер в AI-кодинге
Google представил обновлённую версию своей модели Gemini 2.5 Pro, получившую название I/O Edition. Эта модель уже доступна в AI Studio и на платформе Vertex AI.
Что нового:
• Лидерство в WebDev Arena: Gemini 2.5 Pro (05-06) заняла первое место в рейтинге WebDev Arena с оценкой 1419.95, обогнав предыдущего лидера Claude 3.7 Sonnet, который имел 1357.10 баллов. Это значительное улучшение по сравнению с предыдущей версией Gemini 2.5 Pro (03-25), которая имела 1272.86 баллов.
• Улучшенные возможности кодирования: Модель демонстрирует высокую эффективность в создании интерактивных веб-приложений и интерфейсов. Она способна генерировать чистый, структурированный код с анимациями и логикой взаимодействия, что делает её полезной для фронтенд-разработчиков.
• Расширенное контекстное окно: Gemini 2.5 Pro поддерживает контекст до 1 миллиона токенов, что позволяет обрабатывать большие объёмы кода или текста без потери контекста.
Пример использования:
“Gemini 2.5 Pro успешно справилась с рефакторингом сложной системы маршрутизации запросов, демонстрируя уровень принятия решений, ожидаемый от опытного разработчика.”
— Silas Alberti, команда Cognition
Если вы работаете с AI в разработке, Gemini 2.5 Pro (I/O Edition) стоит попробовать.
Google представил обновлённую версию своей модели Gemini 2.5 Pro, получившую название I/O Edition. Эта модель уже доступна в AI Studio и на платформе Vertex AI.
Что нового:
• Лидерство в WebDev Arena: Gemini 2.5 Pro (05-06) заняла первое место в рейтинге WebDev Arena с оценкой 1419.95, обогнав предыдущего лидера Claude 3.7 Sonnet, который имел 1357.10 баллов. Это значительное улучшение по сравнению с предыдущей версией Gemini 2.5 Pro (03-25), которая имела 1272.86 баллов.
• Улучшенные возможности кодирования: Модель демонстрирует высокую эффективность в создании интерактивных веб-приложений и интерфейсов. Она способна генерировать чистый, структурированный код с анимациями и логикой взаимодействия, что делает её полезной для фронтенд-разработчиков.
• Расширенное контекстное окно: Gemini 2.5 Pro поддерживает контекст до 1 миллиона токенов, что позволяет обрабатывать большие объёмы кода или текста без потери контекста.
Пример использования:
“Gemini 2.5 Pro успешно справилась с рефакторингом сложной системы маршрутизации запросов, демонстрируя уровень принятия решений, ожидаемый от опытного разработчика.”
— Silas Alberti, команда Cognition
Если вы работаете с AI в разработке, Gemini 2.5 Pro (I/O Edition) стоит попробовать.
👍4❤1
Media is too big
VIEW IN TELEGRAM
Небольшой эксперимент в AI Studio: попросил Google Gemini 2.5 сгенерировать игру «Жизнь» Конвея. Промпт максимально базовый:
Create a life game by Conway that will have regular default parameters, but that can be modified in fields. Like as a Senior Web Developer. Do in one file index.html. Use JS.
Без особой структуры, без нормального промпт-инжиниринга. Тем не менее — на выходе полноценный index.html с рабочей визуализацией и настраиваемыми параметрами.
Такую задачу обычно дают студентам 2–3 курса. Сейчас её можно закрыть одной фразой и сгенерировать за десятки секунд.
Понятно, что в таком виде это просто забава. Ни о каком серьёзном использовании или коде для прода речи не идёт. Но как пример того, как можно быстро пофаниться с идеей — вполне.
Create a life game by Conway that will have regular default parameters, but that can be modified in fields. Like as a Senior Web Developer. Do in one file index.html. Use JS.
Без особой структуры, без нормального промпт-инжиниринга. Тем не менее — на выходе полноценный index.html с рабочей визуализацией и настраиваемыми параметрами.
Такую задачу обычно дают студентам 2–3 курса. Сейчас её можно закрыть одной фразой и сгенерировать за десятки секунд.
Понятно, что в таком виде это просто забава. Ни о каком серьёзном использовании или коде для прода речи не идёт. Но как пример того, как можно быстро пофаниться с идеей — вполне.
👍3👀2👎1
Замечаю один повторяющийся паттерн: у людей сильно завышены ожидания от того, как нейронка «понимает» человека.
Многие продолжают думать, что достаточно набросать пару слов — и нейросеть должна выдать что-то широкое, продуманное, глубокое. Как будто она «догадается». Как будто она обязана интерпретировать нас лучше, чем мы сами себя выражаем.
Это не работает. И никогда не работало — ни с людьми, ни с машинами. Просто с людьми мы привыкли к длинному циклу недопонимания: в общении с коллегой, с руководителем, с партнёром. Мы на это тратим недели. А с нейронкой — разочарование приходит быстрее, потому что отклик мгновенный.
И вот что я понял: пока у нас нет прямых интерфейсов, чтобы загрузить мысль или интенцию «как есть», мы остаёмся с единственным реальным способом — учиться коммуницировать. Учиться передавать контекст, свою роль, свои ожидания. Прямо и развёрнуто. Учиться не надеяться на магию «одного промпта».
Да, это требует усилий. Но это и есть новая грамотность — уметь думать вместе с моделью, не загадывая, а объясняя.
Многие продолжают думать, что достаточно набросать пару слов — и нейросеть должна выдать что-то широкое, продуманное, глубокое. Как будто она «догадается». Как будто она обязана интерпретировать нас лучше, чем мы сами себя выражаем.
Это не работает. И никогда не работало — ни с людьми, ни с машинами. Просто с людьми мы привыкли к длинному циклу недопонимания: в общении с коллегой, с руководителем, с партнёром. Мы на это тратим недели. А с нейронкой — разочарование приходит быстрее, потому что отклик мгновенный.
И вот что я понял: пока у нас нет прямых интерфейсов, чтобы загрузить мысль или интенцию «как есть», мы остаёмся с единственным реальным способом — учиться коммуницировать. Учиться передавать контекст, свою роль, свои ожидания. Прямо и развёрнуто. Учиться не надеяться на магию «одного промпта».
Да, это требует усилий. Но это и есть новая грамотность — уметь думать вместе с моделью, не загадывая, а объясняя.
💯6👍2🔥1
Как меняется тон у Y Combinator — короткая заметка после свежего Requests for Startups (Summer 2025).
1. «Год AI-агентов» — чёрным по белому
YC открывает список со строкой: 2025 is indeed shaping up to be the "year of AI agents".
Дальше все 14 пунктов — вариации на тему:
- Full-stack AI-компании: не «продаём тул юристам», а сами становимся AI-юрфирмой и конкурируем с классическими лавками.
- Voice AI, персональные ассистенты, внутренние agent-builder’ы — инфраструктура, чтобы каждый сотрудник собирал себе ботов.
- AI-слои для науки, образования, финтеха, домашней безопасности — от подбора молекул до камер у входной двери.
2. Что исчезло из повестки
В предыдущих RFS ещё мелькали «новые SaaS-ERP», «вернуть производство в США», «open-source-платформы» — классический web-2 микс. Сейчас web-2 слова почти не встречаются: YC явно считает, что это инфраструктура, а не пространство прорыва.
3. Новый базовый договор
1. AI ≠ отдельная категория. Скорее «обязательный слой», без которого тезис не выглядит амбициозным.
2. От «tool-for-X» к «AI-замене X». Фонд подталкивает идти глубже в вертикаль, а не продавать лицензии старикам-динозаврам.
3. UX и бизнес-модели Web 2.0 всё ещё нужны. Но если они не работают в симбиозе с интеллектом модели, то это просто «ещё один сервис».
4. Практический вывод для нас с вами
Если идея звучит как «делаем платформу, куда люди приходят и что-то кликают», YC-линза в 2025-м спросит: какое место тут занимает агент?
Под «агентом» понимается не чат-обёртка, а рабочая единица, которая реально закрывает задачу до конца. В этом — вся разница между web-2 риторикой и новым total-AI-нарративом.
Лакмусовая бумажка: можете ли описать свой продукт фразой «мы сами та самая AI-компания в сфере X», а не «мы продаём AI-тул компаниям X»? Если да — вы в тренде YC-2025. Если нет — придётся добавить интеллект в саму сердцевину ценности.
Link: https://www.ycombinator.com/rfs
1. «Год AI-агентов» — чёрным по белому
YC открывает список со строкой: 2025 is indeed shaping up to be the "year of AI agents".
Дальше все 14 пунктов — вариации на тему:
- Full-stack AI-компании: не «продаём тул юристам», а сами становимся AI-юрфирмой и конкурируем с классическими лавками.
- Voice AI, персональные ассистенты, внутренние agent-builder’ы — инфраструктура, чтобы каждый сотрудник собирал себе ботов.
- AI-слои для науки, образования, финтеха, домашней безопасности — от подбора молекул до камер у входной двери.
2. Что исчезло из повестки
В предыдущих RFS ещё мелькали «новые SaaS-ERP», «вернуть производство в США», «open-source-платформы» — классический web-2 микс. Сейчас web-2 слова почти не встречаются: YC явно считает, что это инфраструктура, а не пространство прорыва.
3. Новый базовый договор
1. AI ≠ отдельная категория. Скорее «обязательный слой», без которого тезис не выглядит амбициозным.
2. От «tool-for-X» к «AI-замене X». Фонд подталкивает идти глубже в вертикаль, а не продавать лицензии старикам-динозаврам.
3. UX и бизнес-модели Web 2.0 всё ещё нужны. Но если они не работают в симбиозе с интеллектом модели, то это просто «ещё один сервис».
4. Практический вывод для нас с вами
Если идея звучит как «делаем платформу, куда люди приходят и что-то кликают», YC-линза в 2025-м спросит: какое место тут занимает агент?
Под «агентом» понимается не чат-обёртка, а рабочая единица, которая реально закрывает задачу до конца. В этом — вся разница между web-2 риторикой и новым total-AI-нарративом.
Лакмусовая бумажка: можете ли описать свой продукт фразой «мы сами та самая AI-компания в сфере X», а не «мы продаём AI-тул компаниям X»? Если да — вы в тренде YC-2025. Если нет — придётся добавить интеллект в саму сердцевину ценности.
Link: https://www.ycombinator.com/rfs
👍2👀2❤1🔥1
🛠️ 48-часовой спринт с n8n
Проверил, насколько далеко можно уехать в агентах с «no-code». За два дня в n8n собрал телеграм-бота-ассистента: у него есть память (RAG + simple memory), он читает и отправляет почту, складывает задачи в трекер, пишет заметки в Notion и управляется с календарём. Примерно 60 % повседневных тайм-менеджмент-дел закрываются автоматически уже сейчас.
Впечатления смешанные. Визуально видеть весь поток удобно, готовые интеграции экономят часы, для прототипов это почти идеальный инструмент. Но по мере роста сценария начинает чувствоваться жёсткая архитектура: хардкод, регулярки, узлы, которые ломают цепочку на ровном месте. В итоге 90 % процесса собираешь за минуты, оставшиеся 10 % дебажишь непропорционально долго. И если нужна гибкость, писать код напрямую оказывается проще, чем «двигать блоки».
При этом для команд и небольших бизнесов n8n выглядит отличным способом быстро получить ощутимый профит от LLM: поднять простого ассистента, снять рутину и оптимизировать человеческие процессы без больших вложений в разработку.
Так что n8n — отличная песочница для быстрых экспериментов и простых агентских флоу. А вот на серьёзные задачи лучше сразу переходить к LangGraph в связке с Cursor: гибкости в таком подходе куда больше, а кодить с вайб-подходами стало разительно удобнее.
Проверил, насколько далеко можно уехать в агентах с «no-code». За два дня в n8n собрал телеграм-бота-ассистента: у него есть память (RAG + simple memory), он читает и отправляет почту, складывает задачи в трекер, пишет заметки в Notion и управляется с календарём. Примерно 60 % повседневных тайм-менеджмент-дел закрываются автоматически уже сейчас.
Впечатления смешанные. Визуально видеть весь поток удобно, готовые интеграции экономят часы, для прототипов это почти идеальный инструмент. Но по мере роста сценария начинает чувствоваться жёсткая архитектура: хардкод, регулярки, узлы, которые ломают цепочку на ровном месте. В итоге 90 % процесса собираешь за минуты, оставшиеся 10 % дебажишь непропорционально долго. И если нужна гибкость, писать код напрямую оказывается проще, чем «двигать блоки».
При этом для команд и небольших бизнесов n8n выглядит отличным способом быстро получить ощутимый профит от LLM: поднять простого ассистента, снять рутину и оптимизировать человеческие процессы без больших вложений в разработку.
Так что n8n — отличная песочница для быстрых экспериментов и простых агентских флоу. А вот на серьёзные задачи лучше сразу переходить к LangGraph в связке с Cursor: гибкости в таком подходе куда больше, а кодить с вайб-подходами стало разительно удобнее.
👍3❤1🔥1
🦙 Открывать «внутрянку» стало модно — и это переворачивает рынок
Когда Meta на днях выложила Llama 3 целиком, главная новость даже не в самой модели: мы наблюдаем, как «открытые веса» перестают быть редким жестом энтузиастов. Китайский DeepSeek уже прокладывал эту тропу — тихо выпустил 236-миллиардную модель и кодовую версию с MIT-лицензией. Теперь к открытому столу присела и крупная западная корпорация. Две параллельные дороги сходятся в одну трассу.
Тренды меняются. Раньше доступ к передовому ИИ определялся тем, сколько у тебя денег на API-токены. Теперь ядро интеллекта становится общим ресурсом, как когда-то UNIX-подобные системы для серверов или HTML для веба. Это — перенос силы от нескольких «облаков» к миллионам разработчиков и небольших команд, которые могут запускать, дообучать и комбинировать модели под свои местные задачи.
Когда внутрянка лежит в свободном доступе, выигрывает не только стартап: выигрывает врач, которому нужен локальный ассистент без утечки данных; учитель, настраивающий тьютор под свой курс; город, строящий голосовую службу на муниципальных серверах. Открытый ИИ — это не столько «дёшево», сколько «гибко и подконтрольно».
Чем больше Llama- и DeepSeek-подобных релизов, тем меньше аргументов оставлять ИИ под замком. А значит, настоящая конкуренция будет уже не за доступ к модели, а за качество идей и сервисов, которые мы поверх неё построим. И здесь выигрывает тот, кто умеет видеть технологию не фетишем, а сырьём для новых форм человеческого творчества.
Правда это создает все больше вопросов про безопасность происходящего. Но стоит ли ставить страх заграждениями на пути прогресса? Время покажет.
Когда Meta на днях выложила Llama 3 целиком, главная новость даже не в самой модели: мы наблюдаем, как «открытые веса» перестают быть редким жестом энтузиастов. Китайский DeepSeek уже прокладывал эту тропу — тихо выпустил 236-миллиардную модель и кодовую версию с MIT-лицензией. Теперь к открытому столу присела и крупная западная корпорация. Две параллельные дороги сходятся в одну трассу.
Тренды меняются. Раньше доступ к передовому ИИ определялся тем, сколько у тебя денег на API-токены. Теперь ядро интеллекта становится общим ресурсом, как когда-то UNIX-подобные системы для серверов или HTML для веба. Это — перенос силы от нескольких «облаков» к миллионам разработчиков и небольших команд, которые могут запускать, дообучать и комбинировать модели под свои местные задачи.
Когда внутрянка лежит в свободном доступе, выигрывает не только стартап: выигрывает врач, которому нужен локальный ассистент без утечки данных; учитель, настраивающий тьютор под свой курс; город, строящий голосовую службу на муниципальных серверах. Открытый ИИ — это не столько «дёшево», сколько «гибко и подконтрольно».
Чем больше Llama- и DeepSeek-подобных релизов, тем меньше аргументов оставлять ИИ под замком. А значит, настоящая конкуренция будет уже не за доступ к модели, а за качество идей и сервисов, которые мы поверх неё построим. И здесь выигрывает тот, кто умеет видеть технологию не фетишем, а сырьём для новых форм человеческого творчества.
Правда это создает все больше вопросов про безопасность происходящего. Но стоит ли ставить страх заграждениями на пути прогресса? Время покажет.
❤3👀1
💳 Visa объявила, что откроет своим партнёрским AI-ассистентам (ChatGPT, Claude и др.) прямой доступ к платёжной сети: пользователь задаёт лимит и правила, а бот сам оплачивает билеты, продлевает подписки или заказывает подарок. Фрод-фильтры и токенизация уже встроены, поэтому Visa просто добавляет AI-SDK к существующим «рельсам» — логичное продолжение one-tap-модели в мобильном банкинге.
В web3 давно мечтают о децентрализованных кошельках для агентов, но как обычно прыжок в массмаркет упирается в UX и регуляции. По сути все что есть сейчас в этом, просто игрушки для дегенов. Классическим платёжным системам проще: они работают на инфраструктуре, где уже крутятся триллионы и где банкам понятны риски. Вероятность, что массовые AI-платежи появятся через гигантов вроде Visa и Stripe, намного выше, чем через on-chain-эксперименты.
Мы приближаемся к AI-first финансовой рутине: ассистент сравнит варианты, оформит заказ и пришлёт лаконичное «Подтвердите платеж?»
В web3 давно мечтают о децентрализованных кошельках для агентов, но как обычно прыжок в массмаркет упирается в UX и регуляции. По сути все что есть сейчас в этом, просто игрушки для дегенов. Классическим платёжным системам проще: они работают на инфраструктуре, где уже крутятся триллионы и где банкам понятны риски. Вероятность, что массовые AI-платежи появятся через гигантов вроде Visa и Stripe, намного выше, чем через on-chain-эксперименты.
Мы приближаемся к AI-first финансовой рутине: ассистент сравнит варианты, оформит заказ и пришлёт лаконичное «Подтвердите платеж?»
❤3👍3