Тарас Довгаль. AI-first в жизни и работе
764 subscribers
10 photos
6 videos
16 links
Новости, инсайты и прикладная магия про то, как я @doxadoxa учусь работать с ИИ как с коллегой, а не калькулятором.
AI-first мышление, vibe working, без лишнего пафоса.
Download Telegram
Привет! Это Vibes and Tech — канал про то, как люди учатся работать с ИИ не просто «по инструкции», а в паре.

Будем говорить про vibe working — ту самую штуку, где нейросети становятся твоим реальным напарником: в коде, в идеях, в обучении.

Без инфоцыганщины, без бессмысленных цепочек «10 привычек успешных пользователей GPT». Зато с примерами, микроинструментами, новыми подходами и наблюдениями, как меняется профессия, когда ты работаешь не в одиночку, а с AI-компаньоном.

Контент — с уважением к вашему времени. Иногда полезно, иногда вдохновляюще, иногда просто чтобы поржать над промптами, которые вышли из-под контроля.

Подпишись и поехали. Let’s vibe.
1👍41👀1
Gemini 2.5 Pro (I/O Edition) — новый лидер в AI-кодинге

Google представил обновлённую версию своей модели Gemini 2.5 Pro, получившую название I/O Edition. Эта модель уже доступна в AI Studio и на платформе Vertex AI.

Что нового:

Лидерство в WebDev Arena: Gemini 2.5 Pro (05-06) заняла первое место в рейтинге WebDev Arena с оценкой 1419.95, обогнав предыдущего лидера Claude 3.7 Sonnet, который имел 1357.10 баллов. Это значительное улучшение по сравнению с предыдущей версией Gemini 2.5 Pro (03-25), которая имела 1272.86 баллов.

Улучшенные возможности кодирования: Модель демонстрирует высокую эффективность в создании интерактивных веб-приложений и интерфейсов. Она способна генерировать чистый, структурированный код с анимациями и логикой взаимодействия, что делает её полезной для фронтенд-разработчиков.

Расширенное контекстное окно: Gemini 2.5 Pro поддерживает контекст до 1 миллиона токенов, что позволяет обрабатывать большие объёмы кода или текста без потери контекста.

Пример использования:

“Gemini 2.5 Pro успешно справилась с рефакторингом сложной системы маршрутизации запросов, демонстрируя уровень принятия решений, ожидаемый от опытного разработчика.”
— Silas Alberti, команда Cognition

Если вы работаете с AI в разработке, Gemini 2.5 Pro (I/O Edition) стоит попробовать.
👍41
Media is too big
VIEW IN TELEGRAM
Небольшой эксперимент в AI Studio: попросил Google Gemini 2.5 сгенерировать игру «Жизнь» Конвея. Промпт максимально базовый:

Create a life game by Conway that will have regular default parameters, but that can be modified in fields. Like as a Senior Web Developer. Do in one file index.html. Use JS.

Без особой структуры, без нормального промпт-инжиниринга. Тем не менее — на выходе полноценный index.html с рабочей визуализацией и настраиваемыми параметрами.

Такую задачу обычно дают студентам 2–3 курса. Сейчас её можно закрыть одной фразой и сгенерировать за десятки секунд.

Понятно, что в таком виде это просто забава. Ни о каком серьёзном использовании или коде для прода речи не идёт. Но как пример того, как можно быстро пофаниться с идеей — вполне.
👍3👀2👎1
Замечаю один повторяющийся паттерн: у людей сильно завышены ожидания от того, как нейронка «понимает» человека.

Многие продолжают думать, что достаточно набросать пару слов — и нейросеть должна выдать что-то широкое, продуманное, глубокое. Как будто она «догадается». Как будто она обязана интерпретировать нас лучше, чем мы сами себя выражаем.

Это не работает. И никогда не работало — ни с людьми, ни с машинами. Просто с людьми мы привыкли к длинному циклу недопонимания: в общении с коллегой, с руководителем, с партнёром. Мы на это тратим недели. А с нейронкой — разочарование приходит быстрее, потому что отклик мгновенный.

И вот что я понял: пока у нас нет прямых интерфейсов, чтобы загрузить мысль или интенцию «как есть», мы остаёмся с единственным реальным способом — учиться коммуницировать. Учиться передавать контекст, свою роль, свои ожидания. Прямо и развёрнуто. Учиться не надеяться на магию «одного промпта».

Да, это требует усилий. Но это и есть новая грамотность — уметь думать вместе с моделью, не загадывая, а объясняя.
💯6👍2🔥1
Как меняется тон у Y Combinator — короткая заметка после свежего Requests for Startups (Summer 2025).

1. «Год AI-агентов» — чёрным по белому

YC открывает список со строкой: 2025 is indeed shaping up to be the "year of AI agents".
Дальше все 14 пунктов — вариации на тему:

- Full-stack AI-компании: не «продаём тул юристам», а сами становимся AI-юрфирмой и конкурируем с классическими лавками.
- Voice AI, персональные ассистенты, внутренние agent-builder’ы — инфраструктура, чтобы каждый сотрудник собирал себе ботов.
- AI-слои для науки, образования, финтеха, домашней безопасности — от подбора молекул до камер у входной двери.

2. Что исчезло из повестки

В предыдущих RFS ещё мелькали «новые SaaS-ERP», «вернуть производство в США», «open-source-платформы» — классический web-2 микс. Сейчас web-2 слова почти не встречаются: YC явно считает, что это инфраструктура, а не пространство прорыва.

3. Новый базовый договор

1. AI ≠ отдельная категория. Скорее «обязательный слой», без которого тезис не выглядит амбициозным.
2. От «tool-for-X» к «AI-замене X». Фонд подталкивает идти глубже в вертикаль, а не продавать лицензии старикам-динозаврам.
3. UX и бизнес-модели Web 2.0 всё ещё нужны. Но если они не работают в симбиозе с интеллектом модели, то это просто «ещё один сервис».

4. Практический вывод для нас с вами

Если идея звучит как «делаем платформу, куда люди приходят и что-то кликают», YC-линза в 2025-м спросит: какое место тут занимает агент?

Под «агентом» понимается не чат-обёртка, а рабочая единица, которая реально закрывает задачу до конца. В этом — вся разница между web-2 риторикой и новым total-AI-нарративом.

Лакмусовая бумажка: можете ли описать свой продукт фразой «мы сами та самая AI-компания в сфере X», а не «мы продаём AI-тул компаниям X»? Если да — вы в тренде YC-2025. Если нет — придётся добавить интеллект в саму сердцевину ценности.

Link: https://www.ycombinator.com/rfs
👍2👀21🔥1
🛠️ 48-часовой спринт с n8n

Проверил, насколько далеко можно уехать в агентах с «no-code». За два дня в n8n собрал телеграм-бота-ассистента: у него есть память (RAG + simple memory), он читает и отправляет почту, складывает задачи в трекер, пишет заметки в Notion и управляется с календарём. Примерно 60 % повседневных тайм-менеджмент-дел закрываются автоматически уже сейчас.

Впечатления смешанные. Визуально видеть весь поток удобно, готовые интеграции экономят часы, для прототипов это почти идеальный инструмент. Но по мере роста сценария начинает чувствоваться жёсткая архитектура: хардкод, регулярки, узлы, которые ломают цепочку на ровном месте. В итоге 90 % процесса собираешь за минуты, оставшиеся 10 % дебажишь непропорционально долго. И если нужна гибкость, писать код напрямую оказывается проще, чем «двигать блоки».

При этом для команд и небольших бизнесов n8n выглядит отличным способом быстро получить ощутимый профит от LLM: поднять простого ассистента, снять рутину и оптимизировать человеческие процессы без больших вложений в разработку.

Так что n8n — отличная песочница для быстрых экспериментов и простых агентских флоу. А вот на серьёзные задачи лучше сразу переходить к LangGraph в связке с Cursor: гибкости в таком подходе куда больше, а кодить с вайб-подходами стало разительно удобнее.
👍31🔥1
🦙 Открывать «внутрянку» стало модно — и это переворачивает рынок

Когда Meta на днях выложила Llama 3 целиком, главная новость даже не в самой модели: мы наблюдаем, как «открытые веса» перестают быть редким жестом энтузиастов. Китайский DeepSeek уже прокладывал эту тропу — тихо выпустил 236-миллиардную модель и кодовую версию с MIT-лицензией. Теперь к открытому столу присела и крупная западная корпорация. Две параллельные дороги сходятся в одну трассу.

Тренды меняются. Раньше доступ к передовому ИИ определялся тем, сколько у тебя денег на API-токены. Теперь ядро интеллекта становится общим ресурсом, как когда-то UNIX-подобные системы для серверов или HTML для веба. Это — перенос силы от нескольких «облаков» к миллионам разработчиков и небольших команд, которые могут запускать, дообучать и комбинировать модели под свои местные задачи.

Когда внутрянка лежит в свободном доступе, выигрывает не только стартап: выигрывает врач, которому нужен локальный ассистент без утечки данных; учитель, настраивающий тьютор под свой курс; город, строящий голосовую службу на муниципальных серверах. Открытый ИИ — это не столько «дёшево», сколько «гибко и подконтрольно».

Чем больше Llama- и DeepSeek-подобных релизов, тем меньше аргументов оставлять ИИ под замком. А значит, настоящая конкуренция будет уже не за доступ к модели, а за качество идей и сервисов, которые мы поверх неё построим. И здесь выигрывает тот, кто умеет видеть технологию не фетишем, а сырьём для новых форм человеческого творчества.

Правда это создает все больше вопросов про безопасность происходящего. Но стоит ли ставить страх заграждениями на пути прогресса? Время покажет.
3👀1
💳 Visa объявила, что откроет своим партнёрским AI-ассистентам (ChatGPT, Claude и др.) прямой доступ к платёжной сети: пользователь задаёт лимит и правила, а бот сам оплачивает билеты, продлевает подписки или заказывает подарок. Фрод-фильтры и токенизация уже встроены, поэтому Visa просто добавляет AI-SDK к существующим «рельсам» — логичное продолжение one-tap-модели в мобильном банкинге.

В web3 давно мечтают о децентрализованных кошельках для агентов, но как обычно прыжок в массмаркет упирается в UX и регуляции. По сути все что есть сейчас в этом, просто игрушки для дегенов. Классическим платёжным системам проще: они работают на инфраструктуре, где уже крутятся триллионы и где банкам понятны риски. Вероятность, что массовые AI-платежи появятся через гигантов вроде Visa и Stripe, намного выше, чем через on-chain-эксперименты.

Мы приближаемся к AI-first финансовой рутине: ассистент сравнит варианты, оформит заказ и пришлёт лаконичное «Подтвердите платеж?»
3👍3
🤖🧠 Как ИИ запоминает информацию

Представьте: вы рассказываете чат-боту, что предпочитаете капучино без сахара и по выходным катаетесь на велосипеде. Закрыли вкладку — и всё исчезло. Чтобы бот не спрашивал одно и то же каждый раз, ему нужна «долгая память». Существует несколько основных подходов.

1. Персистентная память (memory bank)
Ключевые факты кладут в отдельную базу — любимый напиток, город, текущие проекты. Перед ответом ИИ подмешивает нужные сведения в промпт и звучит так, будто давно вас знает. Пользователю меньше повторов, продукту — глубже персонализация.

2. RAG (retrieval-augmented generation)
Модель ничего не хранит «внутри», а на лету обращается к внутренней вики, PDF-архиву или базе FAQ. Добавили новый прайс — бот уже в теме. Весы переучивать не нужно, достаточно обновить источник данных.

3. Дополнительные методы
Файн-тюнинг. Вшиваем информацию прямо в модель. Надёжно, но дорого и не меняется за минуту.
Временный кэш. Запоминает детали сессии на несколько часов или дней — подходит для краткосрочных задач.
Agent loops. Цепочка запросов, где каждый шаг сохраняет выводы в базу, а следующий их читает.

Зачем это пользователю и бизнесу? Чат перестаёт спрашивать одни и те же данные и выдаёт более точные рекомендации. Компания экономит время: «однажды объяснили — ИИ работает сам». При этом возрастает ответственность за хранение данных и необходимость кнопки «удалить всё». В результате мы получаем помощника, который действительно помнит контекст и отвечает релевантно.
👍62👀2🔥1
🧊 ИИ без данных? Встречайте «Absolute Zero» — самоучку среди моделей

Обычно ИИ учат на больших объёмах человеческих данных: сотни тысяч строк кода, задач, объяснений. Но команда исследователей пошла другим путём — они создали модель, которая обучается сама на себе. Она сама придумывает задачи, решает их и проверяет результат, исполняя сгенерированный код, чтобы понять, где ошиблась. Без единого внешнего датасета .

Проект назвали Absolute Zero — как точка, с которой начинается всё. Модель не полагается на накопленную человечеством информацию, а выходит в рост через диалог с собой.

В чем вся суть? Представьте ребёнка, у которого нет учителей, книг и YouTube, но он интуитивно начинает задаваться вопросами, играть в задачи, искать ошибки и учиться на этом. В реальности так не бывает — но с моделями вдруг получилось. И этот ИИ уже обгоняет классические подходы в ряде задач по математике и программированию.

Что это может изменить
Стоимость обучения. Не нужно миллионы размеченных задач — ИИ сам их генерирует. Это делает обучение доступнее даже без крупных дата-центров.
Гибкость. Модель может адаптироваться к новым задачам быстрее — она уже «привыкла учиться».
Новый взгляд на интеллект. Возможно, интеллект — это не столько память, сколько способность задавать себе правильные вопросы и проверять гипотезы.

Будущее, где ИИ учится сам, как любопытный собеседник, а не просто «записанная Википедия», — ближе, чем кажется. И это одна из самых захватывающих линий в развитии AI в этом году.
😱54🤔2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Теперь своими deep research будет делиться намного удобнее. В ChatGPT добавили функцию скачивания в pdf с нормальным форматированием. Мелкая, а важная фича.
4🤩3👍2
Media is too big
VIEW IN TELEGRAM
Manus теперь почти у всех — и это интересно, но не магия

Недавно Manus стал доступен широкой аудитории. Я тестировал его с инвайта пару недель назад — и да, это один из самых дружелюбных входов в тему AI-агентов на сегодня.

Идея простая: у тебя есть агент с собственной виртуалкой, он может сам написать сайт, задеплоить его у себя, что-то починить, если сломается. Всё — прямо в браузере.

Но важно: Manus — это не «всё сделает за тебя», а скорее первый шаг к агентам, у которых есть своя среда и контекст выполнения.

Похожий вектор — у OWL (на базе Camel AI). Он умеет открывать браузер, кликать по интерфейсу, заполнять формы. Пока сыровато, но ясно одно: мы двигаемся к агентам, которые не просто подсказывают, а работают в цифровом мире.

И Manus, и OWL — это ранние эксперименты. Но направление уже видно:
AI как цифровой коллега, у которого есть окружение, интерфейс и действия.

Следим за развитием. Скоро будет интересно.

#manus #owl

Manus: https://manus.dev
OWL (Camel AI): https://github.com/camel-ai/owl

P.S.: Что вы сами думаете про Manus, OWL и подобные проекты? Делитесь мнениями, впечатлениями и юзкейсами. Комментарии включил :)
4🤔2
Когда модели начинают “договариваться”: путь к коллективному ИИ

Новое исследование показало, что если дать языковым моделям пообщаться друг с другом в команде — они начинают вырабатывать свои “социальные нормы” и общий сленг. Без подсказок от людей.

В эксперименте несколько копий ChatGPT пытались вместе решить задачу и постепенно начали использовать одинаковые слова для обозначения объектов — фактически, изобрели свою микрокультуру внутри сессии. Всё это без предварительного обучения на таких правилах.

Звучит как игра, но на самом деле — очень серьёзный сигнал.

Пока индустрия сосредоточена на одиночных “супер” моделях, всё больше кейсов и исследований указывает на потенциал коллаборативных многоагентных систем. Представьте: не одна LLM, а команда агентов — каждый со своей специализацией, опытом, контекстом — которые умеют работать вместе над задачами, которые одному агенту не под силу.

Agent-флоу уже показывают свою силу в автоматизации. Но следующий виток — это коллективное самообучение, распределённая экспертиза и “цифровые команды” из ИИ, которые не просто исполняют, а сотрудничают.

И прикол в том, что такие эксперименты можно делать уже сейчас. С помощью LangGraph или даже на n8n можно собрать свою простую “ИИ-команду” из агентов, которые передают друг другу контекст и учатся договариваться. Поле для экспериментов — огромное.

Очень крутое направление. Следим.

Источник: arXiv: Emergent social conventions in LLM teams
👀32🔥2
Codex от OpenAI: шаг ближе к полноценному вайбкодингу

OpenAI выкатили Codex — отдельный продукт, заточенный под генерацию и сопровождение кода. По сути, это более специализированная версия GPT, дообученная на публичных репозиториях, с явным фокусом на разработку.

Codex — это не просто “ещё один Copilot”. Он может интерпретировать описание задач на обычном языке, генерировать функции, править ошибки, работать с файлами проекта — и всё это уже не в формате IDE-плагина, а как отдельный агент, готовый сопровождать процесс.

Интересно, что Codex как продукт появился параллельно с WindSurf — другим новым инструментом от OpenAI, где делается упор на интерактивную среду и multi-modal кодинг с голосом, UI и визуалами.

Пока не очень ясно: это конкуренция внутри? Или попытка нащупать разные формы “AI для разработчиков” — от IDE-интеграции до автономного агента.

Но точно ясно одно: это ещё один шаг к вайбкодингу, где ИИ — не просто дописчик, а соавтор.
Вопрос теперь в другом — пора уходить с Cursor и других IDE-прослоек? Или всё же связка “IDE + agent” останется эффективнее, чем отдельно живущий ассистент?

Будем тестить.

Ссылка: Introducing Codex
3👍1
🛰 Star Compute: когда нейросети улетают в космос

ADA Space отправила на орбиту первую дюжину «вычислительных» спутников. Каждый — это мини-сервер с 8-млрд-параметровой моделью и чипом на ≈ 744 TOPS. Вместе они уже дают ~5 POPS, а к концу десятилетия план — 2 800 аппаратов и эксафлопс-класс прямо над нами. Данные обрабатываются там же, лазерные каналы гонят результат вниз секунды спустя.

Звучит сложно, но посмотрите, насколько офигительные юзкейсы у такого решения! А можно будет, например:
• Молниеносно видеть пожары, наводнения и любые ЧП: кадр снят → модель отработала → сигнал спасателям.
• «Смотреть» на Землю как в Google Earth, только вживую: строить упрощённые 3-D копии местности, чтобы следить за строительством, трафиком, урожаем.
• Дать беспилотным кораблям и дронам подсказки без задержек—полезно, когда вокруг лишь океан.
• Получить научные плюшки: один спутник уже ловит гамма-всплески, чтобы астрономы реагировали мгновенно.

Это первый настоящий «облачный центр анализа данных» вне планеты: солнце = питание, космос = бесплатный радиатор, никакого углеродного следа дата-центров. А главное — модели приходят к данным, а не наоборот.

Думаю в следующих RFS от YCombinator мы увидем запросы на стартапы с применением и таких крутых инфраструктур. Если вы думаете о сервисах «предсказание катастроф», «умная логистика» или «AI-навигация для дронов» — рекомендую ждать запуска API и смотреть за Star Compute.
13🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Все пишут про вчерашнюю презентацию Google I/O. Ну, что сказать, то что творит теперь Google Flow с Veo 3 поражает, это значительный шажок вперед и большое подспорье тем, кто занимается видео.

В целом, я думаю что количество и качество релизов у Google на высоте. Они однозначно на какое-то время перехватили лидерство в гонке чуть ли не по всем показателям.

Отдельно круто, что появился и уже доступен новый NotebookLM в мобильных сторах. Это в целом крутейший продукт, который очень удобно и эффективно использовать для самообразования и потребления полезного контента.

Здорово, что Google пытается построить экосистему вместе со всеми разработками. А не просто наращивают объемы данных под обучение.
🔥5👍3
Готовил сегодня пост про промпты, потерялся во времени, и в итоге посмотрел в лайве презентацию Anthropic. Ну что сказать, в отличии от Google I/O, где все — это экосистема, у ребят из Antropic серъезно сфокусированный подход. Все про кодинг. Это круто.

Мне понравилось, как за несколько часов Cloude Code с Opus на борту закодил фичу в большой опенсорсный проект. Выглядит прикольнее, чем Gemini, который генерит быстро HTML-странички с играми.

Еще понравилась фраза, про ожидание стартапа-единорога с командой всего из одного человека. Абсолютизм, конечно, но все движение направленно именно туда.

Обе новые 4 модельки, Sonet и Opus уже доступны, в том числе в Cursor. Последние 2 часа кодил с Sonet. Что сказать, рациональный подход этой нейронки к постановке задач из промпта, грамотная и последовательная реализация впечатляет. Если раньше я чаще кодил с Gemini, чем с 3.7, то теперь увидел буквально прыжок выше головы.

Рекомендую брать в процессы этих ребят и смотреть, что они могут самим.
2👍1🔥1
🧩 AI vs AI — приём для быстрого критического разбора текста

Когда нужно оценить надёжность статьи, исследования или продуктового описания, вместо долгих поисков источников можно посадить модель «за обе стороны стола» и получить компактную дискуссию с фактами и возражениями. Это удобно, например, для проверки свежего научного препринта, чернового peer-review собственных материалов или быстрого аудита аргументации перед питчем.

Схема следующая

Делим роли и промпты на 3 этапа.

1. Аналитик
«Ты — аналитик. Прочитай текст, выдели ключевую идею, сильные и слабые аргументы и 3-4 самые показательные цитаты из текста».

2. Оппонент
«Ты оппонируешь прошлому ответу. Критикуй выводы аналитика. Найди аргументы для ослабления сильных сторон, выяви скрытые допущения, усили и расширь слабые стороны».

3. Арбитр
«Сверь позиции. Выдели, что подтвердилось у обеих сторон; какие вопросы остались открытыми; какие данные нужны для финального вывода».

Рекомендации
• Держите роли в отдельных сообщениях — так шанс смешения контекста ниже.
• Запрашивайте ссылки, цифры, пруфы, если аргумент требует подтверждения или хоть немного неочевиден вам.
• При необходимости запускайте ещё один цикл («Защитник», «Факт-чекер», etc).

Метод даёт концентрированное «за / против» без многочасового гуглинга и помогает быстро увидеть, где аргументация держится, а где нет. Так же помогает защитить себя от искажений и галюцинаций нейронок, особенно в специфичных темах.

Делитесь, какие промптинговые флоу вы используйте в рисерчах и других задачах, решаемых с LLM в комментах 🤘
5🔥3👍2