Записки C3PO
5.1K subscribers
75 photos
5 videos
227 links
Product Director @ T-Bank AI, ex. YouDo

Пишу о Product & People Management, AI, своих наблюдениях и прочих бесполезных вещах.
Download Telegram
Записки C3PO
Вытащу свой ответ на коммент из обсуждения репоста в Сиолошной с саммари видео про пузырь. Кажется, может быть полезно. Сам коммент: Он не «лопается» тк компании показывают огромную маржу и с forward looking pe ценны не такие уж высокие. Пример. Микрон, производитель…
Важно пояснить вот этот тезис:
Но это именно ставка, не доказанный факт. А инвестиции делаются как будто это уже произошло.

Тут есть нюанс, что это не просто рисковая ставка, которая может не сойтись, как и любая инвест-ставка. Чтобы понять логику, давайте возьмем классический пример скейлинга, тот же Амазон или Убер. Это классические кейсы, когда ты вливаешь бабло в бизнес-модель, которая либо доказала свою жизнеспособность на маленьком масштабе, как с точки зрения P/M Fit, так и с точки зрения юнит-экономики, и ты скейлишь тем самым прибыль, либо все доказано, но юнит-экономика не сходится или маржа маленькая, но за счет скейла сработает Scale Economy, и маржа, и прибыль диспропорционально вырастут. То есть инвестиции в тупо скейл прибыли.
Что происходит с AI? Это не инвестиции в скейл работающей бизнес-модели, это инвестиции в развитие технологии, которая потенциально может дойти до состояния, когда будет достаточно качественной и рентабельной, чтобы могла начать давать импакт. То есть это инвестиции до скейла на 1, 2, а, возможно, даже 3 порядка раньше. То есть такой Seed раунд в великое будущее.
👍14💯113
Forwarded from Dealer.AI
Мы живем в пору context engineering/management.

Вышел очень интересный обзор об 20-летней трансформации взаимодействия машины и человека для постановки задач.
Кстати полная версия у моего соседей по цеху тут.

Основной пойнт, что постановка задачи через использование контекста моделей (по факту окна входа) стремилась к снижению энтропии и упорядочиванию входных данных. 🧠 В то время как, человек получает на вход множество модальностей данных, да еще и в разном качестве, машине мы стараемся передать эти наблюдения в другой форме. К примеру, вы учите бустинг, и обязательно проводите EDA, очистку данных, фиче инжиниринг и кормите итоговые плоские таблички для обучения. Потом появились seq2seq модели, а еще позже GenAI. Чем продвинутее становились архитектуры, тем меньше нужно было снижать энтропию входа. Сейчас мы можем в некотором виде подавать текст в модели или агентные системы, через промпт инжиниринг и контекстный менеджмент. В том числе, мы можем кормить и картинки и аудио и видео, используя дополнительные кодировщики.

Согласен, что это все ещё не данные as is, как видим и осязаем их мы, и энтропия по отношению к этому тоже снижена, но в идеале она будет стремиться к изначальному виду.

Авторы поднимают вопрос такого развития, что ИИ-технологии достигнут уровня сначала человека и смогут принимать окружающую информацию AS IS, воспринимая среду без трансформации, а потом, став еще продвинутее, будут менять среду и ее энтропию, упрощая ее, наоборот уже для человека. Такой вот реально большой оберегающий брат. Или не оберегающий. 🧠 Очень интересный взгляд.

А сейчас, по мнению авторов, мы живем в эру контекст менеджмента и инжиниринга. Если вам интересно об этом почитать, советую вот это репо. И действительно, все работы и решения основаны сейчас на том, чтобы наполнять контекст модели, ограниченый max token lens только нужной информацией, и не помещать или удалять от туда ненужную информацию. Отсюда, кстати, и концепция внешней памяти, и RAG темы, и FC/TC, присыпанные доп. инженерией очистки/умных ножниц ✂️ и сжатия/саммаризации только полезной информации для контекста 📊. Примером таких операций может быть:

1. Удаление рассуждений из видимого контекста модели после данного на их основе ответа.

2. Вырезка из контекста подсказок из RAG, memory и прочих данных, которые могут спутать модель, если их там оставить. Ведь никто не исключал протухания данных.

3. Написание функций сжатия и саммаризации, а также улучшения экстрактивных механизмов моделей для этого.

И многое другое...

Остается один момент, это вопрос того, что контекст инженерия снижает энтропию вспомогательно, а если путь к AGI - то нужны новые решения, которые не требуют инженерии вокруг или сводят ее к минимуму. Зачастую вопрос повышения энтропии входа коррелировал вообще с уровнем развития вычислительных технологий. Бывает так, что методология в теории есть, но техника не позволяла ее эффективно реализовать, а когда позволяет происходит переход на новый уровень развития. Но что это должно быть и будет? Поживем, увидим, у меня нет ответа не этот вопрос.
Please open Telegram to view this post
VIEW IN TELEGRAM
13
Записки C3PO
Заменил Superwhisper на Wispr Flow. Wispr Flow лучше понимает контекст и чётко выполняет голосовые команды при работе с текстом. К примеру, команду: «Напиши письмо на английском, в котором ты спрашиваешь Лебовски где мои деньги», он сразу поймет, в отличие…
Я уже писал, что перешёл с Superwhisper на Wispr Flow, а в этот раз пишу, как перешёл с Wispr Flow на Aqua Voice.

Ключевые преимущества — это абсолютно мгновенная транскрибация того, что я говорю. Ты просто зажимаешь Fn, говоришь, отпускаешь и текст как будто мгновенно появляется в поле ввода. При чем понимание самого текста, tone of voice, стиля, терминов, англицизмов очень точное. Я очень редко правлю текст. И в отличие от Superwhisper, в Aqua Voice, как и Wispr Flow, иконка, которая слушает текст, очень маленькая и внизу, её можно показывать только когда происходит зажатие клавиш, а не огромное окно на пол экрана.

Минус — это отсутствие понимания команд, как в остальных, но на самом деле это даже плюс, так как в первых двух это приводит к false positive и приходится править текст, так как классификатор неправильно понял. Для команд лучше оставить Highlight
2🔥247🤔2
Forwarded from Data Secrets
Андрей Карпаты: «ИИ – это ПО 2.0, и оно автоматизирует то, что можно проверить»

Понравился свежий емкий пост Карпаты на вечную тему автоматизации в эпоху ИИ. Подготовили сокращенный перевод:

ИИ часто сравнивают с историческими прорывами: электричеством, промышленной революцией и тд. Но, по-моему, самая точная аналогия – ИИ как новая вычислительная парадигма, Software 2.0.

В обоих случаях речь про автоматизацию обработки цифровой информации. В 80-х автоматизировались задачи, которые сводились к механическому преобразованию информации по простым, чётко формализуемым правилам (например, бухгалтерия).

Сейчас же, с ИИ, мы можем автоматизировать то, что вручную описать невозможно, но можно проверить. Мы задаем таргет (например, accuracy) и с помощью градиентного спуска ищем в пространстве алгоритмов нейросеть, которая оптимизирует этот таргет лучше всего.

Это и есть Software 2.0, и в этой парадигме ключевым факторов автоматизируемости задачи выступает ее проверяемость. Лучше всего можно автоматизировать именно то, что легко проверить.

Если задача непроверяема, останется надеяться на волшебную обобщающую способность нейросетей. Именно поэтому прогресс ИИ такой зубчатый: в проверяемых задачах прогресс стремительный (код, математика, головоломки), а вот многое другое отстает (творчество, стратегия, здравый смысл).

Software 1.0 легко автоматизирует то, что можно формально описать.
Software 2.0 легко автоматизирует то, что можно проверить.
48👍16🤔6
Повыкладываю сюда парочку инсайтов из разговоров с топами, которых я глубоко уважаю, из наших встреч по продуктовой стратегии.

Одна фраза звучала особенно точно:

«Мы идем туда, где получилось, делаем то, что получилось, и надеемся, что случайно попадём в точку роста»

Идея в том, что команды обычно не имеют проблем с идеями, они видят МНОГО возможностей, но не понимают, какие из них: стратегические,
масштабируемые,
принесут много денег,
малозатратные,
быстрые,
тупиковые...список можно продолжать.

А результат какой?
Команда выбирает не лучшие возможности, а самые доступные. Те, которые «легче продать», те, где клиент сам пришёл...

Получается логика:
куда взяли - туда и пошли

И вот в такие моменты вспоминается классика из Алисы в стране чудес:

«Если не знаешь, куда идёшь - любая дорога подойдёт».

Ровно так и работает отсутствие продуктовой стратегии.
Не хватает не идей - не хватает системы выбора.

Системы, которая говорит:
это - масштабируемая проблема,
это - нет.
это - чёткая гипотеза,
это - шум.
это - продукт,
это - проект.
это - надо убить,
а это - удвоить.

И знаете, я прекрасно помню этот момент в своей карьере.

Когда я была руководителем, я попросила команду принести идеи. И мне принесли огромный, разношерстный список:
от мелких улучшений интерфейса до каких-то точечных фичей,
которые решали локальные неудобства конкретных сотрудников или клиентов.

Я смотрела на этот список…
и первая мысль была:

«Неужели они не видят, что это всё - локальная оптимизация?
Что ни одна из этих идей не приведёт нас туда, куда мы хотим прийти?»


И вот что интересно: я даже не смогла им тогда сказать «нет».
Потому что (и это важный момент) это была их первая попытка мыслить продуктово, первый шаг от выполнения задач к поиску ценности.

Понимаете?

Люди не могут сразу выдать стратегический рычаг.
Не потому что “не понимают”, а потому что часто у них нет структуры, нет критериев “что такое хорошая идея”.

Так и появляются списки, которые внутри команды кажутся “идейными”, а снаружи выглядят как бессистемный набор хотелок.

Но это не вина команды.
Это сигнал, что им нужна рамка мышления, система отбора, критерии, подход, которые переводят их из режима:
«что бы нам такое сделать?» в «что даст наибольший эффект?»
37👍8🔥2💯1
🔫
Please open Telegram to view this post
VIEW IN TELEGRAM
😁36💔1
Лучшее, что можно сделать с инженером, который не помогает решать задачи, а только тормозит рассказами, как их сложно решать или вовсе невозможно — уволить. При чем не только его, а вообще всех, если продолжать его логику. Зачем тогда работать, а саппортить продукт и баги чинить смогут и мидлы.

https://t.iss.one/leadgr/2202
🔥184🤔3👍1
С сентября месяца я открывал Perplexity 0 раз. А все почему? На сложные вопросы я хожу в Claude/ChatGPT, а за простыми теперь есть гугл с ai ответами, который живет в более удобном месте в браузерной строке. There is no moats...
👍63🤔53
После появления ChatGPT и прочего GenAI достаточно часто зовут спикером на всякие конфы, где рассказывают про то, как поменялась работа продакта благодаря ии финтифлюхам. Забавно, что среди спикеров я никогда не видел продактов из индустрии.
😁58💯6
Наконец дошли руки до ноябрьского эссе Бена Томпсона о пользе пузырей.

OpenAI заключает сделки на $1,4 трлн при выручке ~$13 млрд — это пузырь. Томпсон объясняет, почему это хорошо.

Карлота Перес в 2002 году написала классическую работу "Technological Revolutions and Financial Capital". Главная идея: пузыри создают инфраструктуру, которая переживает банкротства инвесторов. Оптоволокно, проложенное обанкротившимися телеком-компаниями в 2000-х, стало бесплатным фундаментом для сегодняшнего интернета.

Hobart и Huber в книге "Boom" добавляют второй тип пользы — когнитивную координацию. Пузырь работает как механизм синхронизации: множество людей одновременно движутся в одном направлении. Dotcom-эра породила XMLHttpRequest (Microsoft создал его, чтобы убить Netscape, а получился фундамент для веб-приложений) и переход на Linux/x86 вместо дорогих Sun-серверов.

Проблема AI-пузыря: GPU устаревают за 5 лет — это не железная дорога и не оптоволокно. Львиная доля денег идёт Nvidia, но чипы не остаются полностью самортизированными активами, которыми можно пользоваться бесплатно десятилетиями.

Но есть два направления с долгосрочной отдачей. Первое — производство чипов. TSMC и Samsung строят заводы в США, правительство стало акционером Intel. Зависимость от Тайваня начинает снижаться.

Второе — энергетика. Здесь самое интересное: узкое место уже не чипы, а электричество. CFO Microsoft на earnings call: «Последние несколько лет мы испытывали дефицит не GPU или CPU как таковых — нам не хватало пространства и энергии». CEO Amazon говорит то же самое.

Генерация электричества в США стагнирует 20 лет. AI создаёт одновременно экономический стимул (нужно больше энергии) и политический (давление убрать бюрократические барьеры). Если пузырь профинансирует строительство новых мощностей, а потом инвесторы обанкротятся — дешёвая энергия останется навсегда.

Когнитивная часть AI-пузыря уже работает. Substrate пытается создать новый тип литографии в Америке. Extropic делает чипы на основе вероятностной энтропии вместо бинарных вычислений. Без пузыря такие проекты не получили бы финансирование.

Альтернатива пузырю — стагнация. До AI технологии стали скучными: Big Five поделили рынок, стартапы превратились в конвейер SaaS с низким риском. AR/VR развивались как строчка в бюджете Meta и Apple, а не через экосистему стартапов. Результат — медленный прогресс.

Томпсон завершает интересной мыслью: у AI-пузыря есть квазидуховный элемент. Люди в лабораториях верят, что строят бога. Это объясняет инвестиции в модели, которые никогда не окупятся, прежде чем их обгонят следующие. Можно не соглашаться с политическими следствиями в виде попыток регуляций, но именно эта вера — драйвер всего происходящего.
30🔥9🤔6👍3😁2
Поорал, конечно, с итогов года по версии ChatGPT. Теперь даже жалко, что дропнул всю историю чатов в начале года (вот если бы Сама завез избранное и норм поиск по чатам, не пришлось бы!)
😁131👍1
Forwarded from nonamevc
очень рандомный brain dump по наблюдениям за 2025 год в saas x ai

1. AI больше всего отразился на замещении разработчиков.
занятость среди software developers 22–25 лет упала на ~20% с 2022 (Stanford Digital Economy Lab). атрибуция сложная правда, тут и post-ZIRP коррекция, но coding AI agents точно crossed the chasm.

косвенный прокси - отчет Menlo Ventures: корпоративный AI spending вырос до $7.3B в 2025 (+4.1x YoY).
кодинг это $4B, это 55% всего departmental spend. остальное: IT (10%), marketing (9%), customer success (9%), design (7%), HR (5%).

2. больше задач программистов из 2022 берут не-программисты.
уже видел как CPA строят AI-powered tax filing без бэкграунда в коде или как HVAC-компания пилит свою CRM.

когда стоимость создания близка к нулю, стоимость поддержки теряет значение.

поэтому имхо velocity is your moat bs. ты не обгонишь цикл обратной связи пользователя, который решает свою проблему сам.

3. vibe-coding убил low-code
никто почему-то не обсуждает, какое стремительное замещение / disruption категории произошло за 12 месяцев. Webflow, Retool, Airtable имхо рип. обещали демократизацию, но реальность это lock-in и ограниченная кастомизация. Lovable, Bolt, Replit Agent за 12 месяцев набрали $36B+ combined valuation.
Lovable: с $7M до $84M ARR за 6 месяцев. Replit: с $16M до $252M ARR за год (+15.8x). «старый» low-code рынок — $29B. vibe-coding съел его на глазах.

4. AI-native application layer быстрее забирает рынок у инкамбентов и растут лучше чем AI-native инфра.
стартапы забрали 63% рынка AI-приложений vs 36% год назад.
application layer = $19B из $37B общего spend.
в кодинге стартапы = 71%,
в sales = 78%,
в finance/ops = 91%. инкамбенты держатся только в инфраструктуре (56%) — Databricks, Snowflake, MongoDB выигрывают за счёт интеграций и доверия.

5. бизнес по майнингу вертикальных данных и продаже норм.
все growth-stage вертикальные ent компании охотятся за владельцы данных, которые решают, кому давать эксклюзивный доступ.

пример: Harvey в 2024 пытался купить vLex (поставщик юридических данных), не договорились, в итоге сделали партнёрство с LexisNexis. vLex достался Clio, другой LegalTech-компании.

чего ожидать: консолидация среди поставщиков данных;

вынужденные сделки для AI-стартапов, потерявших доступ к данным;

вертикальные AI-компании начнут объединяться ради общего пула прав на данные.​​​​​​​​​​​​​​​​

6. сервис vs продукт - граница размывается
инструменты настолько глубоко встраиваются в доменные workflows, что начинают напоминать intelligent service providers. сейчас агенты уже умные, но пользователи ещё требуют внедрение с полным сопровождением. инструменты уже умеют больше, чем юзеры способны освоить.
в некоторых индустриях это видно сильнее. AI SecOps стартапы (Aegis AI, Litt Security) называют себя "AI agent companies", но по сути это аутсорсинг compliance officer. AI SEO тулы то же самое.

консалтинг подтверждает тренд. Accenture, Deloitte, EY растут 11–12% в год McKinsey, BCG, Bain растут 5–6%. хотя их только ленивый не закапывал в 2023. execution-first с AI интеграцией побеждает стратегический консалтинг.

forward deployed engineers который хайпует в долине (Anthropic с Accenture анонсировали 300 FDE; и 470к лицензий с Deloiite)
Accenture берёт на себя «налог на ИИ-неграмотность» от лица корпораций. стартапы не могут с этим конкурировать, потому что каждому стартапу приходится выращивать клиента с нуля.
большинству клиентов white-glove не нужен, они хотят просто работающий продукт.

капиталоёмкость растёт не потому что продукт дорогой, а потому что сервисная обёртка обязательна. доля рынка коррелирует с объёмом привлечённого капитала, не с качеством модели. вертикальный AI масштабируется через людей и эксклюзивные данные, не через вирусный рост.

то есть парадокс с первый тейком - нанимать людей надо больше.
121👍7🤔1