[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
🧠 Наука (исследования и публикации)
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
🤑 Бизнес (рынок искусственного интеллекта)
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
📈 Стартапы и инвестиции
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
aireport.ru
AI Report - Индекс ИИ 2024
Альманах Искусственный Интеллект №14, Индекс ИИ 2024
❤3👍3🔥1
T-Hack Hardcore (Рубрика #Engineering)
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
❤7👍5🔥4🌚1
[2/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
🆘 Государственная поддержка
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
👩🎓 Образование и кадры
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
🎁 События и тенденции в России 2024 (мировые события 2024 года, приведенные в отчете я пропустил)
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (не факт, что прошенные )
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
👍4❤2🔥1
How we learn (Как мы учимся) (Рубрика #Brain)
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
1❤20👍6🔥5🙏1
How Claude Code Works - Как устроен Claude Code изнутри: разбор архитектуры от основателя PromptLayer, Jared Zoneraich (Рубрика #Agents)
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
✈️ Архитектура = один while-цикл + инструменты
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
🤖 Инструменты копируют поведение разработчика в терминале
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
🍬 Контекст-менеджмент через H2A и Compressor
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
💯 Простота > сложности
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
# n0 master loop
while (tool_call):
execute_tool()
feed_results_to_model()
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
How Claude Code Works - Jared Zoneraich, PromptLayer
Deep dive into what we have independently figured out about the architecture and implementation of Claude's code generation capabilities. Not officially endorsed by Anthropic.
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
❤13👍11🔥3
Lovable - внутренние компоненты и как они работают вместе (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
<lov-write> и т.д.). LLM-vодель генерирует ответ, содержащий как объяснения, так и блоки изменений кода. Платформа парсит эти блоки: для каждого <lov-write> она знает, какой файл изменить или создать. Далее происходит процесс применения патчей - ведь Lovable не всегда посылает модели весь исходник файла – вместо этого модель может вернуть часть кода с пометками // ... keep existing code на местах, которые не менялись. Специальный механизм (отдельный сервис или скрипт) берёт старую версию файла из репозитория, накладывает изменения из ответа AI, заменяя комментарии на исходный код, и сохраняет новую версию файла. Благодаря такому подходу большие файлы можно править точечно, не перегружая контекст модели лишним текстом. После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
console.log в коде для отладки (модель поощряется вставлять логи для отслеживания работы функций). Эта связка “AI <-> сборка <-> превью” работает интерактивно. Стоит отметить, что Lovable ориентирован на веб-приложения (SPA) – он генерирует фронтенд, который обращается к Supabase через REST или SDK. Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
👍14❤4🔥2
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
YouTube
Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI
a16z cofounder Marc Andreessen joins an AMA-style conversation to explain why AI is the largest technology shift he has experienced, how the cost of intelligence is collapsing, and why the market still feels early despite rapid adoption. The discussion covers…
👍8❤5🔥2
[2/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Telegram
Книжный куб
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
❤3🔥2👍1
Новогодние подарки и каникулы (Рубрика #Hardware)
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
🔥24😁5❤2👏2