[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
YouTube
John Schulman on dead ends, scaling RL, and building research institutions
A conversation with John Schulman on the first year LLMs could have been useful, building research teams, and where RL goes from here.
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
❤6👍6🔥2
[2/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Telegram
Книжный куб
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
❤7👍5🔥2
Lovable - как выглядит работа с продуктом (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
🤖 UX платформы и взаимодействие с AI
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
⚙️ Дополнительные возможности AI-редактора
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9🔥5👍3
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
🧠 Наука (исследования и публикации)
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
🤑 Бизнес (рынок искусственного интеллекта)
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
📈 Стартапы и инвестиции
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
aireport.ru
AI Report - Индекс ИИ 2024
Альманах Искусственный Интеллект №14, Индекс ИИ 2024
❤3👍3🔥1
T-Hack Hardcore (Рубрика #Engineering)
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
❤7👍5🔥4🌚1
[2/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
🆘 Государственная поддержка
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
👩🎓 Образование и кадры
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
🎁 События и тенденции в России 2024 (мировые события 2024 года, приведенные в отчете я пропустил)
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (не факт, что прошенные )
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
👍4❤2🔥1
How we learn (Как мы учимся) (Рубрика #Brain)
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
1❤20👍6🔥5🙏1
How Claude Code Works - Как устроен Claude Code изнутри: разбор архитектуры от основателя PromptLayer, Jared Zoneraich (Рубрика #Agents)
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
✈️ Архитектура = один while-цикл + инструменты
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
🤖 Инструменты копируют поведение разработчика в терминале
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
🍬 Контекст-менеджмент через H2A и Compressor
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
💯 Простота > сложности
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Посмотрел интересный доклад с конференции AI Engineer Conference в Нью-Йорке, который сделал Джаред Зонерайх, основатель PromptLayer и человек, который видит тысячи промптов в день. Его платформа обрабатывает миллионы запросов к LLM, а команда переписала свою инженерную организацию вокруг Claude Code. Джаред не из Anthropic, но его инсайты - это результат dogfooding и анализа работы тысяч разработчиков. Главная мысль Джареда в том, что кодинг-агенты заработали не из-за сложной архитектуры, а благодаря её упрощению. Вместо RAG, векторных баз и сложных оркестраторов Anthropic пошли по пути "дайте модели инструменты и не мешайте". Если подробнее, то тезисы автора выглядят так3,
# n0 master loop
while (tool_call):
execute_tool()
feed_results_to_model()
Всё. Больше никаких ветвлений, подграфов и state machines. Модель сама решает, что делать дальше. Это N0-цикл внутри Claude Code.
- Bash - король всех инструментов. Модель может создать Python-скрипт, запустить его, посмотреть вывод, удалить. Это даёт гибкость тысяч утилит без кастомной разработки.
- Read/Grep/Glob - поиск как вы бы искали сами. Без векторных баз, просто grep и glob-паттерны.
- Edit - диффы вместо перезаписи файлов. Быстрее, дешевле по токенам, меньше ошибок.
- Todos - структурированное планирование через промпт, а не детерминированный код.
🗒 Todo-листы работают на честном слове
Система не форсит выполнение задач детерминированно. Вместо этого в системный промпт вставляется инструкция "одна задача за раз, отмечай выполненные". Модель просто следует инструкции — и это работает, потому что современные LLM хорошо понимают контекст.
- H2A (Half-to-Half Async) - двойной буфер для паузы/возобновления работы. Можете вмешаться mid-task без перезапуска.
- Compressor wU2 - срабатывает на ~92% заполнения контекста, суммирует середину, оставляя начало и конец. Это дает модели "место для размышлений" перед кризисом.
Джаред цитирует Zen of Python: "Simple is better than complex. Complex is better than complicated". Все попытки защитить модель от галлюцинаций через сложный scaffolding - это технический долг. Лучше дождаться улучшения модели и удалить лишний код.
В итоге, это все можно свести к простым советам:
1. Перестаньте over-оптимизировать. Если вы строите агентов и пишете костыли для работы с текущими моделями - вы тратите время. Лучше инвестировать в чистые промпты и простую архитектуру.
2. Bash как универсальный адаптер. Вместо написания кастомных инструментов для каждой задачи - дайте агенту доступ к shell. Все утилиты (ffmpeg, git, grep) уже есть в системе.
3. Prompt engineering > сложные системы. Файл CLAUDE.md с инструкциями эффективнее локальных векторных баз. Модель сама исследует репозиторий, если знает, что искать.
4. Готовьтесь к следующей волне. Если ваша команда еще не переписала workflow вокруг кодинг-агентов - вы отстаете. PromptLayer сделали правило: "если задача < 1 часа - делай через Claude Code, не планируй".
В общем, как говорит Джаред: "Less scaffolding, more model".
P.S.
Примерно про это же говорил Nik Pash, Head of AI в Cline в докладе "Hard Won Lessons from Building Effective AI Coding Agents", о котором я уже рассказывал
#AI #ML #Agents #Software #Engineering #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
How Claude Code Works - Jared Zoneraich, PromptLayer
Deep dive into what we have independently figured out about the architecture and implementation of Claude's code generation capabilities. Not officially endorsed by Anthropic.
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
Speaker: Jared Zoneraich | Founder & CEO, PromptLayer
https://x.com/imjaredz…
❤13👍11🔥3
Lovable - внутренние компоненты и как они работают вместе (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, пользовательский интерфейс и процесс работы, а сегодня расскажу про внутренние компоненты и их взаимодействие. Для меня эта часть особо интересна, так как она позволяет понять как можно повторить такую систему.
Оркестрация AI и компиляция кода
Серверная часть Lovable отвечает за координацию действий AI и обновление проекта. Когда пользователь отправляет очередной запрос (промпт) в чат, бэкенд формирует системное сообщение (prompt) для AI-модели, включающее всю необходимую контекстную информацию: текущее состояние файлов (или только релевантные фрагменты), логи ошибок, возможно, ранее сохранённые описания из папки /docs или Knowledge-базы, а также правила форматирования (
<lov-write> и т.д.). LLM-vодель генерирует ответ, содержащий как объяснения, так и блоки изменений кода. Платформа парсит эти блоки: для каждого <lov-write> она знает, какой файл изменить или создать. Далее происходит процесс применения патчей - ведь Lovable не всегда посылает модели весь исходник файла – вместо этого модель может вернуть часть кода с пометками // ... keep existing code на местах, которые не менялись. Специальный механизм (отдельный сервис или скрипт) берёт старую версию файла из репозитория, накладывает изменения из ответа AI, заменяя комментарии на исходный код, и сохраняет новую версию файла. Благодаря такому подходу большие файлы можно править точечно, не перегружая контекст модели лишним текстом. После обновления файлов тут же запускается процесс сборки проекта – вероятно, с помощью bundler (например, Vite или Webpack) или запуска dev-сервера. Lovable разворачивает проект в режиме, близком к npm run dev: мы видим результат мгновенно, а AI может вызывать
console.log в коде для отладки (модель поощряется вставлять логи для отслеживания работы функций). Эта связка “AI <-> сборка <-> превью” работает интерактивно. Стоит отметить, что Lovable ориентирован на веб-приложения (SPA) – он генерирует фронтенд, который обращается к Supabase через REST или SDK. Синхронизация и управление кодом
Каждый проект Lovable связан с системой контроля версий. При создании проекта платформа либо инициирует приватный репозиторий (например, в собственной облачной Git-службе), а также по запросу пользователя можно связать проект с GitHub. Все изменения, которые делает AI, коммитятся и сохраняются, так что можно просмотреть историю. Инструкция в README, которую генерирует Lovable, говорит: "Вы можете редактировать код в Lovable или в любимом IDE - просто клонируйте репозиторий. Изменения, отправленные в репозиторий, отобразятся и в Lovable".
Деплой и хостинг
Lovable упрощает и последний шаг - развертывание приложения. Для быстрого превью разработчик может воспользоваться хостингом от Lovable: при запуске деплоя приложение публикуется на домене *.lovable.app и становится доступно онлайн. По сути, это аналог статического хостинга: фронтенд билдится и заливается, а Supabase-интеграция даёт работающий бэкенд. Также платформа поддерживает развёртывание на сторонние сервисы. В официальном туториале, например, показывают деплой на Netlify. Но вообще, благодаря интеграции с Git, возможно настроить CI/CD как вам нравится и деплоить туда, куда вы хотите.
Расширение интеграций
Сейчас Lovable постепенно расширяет экосистему "коннекторов" для различных сервисов. Помимо Supabase, уже имеются шаблоны интеграции со Stripe (платежи), ElevenLabs (озвучивание), Shopify, Firecrawl (поиск в вебе), Perplexity AI. Это расширяет возможности сервиса - достаточно попросить "добавь оплату Stripe" или "встрои голосовой движок", и Lovable подтянет нужные пакеты, ключи и код. Внутренне это реализовано как библиотеки + знание модели о “правильном способе” интеграции (в системных правилах указано, как настроить Stripe, ChatGPT, Airtable и пр., и AI знает нужные паттерны).
#AI #Software #Engineering #Future #Architecture #Startup
👍15❤4🔥2
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале крупнейшей технологической революции. Стоимость интеллекта коллапсирует быстрее закона Мура, revenue AI-компаний растёт невиданными темпами, а продукты через 5 лет будут совсем другими.
Основные тезисы этого рассказа такие
1️⃣ Главный тезис: мы в начале революции
Андреессен проводит исторический экскурс: в 1930-х был выбор - строить компьютеры как вычислители (архитектура фон Неймана) или как нейросети (модель мозга). Выбрали первое, получили 80 лет классических компьютеров (от мейнфреймов до смартфонов). Нейросети оставались академической экзотикой - до момента ChatGPT (конец 2022). За последние три года после этого момента видно, что это больше интернета, это уровень микропроцессора/парового двигателя.
Для инженеров интересно, что буквально каждый месяц выходят прорывные исследования с новыми возможностями, которые казались невозможными. Продукты, которые мы строим сегодня, вероятно, устареют через 5 лет - всё станет навороченнее:)
2️⃣ Экономика: revenue взрывной, но и расходы растут - что упускают?
AI-компании растут быстрее всех, кого Андреессен видел (реальные деньги в банках, беспрецедентный takeoff). Но критика - "burn догоняет revenue". Его ответ в двух частях:
- Consumer AI
Интернет уже построен - 5–6 млрд человек онлайн, смартфоны по $10. AI можно "скачать", в отличие от электричества или водопровода - проблемы дистрибуции нет. Монетизация сильная, включая высокие тарифы ($200–300/мес стандарт — выше SaaS).
- Enterprise AI
Вопрос "сколько стоит интеллект?". Если AI поднимает уровень обслуживания, снижает churn, усиливает upsell продуктов - это прямой бизнес результат. Модель токены интеллекта за доллар, и цена AI падает быстрее закона Мура - получаем дефляцию затрат. Спрос растёт, затраы (GPU, чипы, датацентры) в будущем сократятся: сейчас триллионы долларов идут в инфраструктуру, а per-unit cost упадёт в будущем на фоне ввода этих мощностей под AI
3️⃣ Большие vs малые модели: структура как в индустрии компьютеров
Андреессен описывает как топовые модели (например, GPT-5) через 6–12 месяцев копируются малыми моделями с сопоставимой capability. Пример из последних недель: Kimi (китайская open-source модель) реплицирует reasoning GPT-5, но работает на 1–2 MacBook. Он дает прогноз, что индустрия структурируется как компьютерная - горстка "god models" (supercomputers в гигантских датацентрах) наверху, каскад малых моделей вниз, вплоть до embedded (в каждом физическом объекте). Большинство задач не требуют прорывных способностей - достаточно условных "120 IQ", не нужен "PhD по теории струн"
Если вы строите продукт, то можно выбирать между big/small, open/close - VC (и a16z) ставят на все стратегии сразу, потому что неясно, кто выиграет. Компании вроде Cursor используют 10–100 моделей параллельно.
4️⃣ Китай, open-source и глобальная гонка
Китайские компании (DeepSeek от хедж-фонда, Kimi, Qwen от Alibaba, Tencent, Baidu, ByteDance) выпустили open-source модели уровня frontier - с гораздо меньшими затратами ресурсов. Это подтверждает, что нет постоянного лидерства. xAI/Grok догнал OpenAI за <12 месяцев. В Китае 3–6 топовых AI-компаний, прогресс быстрый (несмотря на US санкции на чипы). Для инженеров это показывает, что open-weights меняет правила - можно взять Kimi/DeepSeek и развернуть локально (privacy, cost control).
5️⃣ Регулирование AI
Марк описал проблему того, что в USA пытаются регулировать AI на уровне штатов, по его мнению федеральное регулирование лучше, а законы на уровне штатов приведут к фрагментации как в EU (что затормозит инновации). Китай как мотиватор - США не может позволить отстать.
В продолжении я закончу рассказ про тезисы Марка о будущем AI.
#AI #ML #Trends #Software #Engineering #Future
YouTube
Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI
a16z cofounder Marc Andreessen joins an AMA-style conversation to explain why AI is the largest technology shift he has experienced, how the cost of intelligence is collapsing, and why the market still feels early despite rapid adoption. The discussion covers…
👍9❤5🔥2
[2/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Продолжая обзор выступления Марка поделюсь тезисами из второй части его рассказа.
6️⃣ Pricing: usage vs value-based
- Usage-based - идеально для стартапов (no upfront fixed costs), прозрачно
- Но вендоры хотели бы идти к value-based - процент от productivity (например, зарплаты инженера/врача). Есть эксперименты: процент от upsell/churn reduction в CRM
Интересно, что Марк объясняет, что высокие цены ($200–300/мес) - это не баг, а feature: они ускоряют R&D, снижают customer acquisition waste. AI-компании креативнее SaaS в pricing.
7️⃣ Инкумбенты vs стартапы: кто выигрывает?
Стартапы побеждают в приложениях/доменах (быстрее, фокусированнее), но новые incumbents (Anthropic, xAI) - тоже стартапы, догоняющие за <1 год. Приложения вроде Cursor не просто обертки - они строят свои модели (10–100+), backward integrate.
8️⃣ Подход a16z: инвестировать во все противоречивые стратегии
Когда у компании фундаментально открытые вопросы (big vs small, open vs closed) - это проблема (если угадают неправильно, то могут обанкротиться). У венчурных фондов есть преимущество: можно ставить на множество стратегий параллельно - "aggressively investing behind every strategy that has plausible chance"
9️⃣ Общество и рабочая сила: паника в опросах, adoption на практике
Опросы показывают панику ("AI убьёт работу"), но все используют AI. Прогноз Марка в том, что через 5–20 лет люди скажут "спасибо за AI" (как с электричеством/водопроводом). В общем, надо смотреть на adoption - 5 млрд пользователей онлайн, AI интегрируется везде: от поддержки пользователей до автономных машин.
Для создателей продуктов весь рассказ можно обобщить в такие тезисы
1. Мы в самом начале (3 года из 80) - продукты радикально эволюционируют.
2. Экономика AI улучшается (costs down, revenue up) - не бойтесь затрат, если есть реальный спрос.
3. Малые модели догоняют - можно строить без frontier infra.
4. Open-source меняет игру - Китай доказал, что можно с меньшими ресурсами.
5. Регулирование - риск №1 (следите за штатами/EU).
6. Pricing креативен - не ограничивайтесь SaaS-моделью.
7. Конкуренция жёсткая, permanent lead нет - скорость критична.
#AI #ML #Trends #Software #Engineering #Future
Telegram
Книжный куб
[1/2] Marc Andreessen's 2026 Outlook: AI Timelines, US vs. China, and The Price of AI (Рубрика #AI)
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
С большим интересом посмотрел рассказ Марка Андреессена из компании из компании Andreessen Horowitz (a16z), в котором он объясняет почему мы только в начале…
❤4🔥2👍1
Новогодние подарки и каникулы (Рубрика #Hardware)
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
На новый год моим детям Дед Мороз принес приставку PlayStation 5, в которую они с удовольствием рубились после возвращения с футбольных сборов, о которых я напишу отдельно. Я себе тоже купил дисков для приставки, но ... победила другая игрушка в виде Beelink GTR9 Pro AMD Ryzen™ AI Max+ 395. Очень уж хотелось локально позапускать модельки. У этой железки норм процессор и есть встроенный видеочип, а из 128 Gb унифицированной памяти можно отдать под видеопамять 96Gb (это максимальный показатель). Она выдает 126 TOPS производительности и в нее легко помещаются квантизованные модельки на 70 или 80 миллиардов, умельцы запихивают и OSS 120b от OpenAI, но у меня под Ubuntu 25.10 пока не взлетело (я знаю, что ROCm официально не поддерживается на Ubuntu не LTS, но в апреле выйдет уже 26 версия, куда я сразу перееду). Все это счастье стоит на Aliexpress в районе 200к рублей и доставляют его в Москве в течение пары дней. Отличная игрушка для разработчика:)
P.S.
Отдельно отмечу, что я был готов к проблемам с сетью - там два 10Gb Ethernet порта от Intel, что по сообщениям с форумов глючат. Но я планировал подключать по WiFi - в итоге, у меня инсталяция Ubuntu с включенным WiFi отваливалась после подключения сети. Я выяснил, что блок WiFi в этом компе (или драйвера к нему) пока нестабильные - решил проблему докупив Realtek донгл для WiFi и воткнул его в один из USB портов , теперь сеть работает норм.
#Hardware #Software #AI #Engineering #DevOps
🔥26😁5❤2👏2
[1/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)
Недавно я рассказывал про отчет Octoverse 2025 от GitHub, а дальше мне стало интересно глянуть на тренды за последние три года (с ChatGPT момента). Кажется, что это достаточный срок, чтобы увидеть изменения в процессах разработки, популярности инструментов, продуктивности инженеров и whatever else. Поэтому сегодня мы посмотрим на тренды из отчетов за года
- 2023 год - Octoverse: The state of open source and rise of AI in 2023
- 2024 год - Octoverse: AI leads Python to top language as the number of global developers surges
- 2025 год - Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1
Рост сообщества GitHub и объём разработки
За последние три года произошел бурный рост сообщества:
- В начале 2023 года количество зарегистрированных разработчиков на GitHub превысило 100 миллионов (рост ~26% год к году)
- В 2024 году темпы ускорились - за год на платформу пришло около 36 млн новых пользователей (в основном за счёт стран Азии, Африки и Латинской Америки)
- К октябрю 2025 года совокупное число разработчиков превысило 180 млн, что стало самым быстрым абсолютным ростом за всю историю GitHub. В среднем в 2025 году каждую секунду присоединялся как минимум один новый разработчик, что соответствует >36 млн новичков за год.
Репозитории и коммиты
Вместе с сообществом резко увеличился и объём разрабатываемого кода:
- В 2023 году на GitHub было зафиксировано порядка 4,5 млрд совокупных contributions (коммитов, пул-реквестов, комментариев и др.), из них ~4,2 млрд в приватных репо, а 0.31 млрд в публичных
- К 2024 году общий годовой вклад вырос до 5,2–5,6 млрд contributions, причём почти 1 млрд из них пришёлся на публичные проекты (видно, что вклад в публичные проекты вырос где-то в 3 раза, а в приватные остался +/- таким же)
- В 2025-м наблюдался новый рекорд: более 6 млрд contributions, в том числе 1,12 млрд - в open-source (рост +13% за год). Разработчики за 2025 год в сумме пушили около 1 млрд коммитов (+25% год к году), а среднее число слияний пул-реквестов достигло 43,2 млн в месяц (~519 млн за год, +23% год к году). Общее количество хостящихся на GitHub репозиториев достигло 630 млн к 2025 году против ~518 млн годом ранее.
Open-source vs private
Во все три года большая часть активности приходилась на частные репозитории.
- В 2023 около 80% всех вкладов было в приватных проектах
- В 2024 эта доля составила ~82% (4,3 млрд из 5,2 млрд)
- В 2025 –-около 81,5% (почти 5 млрд из 6 млрд)
Однако публичных репозиториев количественно больше: в 2025 году 63% всех проектов на платформе были публичными (≈395 млн открытых репозиториев, +72 млн за год). Это подчёркивает двойственную роль GitHub: активная повседневная работа идёт в частных репозиториях, но она во многом опирается на открытые библиотеки и фреймворки из open-source сообщества.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Недавно я рассказывал про отчет Octoverse 2025 от GitHub, а дальше мне стало интересно глянуть на тренды за последние три года (с ChatGPT момента). Кажется, что это достаточный срок, чтобы увидеть изменения в процессах разработки, популярности инструментов, продуктивности инженеров и whatever else. Поэтому сегодня мы посмотрим на тренды из отчетов за года
- 2023 год - Octoverse: The state of open source and rise of AI in 2023
- 2024 год - Octoverse: AI leads Python to top language as the number of global developers surges
- 2025 год - Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1
Рост сообщества GitHub и объём разработки
За последние три года произошел бурный рост сообщества:
- В начале 2023 года количество зарегистрированных разработчиков на GitHub превысило 100 миллионов (рост ~26% год к году)
- В 2024 году темпы ускорились - за год на платформу пришло около 36 млн новых пользователей (в основном за счёт стран Азии, Африки и Латинской Америки)
- К октябрю 2025 года совокупное число разработчиков превысило 180 млн, что стало самым быстрым абсолютным ростом за всю историю GitHub. В среднем в 2025 году каждую секунду присоединялся как минимум один новый разработчик, что соответствует >36 млн новичков за год.
Репозитории и коммиты
Вместе с сообществом резко увеличился и объём разрабатываемого кода:
- В 2023 году на GitHub было зафиксировано порядка 4,5 млрд совокупных contributions (коммитов, пул-реквестов, комментариев и др.), из них ~4,2 млрд в приватных репо, а 0.31 млрд в публичных
- К 2024 году общий годовой вклад вырос до 5,2–5,6 млрд contributions, причём почти 1 млрд из них пришёлся на публичные проекты (видно, что вклад в публичные проекты вырос где-то в 3 раза, а в приватные остался +/- таким же)
- В 2025-м наблюдался новый рекорд: более 6 млрд contributions, в том числе 1,12 млрд - в open-source (рост +13% за год). Разработчики за 2025 год в сумме пушили около 1 млрд коммитов (+25% год к году), а среднее число слияний пул-реквестов достигло 43,2 млн в месяц (~519 млн за год, +23% год к году). Общее количество хостящихся на GitHub репозиториев достигло 630 млн к 2025 году против ~518 млн годом ранее.
Open-source vs private
Во все три года большая часть активности приходилась на частные репозитории.
- В 2023 около 80% всех вкладов было в приватных проектах
- В 2024 эта доля составила ~82% (4,3 млрд из 5,2 млрд)
- В 2025 –-около 81,5% (почти 5 млрд из 6 млрд)
Однако публичных репозиториев количественно больше: в 2025 году 63% всех проектов на платформе были публичными (≈395 млн открытых репозиториев, +72 млн за год). Это подчёркивает двойственную роль GitHub: активная повседневная работа идёт в частных репозиториях, но она во многом опирается на открытые библиотеки и фреймворки из open-source сообщества.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
❤5👍2🔥1🙏1
Обложки книг O'Reilly (Рубрика #Humor)
Издательство O'Reilly знаменито тем, что последние годы издают свои книги с животными на обложке. Похожая тема есть у Manning Publishing, но там люди в странных костюмах из исторических книг. Но сегодня я заметил одну особенность в обложках книг, что нес на работу (одну я уже прочел, а вторую пока читаю). Обе книги посвящены теме AI, но левая - содержит слово engineering, поэтому на обложке условный рабоче-крестьянский бык, а вот правая посвящена продукту и на обложке неведомая хтонь. Мне кажется, что авторы на что-то намекают:))
#Engineering #Product #Management #Leadership #AI #Software
Издательство O'Reilly знаменито тем, что последние годы издают свои книги с животными на обложке. Похожая тема есть у Manning Publishing, но там люди в странных костюмах из исторических книг. Но сегодня я заметил одну особенность в обложках книг, что нес на работу (одну я уже прочел, а вторую пока читаю). Обе книги посвящены теме AI, но левая - содержит слово engineering, поэтому на обложке условный рабоче-крестьянский бык, а вот правая посвящена продукту и на обложке неведомая хтонь. Мне кажется, что авторы на что-то намекают:))
#Engineering #Product #Management #Leadership #AI #Software
😁37🙏3🤣1
[2/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)
Продолжим сравнительный разбор этих отчетов от GitHub обсуждение AI:)
Проекты с искусственным интеллектом
Здесь можно говорить про рост количества и проникновения.
- В 2023 году был дан взрывной старт ИИ-проектов. Количество проектов, связанных с генеративным ИИ, увеличилось на 248% по сравнению с 2022 годом. Уже к середине 2023-го число новых репозиториев с генеративным ИИ превысило итоговое значение всего 2022 года. Впервые такие проекты вошли в топ-10 самых популярных репозиториев по числу контрибьюторов (например, Stable Diffusion и LangChain). Кроме того, 2023 год стал переломным: open-source разработчики активно экспериментировали с моделями (OpenAI и другие), что выдвинуло ИИ-проекты из исследовательской ниши в мейнстрим. Число разработчиков, участвующих в генеритивных ИИ-проектах, выросло на 148% за год.
- В 2024 волна ИИ в разработке продолжила нарастать. На GitHub к концу 2024 г. насчитывалось около 137 000 публичных проектов, связанных с генеративным ИИ - почти двукратный рост (+98%) год к году. Объём вкладов в такие проекты тоже резко вырос: число совокупных contributions в ИИ-репозитории увеличилось на 59% по сравнению с предыдущим годом. Интересно, что 6 из 10 самых быстрорастущих open-source проектов по количеству контрибьюторов в 2024 году были связаны с инфраструктурой ИИ (модели, оркестрация, оптимизация). Это свидетельствует, что сообщество всё активнее вовлекается в разработку ИИ-инструментов, выходя за рамки одной лишь генерации кода.
- В 2025 ИИ-проекты уверенно перешли в категорию массовых. Всего на GitHub к 2025 г. насчитывалось ≈4,3 млн репозиториев, помеченных как связанные с ИИ (учитывая и приватные). Из них более 1,1 млн публичных репозиториев используют SDK больших языковых моделей (LLM), причём 693 тыс. таких проектов были созданы всего за последний год (+178% по сравнению с августом 2024). Другими словами, почти каждый четвёртый новый репозиторий в 2025 содержал ИИ/ML-компоненты. Более того, 60% из топ-10 самых популярных open-source проектов 2025 года (по числу участников) имеют ИИ-фокус.
В итоге можно сделать вывод о том, что с 2023 по 2025 год ИИ прошёл путь от экспериментального тренда до неотъемлемой части экосистемы разработки.
Внедрение ИИ-инструментов среди разработчиков
- В 2023 году 92% разработчиков так или иначе пробовали инструменты с ИИ для программирования (например, GitHub Copilot). Это указывает на почти полное проникновение ассистентов на базе ИИ в рабочие процессы разработчиков по всему миру. Кроме того, почти треть всех open-source проектов со звёздами на GitHub имела хотя бы одного мейнтейнера, использующего GitHub Copilot. GitHub предоставил бесплатный Copilot для поддерживающих OSS мейнтейнеров, и многие воспользовались этим: ИИ-автодополнение кода стало повсеместным помощником в open-source сообществе. Кажется, что это проникновение обусловлено тем, что Copilot был встроен в сам GitHub:)
- В 2024 году GitHub отметил, что более 1 000 000 студентов, преподавателей и open-source разработчиков воспользовались Copilot через бесплатную программу для образования и OSS. За год число таких пользователей выросло на 100%. В общем, ребята продолжили работать над расширением охвата Copilot внутри GitHib и начали прививать его новичкам с первых их дней на платформе.
- Выпуск GitHub Copilot Free в конце 2024-го привёл к заметному скачку регистраций и активности на платформе. В результате в 2025 году новые пользователи практически сразу начинают работать с ИИ: 80% разработчиков-новичков включали Copilot в работу в первую же неделю на GitHub. Иными словами, для нового поколения кодеров ИИ-ассистент стал ожидаемым по умолчанию инструментом. В итоге, в 2025 году почти каждый новичок сразу осваивает ИИ-кодогенерацию, закрепляя её роль как стандартной части рабочего процесса разработчика.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Продолжим сравнительный разбор этих отчетов от GitHub обсуждение AI:)
Проекты с искусственным интеллектом
Здесь можно говорить про рост количества и проникновения.
- В 2023 году был дан взрывной старт ИИ-проектов. Количество проектов, связанных с генеративным ИИ, увеличилось на 248% по сравнению с 2022 годом. Уже к середине 2023-го число новых репозиториев с генеративным ИИ превысило итоговое значение всего 2022 года. Впервые такие проекты вошли в топ-10 самых популярных репозиториев по числу контрибьюторов (например, Stable Diffusion и LangChain). Кроме того, 2023 год стал переломным: open-source разработчики активно экспериментировали с моделями (OpenAI и другие), что выдвинуло ИИ-проекты из исследовательской ниши в мейнстрим. Число разработчиков, участвующих в генеритивных ИИ-проектах, выросло на 148% за год.
- В 2024 волна ИИ в разработке продолжила нарастать. На GitHub к концу 2024 г. насчитывалось около 137 000 публичных проектов, связанных с генеративным ИИ - почти двукратный рост (+98%) год к году. Объём вкладов в такие проекты тоже резко вырос: число совокупных contributions в ИИ-репозитории увеличилось на 59% по сравнению с предыдущим годом. Интересно, что 6 из 10 самых быстрорастущих open-source проектов по количеству контрибьюторов в 2024 году были связаны с инфраструктурой ИИ (модели, оркестрация, оптимизация). Это свидетельствует, что сообщество всё активнее вовлекается в разработку ИИ-инструментов, выходя за рамки одной лишь генерации кода.
- В 2025 ИИ-проекты уверенно перешли в категорию массовых. Всего на GitHub к 2025 г. насчитывалось ≈4,3 млн репозиториев, помеченных как связанные с ИИ (учитывая и приватные). Из них более 1,1 млн публичных репозиториев используют SDK больших языковых моделей (LLM), причём 693 тыс. таких проектов были созданы всего за последний год (+178% по сравнению с августом 2024). Другими словами, почти каждый четвёртый новый репозиторий в 2025 содержал ИИ/ML-компоненты. Более того, 60% из топ-10 самых популярных open-source проектов 2025 года (по числу участников) имеют ИИ-фокус.
В итоге можно сделать вывод о том, что с 2023 по 2025 год ИИ прошёл путь от экспериментального тренда до неотъемлемой части экосистемы разработки.
Внедрение ИИ-инструментов среди разработчиков
- В 2023 году 92% разработчиков так или иначе пробовали инструменты с ИИ для программирования (например, GitHub Copilot). Это указывает на почти полное проникновение ассистентов на базе ИИ в рабочие процессы разработчиков по всему миру. Кроме того, почти треть всех open-source проектов со звёздами на GitHub имела хотя бы одного мейнтейнера, использующего GitHub Copilot. GitHub предоставил бесплатный Copilot для поддерживающих OSS мейнтейнеров, и многие воспользовались этим: ИИ-автодополнение кода стало повсеместным помощником в open-source сообществе. Кажется, что это проникновение обусловлено тем, что Copilot был встроен в сам GitHub:)
- В 2024 году GitHub отметил, что более 1 000 000 студентов, преподавателей и open-source разработчиков воспользовались Copilot через бесплатную программу для образования и OSS. За год число таких пользователей выросло на 100%. В общем, ребята продолжили работать над расширением охвата Copilot внутри GitHib и начали прививать его новичкам с первых их дней на платформе.
- Выпуск GitHub Copilot Free в конце 2024-го привёл к заметному скачку регистраций и активности на платформе. В результате в 2025 году новые пользователи практически сразу начинают работать с ИИ: 80% разработчиков-новичков включали Copilot в работу в первую же неделю на GitHub. Иными словами, для нового поколения кодеров ИИ-ассистент стал ожидаемым по умолчанию инструментом. В итоге, в 2025 году почти каждый новичок сразу осваивает ИИ-кодогенерацию, закрепляя её роль как стандартной части рабочего процесса разработчика.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Telegram
Книжный куб
[1/4] Сравнительный анализ Octoverse 2023–2025 от GitHub (Рубрика #OpenSource)
Недавно я рассказывал про отчет Octoverse 2025 от GitHub, а дальше мне стало интересно глянуть на тренды за последние три года (с ChatGPT момента). Кажется, что это достаточный…
Недавно я рассказывал про отчет Octoverse 2025 от GitHub, а дальше мне стало интересно глянуть на тренды за последние три года (с ChatGPT момента). Кажется, что это достаточный…
🔥2⚡1❤1