LOVED: How to Rethink Marketing for Tech Products (Loved. Продуктовый маркетинг по любви)
Дочитал эту книгу Мартина Лаученко на этих зимних каникулах (а начинал читать еще пару лет назад). Книга оставила у меня смешанные чувства - вроде и автор хороший и тема интересная, а книга читалась через силу. Вообще, Мартина - опытный эксперт, что когда-то участвовала в разработке и маркетинге Microsoft Word и Netscape Navigator, а сейчас является партнёром Silicon Valley Product Group. Интересно, что книга стала бестселлером среди книг о маркетинге технических продуктов, хотя в переводе названия эта нацеленность на технические продукты исчезла. Ключевые идеи книги такие
1️⃣ Отличный технологичный продукт сам по себе не гарантирует успеха - нужна продуманная маркетинговая стратегия. Лаученко объясняет, что продуктовый маркетинг - это стратегическая функция, формирующая восприятие продукта рынком.
2️⃣ Мартина выделяет четыре роли продуктувого маркетолога: амбассадор, стратег, сторителлер и евангелист. Эти роли последовательно связывают продукт с аудиторией: знакомят пользователей, формируют ожидания, “влюбляют” в продукт и вдохновляют рассказывать о нём другим. Если подробнее, то
- Ambassador - это "мост" между рынком и командой. Он помогает синхронизировать инсайты о пользователях/рынке внутрь компании и обратно, чтобы это реально влияло на решения: что строим, как упаковываем, как продаём. Это не "владелец" продукта/маркетинга, а именно амбассадор диалога: помогать команде слышать сигнал и корректировать курс.
- Strategist - отвечает за то, "куда идём через 12–18 месяцев". Эта роль про долгий горизонт: продуктовый маркетинг смотрит на то, кем вы должны стать для рынка, и что нужно сделать сегодня, чтобы рынок вас так воспринимал завтра (включая что строить, как упаковать, какой GTM-механикой идти)
- Storyteller - отвечает не просто за копирайтинг, а про управление тем, как рынок объясняет себе вашу ценность: это больше, чем "правильные слова". Очень практичная эвристика из интервью: объясняйте продукт так, будто разговариваете с умным восьмиклассником - это выбивает жаргон и заставляет докопаться до сути.
- Evangelist - эта роль "делает так, чтобы другие рассказывали за нас". В современном мире важнее то, что скажут другие, а не то, что вы скажете сами. Поэтому задача - вооружить людей "атомарными тезисами", которые легко пересказать: тезис, пример, ROI-история, короткая формула ценности.
3️⃣ Фокус на рынке, не только на продукт: книга учит начинать не с функций, а с реальных потребностей. Собирайте обратную связь от пользователей и держите в фокусе market-product fit (сначала понять нужды рынка, потом создавать решение). Иными словами, ценность продукта определяется готовностью рынка его принять, а не наоборот.
4️⃣ Go-to-Market как часть стратегии: план вывода на рынок нужно продумывать с первого дня, а не после релиза. В книге показано, как продукт обгонял конкурентов не за счёт новых фич, а благодаря лучшему позиционированию и истории о ценности. Например, сервис Pocket вырвался вперёд, сумев чётко донести, чем он полезнее альтернатив. Правильный нарратив способен переломить исход рыночной борьбы. Отдельно интересно рассказано про календарь для планирования релизов. Смысл в том, чтобы договориться, что релизы бывают разных "классов", и от класса зависит:
- Сколько заранее готовится маркетинг/сейлз/саппорт
- Какие активы нужны (доки, кейсы, сравнения, pricing/packaging)
- Какая “цель релиза” (тихий rollout vs попытка пробить новый сегмент)
Почему эту книгу интересно почитать инженерам и техническим руководителям?
Хотя книга о маркетинге, написана она для широкой аудитории технических специалистов - без перегрузки жаргоном. Инженерам Loved поможет взглянуть на свой продукт глазами рынка. Она даст техническим специалистам понимание, как соединить два мира - продукт и рынок. Разработчики узнают, как эффективно доносить ценность своих решений, выстраивать доверие пользователей и сотрудничать с маркетингом, чтобы их проекты не просто работали, но и становились любимыми.
#Marketing #Startup #Economics #Software #Engineering
Дочитал эту книгу Мартина Лаученко на этих зимних каникулах (а начинал читать еще пару лет назад). Книга оставила у меня смешанные чувства - вроде и автор хороший и тема интересная, а книга читалась через силу. Вообще, Мартина - опытный эксперт, что когда-то участвовала в разработке и маркетинге Microsoft Word и Netscape Navigator, а сейчас является партнёром Silicon Valley Product Group. Интересно, что книга стала бестселлером среди книг о маркетинге технических продуктов, хотя в переводе названия эта нацеленность на технические продукты исчезла. Ключевые идеи книги такие
1️⃣ Отличный технологичный продукт сам по себе не гарантирует успеха - нужна продуманная маркетинговая стратегия. Лаученко объясняет, что продуктовый маркетинг - это стратегическая функция, формирующая восприятие продукта рынком.
2️⃣ Мартина выделяет четыре роли продуктувого маркетолога: амбассадор, стратег, сторителлер и евангелист. Эти роли последовательно связывают продукт с аудиторией: знакомят пользователей, формируют ожидания, “влюбляют” в продукт и вдохновляют рассказывать о нём другим. Если подробнее, то
- Ambassador - это "мост" между рынком и командой. Он помогает синхронизировать инсайты о пользователях/рынке внутрь компании и обратно, чтобы это реально влияло на решения: что строим, как упаковываем, как продаём. Это не "владелец" продукта/маркетинга, а именно амбассадор диалога: помогать команде слышать сигнал и корректировать курс.
- Strategist - отвечает за то, "куда идём через 12–18 месяцев". Эта роль про долгий горизонт: продуктовый маркетинг смотрит на то, кем вы должны стать для рынка, и что нужно сделать сегодня, чтобы рынок вас так воспринимал завтра (включая что строить, как упаковать, какой GTM-механикой идти)
- Storyteller - отвечает не просто за копирайтинг, а про управление тем, как рынок объясняет себе вашу ценность: это больше, чем "правильные слова". Очень практичная эвристика из интервью: объясняйте продукт так, будто разговариваете с умным восьмиклассником - это выбивает жаргон и заставляет докопаться до сути.
- Evangelist - эта роль "делает так, чтобы другие рассказывали за нас". В современном мире важнее то, что скажут другие, а не то, что вы скажете сами. Поэтому задача - вооружить людей "атомарными тезисами", которые легко пересказать: тезис, пример, ROI-история, короткая формула ценности.
3️⃣ Фокус на рынке, не только на продукт: книга учит начинать не с функций, а с реальных потребностей. Собирайте обратную связь от пользователей и держите в фокусе market-product fit (сначала понять нужды рынка, потом создавать решение). Иными словами, ценность продукта определяется готовностью рынка его принять, а не наоборот.
4️⃣ Go-to-Market как часть стратегии: план вывода на рынок нужно продумывать с первого дня, а не после релиза. В книге показано, как продукт обгонял конкурентов не за счёт новых фич, а благодаря лучшему позиционированию и истории о ценности. Например, сервис Pocket вырвался вперёд, сумев чётко донести, чем он полезнее альтернатив. Правильный нарратив способен переломить исход рыночной борьбы. Отдельно интересно рассказано про календарь для планирования релизов. Смысл в том, чтобы договориться, что релизы бывают разных "классов", и от класса зависит:
- Сколько заранее готовится маркетинг/сейлз/саппорт
- Какие активы нужны (доки, кейсы, сравнения, pricing/packaging)
- Какая “цель релиза” (тихий rollout vs попытка пробить новый сегмент)
Почему эту книгу интересно почитать инженерам и техническим руководителям?
Хотя книга о маркетинге, написана она для широкой аудитории технических специалистов - без перегрузки жаргоном. Инженерам Loved поможет взглянуть на свой продукт глазами рынка. Она даст техническим специалистам понимание, как соединить два мира - продукт и рынок. Разработчики узнают, как эффективно доносить ценность своих решений, выстраивать доверие пользователей и сотрудничать с маркетингом, чтобы их проекты не просто работали, но и становились любимыми.
#Marketing #Startup #Economics #Software #Engineering
❤11👍3🔥2
Конструктор орбитальной станции
Где-то полгодика назад я купил себе конструктор с космической станцией, но никак не доходили руки его собрать. Но в каникулы я сделал над собой усилие и собрал его - теперь он стоит у меня в кабинете. А рядом с ним лего фигурки космонавта и Маленького Принца (в некотором роде тоже космического путешественника). В общем, выглядит стильно и мне нравится:)
Где-то полгодика назад я купил себе конструктор с космической станцией, но никак не доходили руки его собрать. Но в каникулы я сделал над собой усилие и собрал его - теперь он стоит у меня в кабинете. А рядом с ним лего фигурки космонавта и Маленького Принца (в некотором роде тоже космического путешественника). В общем, выглядит стильно и мне нравится:)
1👍17🔥10❤7
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software), а точнее о состоянии экосистемы разработки софта на GitHub. В 2025 году в отчете рассказывают про рекордный рост сообщества разработчиков в 2025 году и кардинальное влияние инструментов искусственного интеллекта на процесс разработки и выбор технологий.
Но начать стоит с методологии, так как она в отличие от многих других похожих отчетов основана не на опросах (что хорошо и позволяет оценить что происходит реально с репозиториями, кодом, разработчиками):
- Источник и период данных: отчет основан на анализе всех активностей пользователей на платформе GitHub за период с 1 сентября 2024 года по 31 августа 2025 (это так называемый Octoverse Year). Данные получены непосредственно из событий на платформе (коммиты, pull request’ы, issue и др.) – преимущественно из публичных репозиториев, если не оговорено иначе. Такой подход позволил сопоставлять метрики год к году с учётом сезонности (для трендов использовали сравнение одного и того же месяца в 2024 и 2025).
- Охват и размер выборки: тут тоже все здорово - отчет Octoverse опирается на всю популяцию разработчиков на GitHub, которых в 2025 году стало больше 180 миллионов (на 36 млн больше, чем годом ранее).
- Географическая представленность: данные отражают глобальное распределение разработчиков. Быстрее всего сообщество растёт в Азии и других развивающихся регионах, а Индия вышла на первое место по скорости добавления разработчиков (более 5.2 млн за год), а также на второе место по размеру сообщества (сразу после США).
- Отраслевая представленность: в конексте отчета разработчиком считают любого пользователя GitHub, связанный с созданием ПО. Отчёт охватывает как открытые проекты, так и корпоративные: хотя 81,5% всех зафиксированных вкладов пришлось на приватные репозитории (внутренние компании разработки), более 63% всех репозиториев на GitHub остаются публичными или open source. Иными словами, анализ учитывает и повседневную корпоративную разработку, и масштабную открытую экосистему, на которую она опирается.
- Дополнительные исследования: Отчёт носит количественный характер, основанный на телеметрии GitHub, а не на анкетировании. Однако авторы включили точечные качественные данные – например, серии интервью с разработчиками о практике ревью кода, чтобы оценить пользу нового инструмента GitHub Copilot Code Review. Результаты этих интервью встроены в анализ, например, 72,6% опрошенных отметили рост эффективности кода-ревью благодаря ИИ.
Ну а теперь, когда стало ясно почему отчет так интересен, стоит перейти к его результатами и ключевым выводам
👀 Основные показатели экосистемы Octoverse 2025
- Общее число проектов достигло 630 миллионов, AI-проектов – 4,3 млн, а разработчиков –-более 180 миллионов
- Количество публичных contributions (commits, PRs, gits, ...) - 1,12 млрд, в среднем 43,2 млн слияний pull request’ов в месяц (+23% г/г)
- Самыми популярными языками стали TypeScript и Python
Эти рекордные цифры отражают главные тренды 2025 года - беспрецедентный рост сообщества и широкое внедрение ИИ-технологий в разработку
Ну а в следующих постах мы обсудим ключевые результаты более подробно.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software), а точнее о состоянии экосистемы разработки софта на GitHub. В 2025 году в отчете рассказывают про рекордный рост сообщества разработчиков в 2025 году и кардинальное влияние инструментов искусственного интеллекта на процесс разработки и выбор технологий.
Но начать стоит с методологии, так как она в отличие от многих других похожих отчетов основана не на опросах (что хорошо и позволяет оценить что происходит реально с репозиториями, кодом, разработчиками):
- Источник и период данных: отчет основан на анализе всех активностей пользователей на платформе GitHub за период с 1 сентября 2024 года по 31 августа 2025 (это так называемый Octoverse Year). Данные получены непосредственно из событий на платформе (коммиты, pull request’ы, issue и др.) – преимущественно из публичных репозиториев, если не оговорено иначе. Такой подход позволил сопоставлять метрики год к году с учётом сезонности (для трендов использовали сравнение одного и того же месяца в 2024 и 2025).
- Охват и размер выборки: тут тоже все здорово - отчет Octoverse опирается на всю популяцию разработчиков на GitHub, которых в 2025 году стало больше 180 миллионов (на 36 млн больше, чем годом ранее).
- Географическая представленность: данные отражают глобальное распределение разработчиков. Быстрее всего сообщество растёт в Азии и других развивающихся регионах, а Индия вышла на первое место по скорости добавления разработчиков (более 5.2 млн за год), а также на второе место по размеру сообщества (сразу после США).
- Отраслевая представленность: в конексте отчета разработчиком считают любого пользователя GitHub, связанный с созданием ПО. Отчёт охватывает как открытые проекты, так и корпоративные: хотя 81,5% всех зафиксированных вкладов пришлось на приватные репозитории (внутренние компании разработки), более 63% всех репозиториев на GitHub остаются публичными или open source. Иными словами, анализ учитывает и повседневную корпоративную разработку, и масштабную открытую экосистему, на которую она опирается.
- Дополнительные исследования: Отчёт носит количественный характер, основанный на телеметрии GitHub, а не на анкетировании. Однако авторы включили точечные качественные данные – например, серии интервью с разработчиками о практике ревью кода, чтобы оценить пользу нового инструмента GitHub Copilot Code Review. Результаты этих интервью встроены в анализ, например, 72,6% опрошенных отметили рост эффективности кода-ревью благодаря ИИ.
Ну а теперь, когда стало ясно почему отчет так интересен, стоит перейти к его результатами и ключевым выводам
👀 Основные показатели экосистемы Octoverse 2025
- Общее число проектов достигло 630 миллионов, AI-проектов – 4,3 млн, а разработчиков –-более 180 миллионов
- Количество публичных contributions (commits, PRs, gits, ...) - 1,12 млрд, в среднем 43,2 млн слияний pull request’ов в месяц (+23% г/г)
- Самыми популярными языками стали TypeScript и Python
Эти рекордные цифры отражают главные тренды 2025 года - беспрецедентный рост сообщества и широкое внедрение ИИ-технологий в разработку
Ну а в следующих постах мы обсудим ключевые результаты более подробно.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
The GitHub Blog
Octoverse: A new developer joins GitHub every second as AI leads TypeScript to #1
In this year’s Octoverse, we uncover how AI, agents, and typed languages are driving the biggest shifts in software development in more than a decade.
❤8👍2🔥2
[2/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
Продолжая рассказ про очередной ежегодный отчет от GitHub о состоянии экосистемы разработки софта на платформе, расскажу подробнее про его результаты.
📈 Беспрецедентный рост сообщества
- Платформа пополнилась более чем 36 миллионами новых разработчиков - это самый высокий абсолютный рост за всю историю наблюдений
- азработчики создали около 121 млн новых репозиториев за год (до 630 млн всего)
- Число коммитов достигло почти 1 миллиарда в 2025 году (+25% к 2024)
- Ежемесячно сливалось порядка 43,2 млн pull request’ов (+23% к 2024)
Такая динамика совпала с запуском бесплатной версии GitHub Copilot в конце 2024, которая привлекла волну новых пользователей и проектов.
🤖 ИИ стал неотъемлемой частью разработки
Генеративный ИИ за год превратился из новинки в стандартный инструмент разработчика.
- На GitHub уже насчитывается порядка 4,3 миллиона репозиториев, связанных с AI (расчет через проставление тегов репозиториям и выделение части тегов как относящихся к AI проектам).
- Свыше 1,1 млн публичных проектов используют SDK для работы с большими языковыми моделями (LLM) - и 693 тыс. из них созданы всего за последние 12 месяцев (рост +178% год к году)
- Новички сразу внедряют AI в работу: почти 80% новых разработчиков начинают использовать автодополнение GitHub Copilot уже в первую неделю работы с кодом
Всё это подтверждает, что ИИ-инструменты теперь ожидаемы “по умолчанию” в среде разработчиков. Рост использования AI-средств сопровождается и ростом вклада в код: за год было слито рекордные 518,7 млн pull request’ов (+29% к предыдущему году), а общее число вкладов в открытые проекты превысило 1,12 млрд (+13% г/г).
🚀 TypeScript вышел на 1-е место среди языков
Впервые за последнее десятилетие сменился лидер по популярности языков программирования на GitHub: в августе 2025 года TypeScript обогнал Python (а также давнего лидера JavaScript) и стал самым используемым языком на платформе. Стремительный рост TypeScript обусловлен сразу двумя факторами
1. Современные фронтенд-фреймворки (React, Angular и др.) генерируют шаблоны проектов на TS по умолчанию
2. Команды всё чаще предпочитают строго типизированный код при использовании ИИ: развитая типизация TypeScript делает автосгенерированный AI-код более надежным
За год сообщество TypeScript выросло на ≈1,05 млн разработчиков (+66% г/г), тогда как Python прибавил ~850 тыс. (+48% г/г). Несмотря на потерю первого места, Python остаётся ключевым языком для задач ИИ и науки о данных - у него 2,6 млн активных контрибьюторов, а Jupyter Notebook по-прежнему служит основной средой экспериментов (≈403 тыс. репозиториев внутри AI-проектов). Совокупно сообщества TypeScript и Python теперь насчитывают >5,2 млн разработчиков (около 3% всех активных пользователей GitHub).
Такой сдвиг подтверждает: ИИ влияет не только на скорость кодинга, но и на выбор технологий - команды охотнее доверяют AI-сгенерированный код языкам со строгой типизацией, особенно для продакшн-систем.
💯 ИИ меняет предпочтения и практики разработки
Данные Octoverse указывают на явную связь между внедрением AI-инструментов и эволюцией стека технологий разработчиков
- Начиная с 2025 года, рост популярности Python идёт почти параллельно с JavaScript/TypeScript, что свидетельствует об универсальном влиянии ИИ на разные экосистемы - от веб-разработки до анализа данных.
- Появляются новые подходы к работе с кодом, такие как "vibe coding"
- AI-ассистенты заметно снизили порог входа: если ИИ продолжит упрощать создание ПО, число людей, способных “кодить”, может резко возрасти
- На горизонте эра автономных помощников (AI agents). Уже появились инструменты, которые могут самостоятельно сгенерировать код, запустить тесты и даже открыть pull request для проверки человеком
В заключении погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем выводы.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Продолжая рассказ про очередной ежегодный отчет от GitHub о состоянии экосистемы разработки софта на платформе, расскажу подробнее про его результаты.
📈 Беспрецедентный рост сообщества
- Платформа пополнилась более чем 36 миллионами новых разработчиков - это самый высокий абсолютный рост за всю историю наблюдений
- азработчики создали около 121 млн новых репозиториев за год (до 630 млн всего)
- Число коммитов достигло почти 1 миллиарда в 2025 году (+25% к 2024)
- Ежемесячно сливалось порядка 43,2 млн pull request’ов (+23% к 2024)
Такая динамика совпала с запуском бесплатной версии GitHub Copilot в конце 2024, которая привлекла волну новых пользователей и проектов.
🤖 ИИ стал неотъемлемой частью разработки
Генеративный ИИ за год превратился из новинки в стандартный инструмент разработчика.
- На GitHub уже насчитывается порядка 4,3 миллиона репозиториев, связанных с AI (расчет через проставление тегов репозиториям и выделение части тегов как относящихся к AI проектам).
- Свыше 1,1 млн публичных проектов используют SDK для работы с большими языковыми моделями (LLM) - и 693 тыс. из них созданы всего за последние 12 месяцев (рост +178% год к году)
- Новички сразу внедряют AI в работу: почти 80% новых разработчиков начинают использовать автодополнение GitHub Copilot уже в первую неделю работы с кодом
Всё это подтверждает, что ИИ-инструменты теперь ожидаемы “по умолчанию” в среде разработчиков. Рост использования AI-средств сопровождается и ростом вклада в код: за год было слито рекордные 518,7 млн pull request’ов (+29% к предыдущему году), а общее число вкладов в открытые проекты превысило 1,12 млрд (+13% г/г).
🚀 TypeScript вышел на 1-е место среди языков
Впервые за последнее десятилетие сменился лидер по популярности языков программирования на GitHub: в августе 2025 года TypeScript обогнал Python (а также давнего лидера JavaScript) и стал самым используемым языком на платформе. Стремительный рост TypeScript обусловлен сразу двумя факторами
1. Современные фронтенд-фреймворки (React, Angular и др.) генерируют шаблоны проектов на TS по умолчанию
2. Команды всё чаще предпочитают строго типизированный код при использовании ИИ: развитая типизация TypeScript делает автосгенерированный AI-код более надежным
За год сообщество TypeScript выросло на ≈1,05 млн разработчиков (+66% г/г), тогда как Python прибавил ~850 тыс. (+48% г/г). Несмотря на потерю первого места, Python остаётся ключевым языком для задач ИИ и науки о данных - у него 2,6 млн активных контрибьюторов, а Jupyter Notebook по-прежнему служит основной средой экспериментов (≈403 тыс. репозиториев внутри AI-проектов). Совокупно сообщества TypeScript и Python теперь насчитывают >5,2 млн разработчиков (около 3% всех активных пользователей GitHub).
Такой сдвиг подтверждает: ИИ влияет не только на скорость кодинга, но и на выбор технологий - команды охотнее доверяют AI-сгенерированный код языкам со строгой типизацией, особенно для продакшн-систем.
Данные Octoverse указывают на явную связь между внедрением AI-инструментов и эволюцией стека технологий разработчиков
- Начиная с 2025 года, рост популярности Python идёт почти параллельно с JavaScript/TypeScript, что свидетельствует об универсальном влиянии ИИ на разные экосистемы - от веб-разработки до анализа данных.
- Появляются новые подходы к работе с кодом, такие как "vibe coding"
- AI-ассистенты заметно снизили порог входа: если ИИ продолжит упрощать создание ПО, число людей, способных “кодить”, может резко возрасти
- На горизонте эра автономных помощников (AI agents). Уже появились инструменты, которые могут самостоятельно сгенерировать код, запустить тесты и даже открыть pull request для проверки человеком
В заключении погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем выводы.
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
❤4⚡1🔥1
[3/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В заключении разбора отчета от GitHub погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем заключительные выводы
🌐 Open source в эпоху ИИ: рост и новые лидеры
- Активность в открытых репозиториях достигла исторических максимумов. В 2025 году было зафиксировано 1,128 млрд вкладов в публичные и open source-проекты (+13% г/г). В целом на GitHub уже 395 млн открытых репозиториев (+20% г/г), а за год сообщество слило 518,7 млн pull request’ов в публичных проектах (+29% г/г).
- Бурный рост связан, в том числе, с ИИ-бумом: 6 из 10 самых быстрорастущих проектов года - это инструменты для ИИ-инфраструктуры (фреймворки для запуска моделей, оркестрации и т.п.). Например, vllm, ollama, ComfyUI, Continue и т.д.
- При этом 60% из топ-10 самых популярных репозиториев по числу контрибьюторов тоже связаны с ИИ – сообщество вкладывается в базовые AI-библиотеки и движки вроде HuggingFace Transformers, llama.cpp, а также в AI-функции популярных инструментов (например, OpenAI Codex для VS Code)
- Но open source-экосистема не ограничивается одной лишь сферой AI. Рядом с взлётом ИИ-проектов сохраняют сильные позиции и классические направления: например, открытый игровой движок Godot, домашняя IoT-платформа Home Assistant и фреймворк Expo для мобильной разработки стабильно входят в топ проектов по числу контрибьюторов
- Анализ показывает, что помимо ИИ, разработчики проявляют повышенный интерес к инструментам повышения эффективности
-- Средствам для детерминированной сборки и управления зависимостями (Nix, UV) – “чтобы код работал на любой машине”
-- Высокопроизводительным фреймворкам (Tailwind CSS, Ghostty) для получения быстрых результатов
-- К проектам, дающим больший контроль над средой (например, защищённые браузеры как Zen Browser)
- Продолжается и тренд на децентрализацию соцсетей: успех платформы Bluesky показывает спрос на открытые протоколы и независимость
🚀 ИИ повышает продуктивность разработки.
2025-й ознаменовался скачком продуктивности: по всем ключевым метрикам разработчики стали делать больше и быстрее, отчасти благодаря новым AI-инструментам. Ежемесячно на GitHub теперь
- Закрывается ≈4,25 млн issue (против ~3,4 млн в 2024)
- Слияний pull request’ов стало 43,2 млн (против ~35 млн в 2024)
- Объём коммитов увеличился с ~65 млн до 82 млн в месяц
Весной 2025, после запуска превью Copilot “coding agent” (март) и релиза Copilot Code Review (апрель), эти показатели резко пошли вверх. В марте разработчики закрыли на 1,4 млн issue больше, чем в феврале, а в июле 2025 было закрыто рекордные 5,5 млн issue за месяц. Сами разработчики подтверждают эффективность AI-помощников: по результатам интервью, 72,6% пользователей Copilot Code Review сообщили, что авто-рекомендации ИИ улучшили их процесс ревью кода. В целом, рост активности (на +25–30% г/г по разным сигналам) говорит о том, что ИИ-инструменты не только экономят время при написании кода, но и позволяют быстрее доводить задачи до завершения, снижая "трение" в командной работе.
В общем, из этого отчета видно, что
- Сообщество разработчиков растёт и меняется стремительнее, чем когда-либо, и одна из главных причин - интеграция AI в ежедневную практику программирования
- Искусственный интеллект уже стал стандартным помощником, ускоряя развитие проектов и влияя на выбор языков (первое место TypeScript во многом обязано AI-трендам).
- AI-проекты захватывают центр внимания в open source сообществе, но одновременно экосистема остаётся многообразной: наряду с ИИ, востребованы инструменты для надёжных сборок, производительности и свободы пользователей
Дальше будует еще веселее - по мере развития AI-инструментов мы уже видим с какой скоростью меняется индустрия разработки софта и профессии инженеров, технических руководителей, продуктовых менеджеров и т.д. Жить в эпоху технологических революций жутко интересно:)
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
В заключении разбора отчета от GitHub погорим про мир open source и влиянии AI на продуктивность разработки, а также приведем заключительные выводы
- Активность в открытых репозиториях достигла исторических максимумов. В 2025 году было зафиксировано 1,128 млрд вкладов в публичные и open source-проекты (+13% г/г). В целом на GitHub уже 395 млн открытых репозиториев (+20% г/г), а за год сообщество слило 518,7 млн pull request’ов в публичных проектах (+29% г/г).
- Бурный рост связан, в том числе, с ИИ-бумом: 6 из 10 самых быстрорастущих проектов года - это инструменты для ИИ-инфраструктуры (фреймворки для запуска моделей, оркестрации и т.п.). Например, vllm, ollama, ComfyUI, Continue и т.д.
- При этом 60% из топ-10 самых популярных репозиториев по числу контрибьюторов тоже связаны с ИИ – сообщество вкладывается в базовые AI-библиотеки и движки вроде HuggingFace Transformers, llama.cpp, а также в AI-функции популярных инструментов (например, OpenAI Codex для VS Code)
- Но open source-экосистема не ограничивается одной лишь сферой AI. Рядом с взлётом ИИ-проектов сохраняют сильные позиции и классические направления: например, открытый игровой движок Godot, домашняя IoT-платформа Home Assistant и фреймворк Expo для мобильной разработки стабильно входят в топ проектов по числу контрибьюторов
- Анализ показывает, что помимо ИИ, разработчики проявляют повышенный интерес к инструментам повышения эффективности
-- Средствам для детерминированной сборки и управления зависимостями (Nix, UV) – “чтобы код работал на любой машине”
-- Высокопроизводительным фреймворкам (Tailwind CSS, Ghostty) для получения быстрых результатов
-- К проектам, дающим больший контроль над средой (например, защищённые браузеры как Zen Browser)
- Продолжается и тренд на децентрализацию соцсетей: успех платформы Bluesky показывает спрос на открытые протоколы и независимость
2025-й ознаменовался скачком продуктивности: по всем ключевым метрикам разработчики стали делать больше и быстрее, отчасти благодаря новым AI-инструментам. Ежемесячно на GitHub теперь
- Закрывается ≈4,25 млн issue (против ~3,4 млн в 2024)
- Слияний pull request’ов стало 43,2 млн (против ~35 млн в 2024)
- Объём коммитов увеличился с ~65 млн до 82 млн в месяц
Весной 2025, после запуска превью Copilot “coding agent” (март) и релиза Copilot Code Review (апрель), эти показатели резко пошли вверх. В марте разработчики закрыли на 1,4 млн issue больше, чем в феврале, а в июле 2025 было закрыто рекордные 5,5 млн issue за месяц. Сами разработчики подтверждают эффективность AI-помощников: по результатам интервью, 72,6% пользователей Copilot Code Review сообщили, что авто-рекомендации ИИ улучшили их процесс ревью кода. В целом, рост активности (на +25–30% г/г по разным сигналам) говорит о том, что ИИ-инструменты не только экономят время при написании кода, но и позволяют быстрее доводить задачи до завершения, снижая "трение" в командной работе.
В общем, из этого отчета видно, что
- Сообщество разработчиков растёт и меняется стремительнее, чем когда-либо, и одна из главных причин - интеграция AI в ежедневную практику программирования
- Искусственный интеллект уже стал стандартным помощником, ускоряя развитие проектов и влияя на выбор языков (первое место TypeScript во многом обязано AI-трендам).
- AI-проекты захватывают центр внимания в open source сообществе, но одновременно экосистема остаётся многообразной: наряду с ИИ, востребованы инструменты для надёжных сборок, производительности и свободы пользователей
Дальше будует еще веселее - по мере развития AI-инструментов мы уже видим с какой скоростью меняется индустрия разработки софта и профессии инженеров, технических руководителей, продуктовых менеджеров и т.д. Жить в эпоху технологических революций жутко интересно:)
#AI #ML #Software #Architecture #Processes #DevEx #Devops #Metrics #Engineering #OpenSource #Architecture
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/3] Octoverse 2025: A new developer joins GitHub every second as AI leads TypeScript to #1 (Рубрика #Engineering)
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
В конце октября появился очередной отчет Octoverse от GitHub, где авторы рассказывают про состояние дел в мире OSS (Open Source Software)…
❤8👍2🔥2
[1/2] Архитектура платформы Lovable (Рубрика AI)
Раньше я уже рассказывал историю стартапа Lovable, что вырос в оценке с нуля до $6.6 млрд всего за один год. А в этой серии постов я хотел рассказать про то, что умеет этот продукт и как концептуально выглядит его архитектура. История собрана на основании публичных выступлений представителей компании (типа таких), а также утечек промптов навроде такой. Кроме того, можно почитать исходники проекта, с которого начинался Lovable, а именно gpt-engineer (и точечно промпты оттуда).
⚙️ Технологический стек и инфраструктура
Платформа Lovable генерирует полноценный исходный код веб-приложений и опирается на современные веб-технологии:
- На фронте используется React/TypeScript, а для стилизации по умолчанию применяется Tailwind CSS и блоки дизайн-системы на основе shadcn/ui (на базе Radix), а для иконок - lucide-react
- Для управления данными на клиенте встроены современные инструменты, например React Query (TanStack) для работы с серверными данными
- Генерируемый код следует принятым практикам: компоненты небольшие (до ~50 строк), приложение сразу адаптивное (responsive) и структурировано в духе атомарного дизайна Atomic Design
На бэкенде Lovable интегрируется с Supabase - это облачная платформа на базе PostgreSQL, которая
- Предоставляет базу данных
- Аутентификацию пользователей
- Хранение файлов и серверлесс-функции
Благодаря этой интеграции Lovable может автоматически создавать таблицы БД, настроивать авторизацию и даже развёртывать серверный код (например, обработчики оплаты или обращения к внешним API) в виде Edge Functions Supabase. Интересно, что не только Lovable хорошо получил денег на дальнейшее развитие, но и Supabase получил суммарно $300 млн (Series D + E) - я рассказывал про это при обзоре "Databases in 2025: A Year in Review by Andy Pavlo "
В итоге, архитектура приложения, создаваемого в Lovable, выглядит так: фронтенд на React/TypeScript/Tailwind/Atomic Desing + Supabase-бэкенд. Все это генерируется и настраивается AI в рамках единого процесса, без необходимости вручную поднимать что-то. Одновременно это можно опубликовать прямо на поддомене *.lovable.app (или кастомном домене) и пошарить пользователям. Для всего это не нужно обладать техническими знаниями - справится даже продакт.
Во втором посте я расскажу про агентскую архитектуру + инфраструктуру и устройство самой платформы.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Раньше я уже рассказывал историю стартапа Lovable, что вырос в оценке с нуля до $6.6 млрд всего за один год. А в этой серии постов я хотел рассказать про то, что умеет этот продукт и как концептуально выглядит его архитектура. История собрана на основании публичных выступлений представителей компании (типа таких), а также утечек промптов навроде такой. Кроме того, можно почитать исходники проекта, с которого начинался Lovable, а именно gpt-engineer (и точечно промпты оттуда).
Платформа Lovable генерирует полноценный исходный код веб-приложений и опирается на современные веб-технологии:
- На фронте используется React/TypeScript, а для стилизации по умолчанию применяется Tailwind CSS и блоки дизайн-системы на основе shadcn/ui (на базе Radix), а для иконок - lucide-react
- Для управления данными на клиенте встроены современные инструменты, например React Query (TanStack) для работы с серверными данными
- Генерируемый код следует принятым практикам: компоненты небольшие (до ~50 строк), приложение сразу адаптивное (responsive) и структурировано в духе атомарного дизайна Atomic Design
На бэкенде Lovable интегрируется с Supabase - это облачная платформа на базе PostgreSQL, которая
- Предоставляет базу данных
- Аутентификацию пользователей
- Хранение файлов и серверлесс-функции
Благодаря этой интеграции Lovable может автоматически создавать таблицы БД, настроивать авторизацию и даже развёртывать серверный код (например, обработчики оплаты или обращения к внешним API) в виде Edge Functions Supabase. Интересно, что не только Lovable хорошо получил денег на дальнейшее развитие, но и Supabase получил суммарно $300 млн (Series D + E) - я рассказывал про это при обзоре "Databases in 2025: A Year in Review by Andy Pavlo "
В итоге, архитектура приложения, создаваемого в Lovable, выглядит так: фронтенд на React/TypeScript/Tailwind/Atomic Desing + Supabase-бэкенд. Все это генерируется и настраивается AI в рамках единого процесса, без необходимости вручную поднимать что-то. Одновременно это можно опубликовать прямо на поддомене *.lovable.app (или кастомном домене) и пошарить пользователям. Для всего это не нужно обладать техническими знаниями - справится даже продакт.
Во втором посте я расскажу про агентскую архитектуру + инфраструктуру и устройство самой платформы.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥6⚡1
[2/2] Архитектура платформы Lovable (Рубрика AI)
Продолжая рассказ про архитектуру Lovable расскажу про агентский workflow + инфраструктуру и устройство самой платформы.
🤖 AI-движок и агентская архитектура
В основе Lovable – мощные модели генерации кода на естественном языке. Платформа использует несколько крупных языковых моделей (LLM) от ведущих провайдеров для кодогенерации(в 2025 году говорилось про модели от OpenAI и Anthropic). Особенностью Lovable является агентная архитектура AI (кстати: сам workflow можно увидеть в системном промпте, также полезно глянуть промпт с описанием инструментов)
- Система не просто дописывает код построчно, а воспринимает проект целиком и планирует решение прежде, чем писать код
- Сначала система анализирует запрос пользователя и формирует план приложения, затем пошагово генерирует фронтэнд, бэкэнд, API и даже документацию в соответствии с этим планом
Такой подход "смотрит на приложение в целом" позволяет получить согласованную архитектуру проекта и избежать ситуаций, когда AI ломается на середине задачи. Например, в этом обзоре отмечается, что Lovable способен из одного промпта создать полнофункциональный прототип (UI, база данных, авторизация, API) за считанные часы. Это стало возможным благодаря тому, что AI-агент “понимает” спецификацию целиком перед кодированием.
🚀 Инфраструктура платформы
- Сам сервис Lovable представляет собой облачное веб-приложение с собственным редактором и механизмом генерации кода. Фронтенд платформы (интерфейс, с которым работает пользователь) вероятно тоже написан на React/TS.
- Для хранения проектов и контроля версий Lovable использует интеграцию с Git-репозиториями. Каждому проекту соответствует репозиторий исходного кода: изменения, которые вносит AI, автоматически коммитятся, и пользователь при желании может подключить GitHub и синхронизировать проект для работы вне Lovable. Такая архитектура обеспечивает full code ownership: разработчик может в любой момент вывести код из платформы, продолжить работу локально и развернуть на своей инфраструктуре
- Масштабируемость обеспечивается за счёт вышеупомянутых облачных сервисов - Supabase берёт на себя хранение данных и выполнение серверных функций, а для хостинга фронтенда можно задействовать, например, Netlify или встроенный хостинг Lovable.
- Платформа генерирует проект как набор реальных файлов (включая package.json со всеми зависимостями, README и т.д.), поэтому развёртывание не требует проприетарного рантайма - код совместим с обычными Node.js-инструментами. В FAQ Lovable подчёркивается, что сгенерированный код продакшен-готов и следует лучшим практикам по масштабируемости, безопасности и поддерживаемости.
В будущем я еще расскажу про то, как выглядит процесс работы с Lovable и что происходит под капотом.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Продолжая рассказ про архитектуру Lovable расскажу про агентский workflow + инфраструктуру и устройство самой платформы.
В основе Lovable – мощные модели генерации кода на естественном языке. Платформа использует несколько крупных языковых моделей (LLM) от ведущих провайдеров для кодогенерации(в 2025 году говорилось про модели от OpenAI и Anthropic). Особенностью Lovable является агентная архитектура AI (кстати: сам workflow можно увидеть в системном промпте, также полезно глянуть промпт с описанием инструментов)
- Система не просто дописывает код построчно, а воспринимает проект целиком и планирует решение прежде, чем писать код
- Сначала система анализирует запрос пользователя и формирует план приложения, затем пошагово генерирует фронтэнд, бэкэнд, API и даже документацию в соответствии с этим планом
Такой подход "смотрит на приложение в целом" позволяет получить согласованную архитектуру проекта и избежать ситуаций, когда AI ломается на середине задачи. Например, в этом обзоре отмечается, что Lovable способен из одного промпта создать полнофункциональный прототип (UI, база данных, авторизация, API) за считанные часы. Это стало возможным благодаря тому, что AI-агент “понимает” спецификацию целиком перед кодированием.
- Сам сервис Lovable представляет собой облачное веб-приложение с собственным редактором и механизмом генерации кода. Фронтенд платформы (интерфейс, с которым работает пользователь) вероятно тоже написан на React/TS.
- Для хранения проектов и контроля версий Lovable использует интеграцию с Git-репозиториями. Каждому проекту соответствует репозиторий исходного кода: изменения, которые вносит AI, автоматически коммитятся, и пользователь при желании может подключить GitHub и синхронизировать проект для работы вне Lovable. Такая архитектура обеспечивает full code ownership: разработчик может в любой момент вывести код из платформы, продолжить работу локально и развернуть на своей инфраструктуре
- Масштабируемость обеспечивается за счёт вышеупомянутых облачных сервисов - Supabase берёт на себя хранение данных и выполнение серверных функций, а для хостинга фронтенда можно задействовать, например, Netlify или встроенный хостинг Lovable.
- Платформа генерирует проект как набор реальных файлов (включая package.json со всеми зависимостями, README и т.д.), поэтому развёртывание не требует проприетарного рантайма - код совместим с обычными Node.js-инструментами. В FAQ Lovable подчёркивается, что сгенерированный код продакшен-готов и следует лучшим практикам по масштабируемости, безопасности и поддерживаемости.
В будущем я еще расскажу про то, как выглядит процесс работы с Lovable и что происходит под капотом.
#AI #Software #Engineering #Future #Architecture #Startup #SystemDesign
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥5👍2
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель OpenAI и человек, предложивший RLHF (reinforcement learning from human feedback), технологию, лежащую в основе ChatGPT. Сейчас Джлн в Thinking Machines в роли chief scientist. В этом подкасте Джон делится инсайтами о том, как всё было устроено в OpenAI с 2016 года, что пошло не так, и куда движется reinforcement learning. Основные моменты интервью ниже
1️⃣ Speedrunning ChatGPT: могли бы сделать в 2018
Шульман считает, что с полным hindsight ChatGPT-3.5 можно было собрать ещё в 2018–2019 силами 2–3 человек на паре GPU-боксов. Секрет не в масштабе compute, а в умном post-training: правильный fine-tuning датасет компенсирует меньшую модель. Сравнивает с nanoGPT (один человек, один бокс, полгода). Вывод: масштабирование важно, но умные трюк > брут форса.
2️⃣ Ранний OpenAI
В 2016–2017 OpenAI был как академическая группа люди работали по 1–3 человека над whitepapers по своему вкусу. Например, был интересный проект Universe как попытка создать универсального RL-агента на сотнях видеоигр и веб-задач. Идея была правильной, но на 10 лет опередила время - тогда модели не генерализовались, система была неукдюжей. Позже пришли результаты в Dota и Procgen (эмуляция игр). Направление роботов тогда тоже было тупиковым, но полезным - оно прокачало команду на больших engineering-проектах и обучило людей системной работе.
3️⃣ Почему value functions не в моде?
В современном RLHF и verifiable rewards (даже на 10k+ токенов) функции ценности (value functions) не сокращают вариативность. Шульман ждёт их камбека, но пока Policy Gradient-методы побеждают на коротких горизонтах.[1]
4️⃣ Continual learning: long context + LoRA
По мнению Джона для непрерывного обучения нужны два фактора
1. In-context learning (long context) - для быстрого, short-horizon.
2. Parameter fine-tuning (LoRA) - для long-horizon knowledge, требующего ёмкости.
Scaling может решить проблему и без новых идей, но Шульман ждёт прорывов, которые сдвинут scaling laws.
5️⃣ Brittle generalization: люди vs модели
Модели круты in-context (как люди), но хуже на длинных горизонтах - застревают, где человек способен к само-коррекции. Почему? Люди заточены эволюцией на 80-летний таймлайн. Неясно, это временное или фундаментальное ограничение. Тестировать на десятилетия эквивалентно запуску evals на декады, что проблематично
6️⃣ Будущее reinforcement learning: GANs 2.0 и multi-agent игры
Шульман ждёт возврата идей из 2010-х:
- Co-training generators + verifiers (как GANs) - это про самоусиливайщийся цикл: лучше reasoning → лучше verifier → лучше generator.[1]
- Multi-agent games** (zero-sum/debate) - автоматический curriculum + теоретические гарантии из complexity theory (polynomial judge создаёт стимулы для сложных проблем (условно, NP-проблем)). Debate game от OpenAI/Anthropic - недооценённая идея.
В продолжении я расскажу про другие интересные тезисы, навроде подходов к руководству исследованиями или замедления получения прорывных результатов.
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
YouTube
John Schulman on dead ends, scaling RL, and building research institutions
A conversation with John Schulman on the first year LLMs could have been useful, building research teams, and where RL goes from here.
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
00:00 - Speedrunning ChatGPT
09:22 - Archetypes of research managers
11:56 - Was OpenAI inspired by Bell Labs?
16:54 -…
❤6👍5🔥2
[2/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Продолжая рассказ об этом крутом интервью, хочется рассказать о тезисах, что связаны с руководством исследовательскими командами, а также подсветить основные мысли, что показались мне полезными.
7️⃣ Как строить исследовательские команды: hands-on vs hands-off
Интересные размышления про архетипы руководителей исследований
- Hands-on (кодит, читает код, deep technical feedback) - он ориентирован на проекты для достижения целей, может рулить командами с начинающими специалистами, работает в режиме execution этого проекта
- Hands-off (работает как консультант, дает советы по карьере, мотивирует) - больше работает в формате exploratory research, а в команде должны быть senior люди
Но основной ключ в адаптивности - исследования меняются и что работало 7 лет назад, может не сработать сейчас. Ранний OpenAI был peacetime (exploratory), новые labs (Thinking Machines) - wartime (надо догнать SOTA (state of the art результаты) + выстроить исследовательскую культуру)
8️⃣ День из жизни исследователя
Шульман работает в кофейнях (шум вокруг + ноутбук + идеи), потом execution: код, review docs/plots/код коллег. Использует Cursor и Claude Code для кодинга, GPT-5 Pro для литературы/детализации идей/обратной связи по поводу написания. Совет от Джона: держите research notebook (ещё важнее с LLM для контекста)
9️⃣Замедление прогресса: 10x исследователей ≠ 10x идей
За 10 лет число ML-researchers выросло в 10–100x, но "consequential" идеи (типа scaling laws) не ускорились. Причины:
- Низковисящие результаты исчерпаны
- Выше уровень (больше baselines, экспериментов)
- Сдвиг типов: раньше был рисковые люди, а сейчас более традиционные (engineering > research taste)
Но качество растёт: старые papers (70–90-е) имели слабую строгость.
🔟 Thinking Machines: philosophy и Tinker
Новая лаборатория Шульмана. Философия не только в том, чтобы догнать SOTA, но и прокачать исследовательскую мышцу и заложить культур. У этой лабы уже есть инструмент Tinker - low-level API для fine-tuning (Python scripts без GPU hassle), для продвинутых ML-инженеров. План эволюционировать в full-stack продукт для менее продвинутых инженеров.
Мне показалось это интересным с разных сторон
1. Для лидеров тут есть идеи про переключение между hands-on и hands-off в зависимости от фазы проекта и зрелости людей
2. Для инженеров объяснение, что ИИ-лаборатории это не магия - в работе много тупиков, предвзятости и то, что культура важнее процессов.
3. Для исследователей есть мысли про возвращение RL (verifiers, multi-agent), про движение в сторону непрерывного обучения, а также про важность новых исследований даже во время работы законов масштабирования (которые говорят, что больше данных и больше GPU - лучше результат)
#Engineering #AI #Metrics #Software #Architecture #RnD #ML
Telegram
Книжный куб
[1/2] John Schulman on dead ends, scaling RL, and building research institutions (Рубрика #AI)
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
Посмотрел очередной эпизод подкаста "Cafe Cursor", в котором общались Michael Truell и John Schulman. Майкл - это со-основатель Cursor, а John - со-основатель…
❤7👍3🔥2
Lovable - как выглядит работа с продуктом (Рубрика #AI)
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
🤖 UX платформы и взаимодействие с AI
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
⚙️ Дополнительные возможности AI-редактора
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Я уже рассказывал про историю lovable и подход к архитектуре, а сегодня расскажу про то, как lovable популяризирует vibe-coding продуктов, когда вместо написания кода на языках программирования пользователь описывает желаемый функционал простым языком, а AI-инструмент генерирует программный код. Слоган платформы "No code. Just vibes." отражает идею, что для создания приложения достаточно сформулировать замысел и "атмосферу" продукта словами, остальное выполнит AI. Такой способ разработки особенно привлекателен для креативных непрограммистов (условных продуктовых менеджеров или основателей стартапов).
Интерфейс Lovable построен вокруг чат-коммуникации с AI-инженером. Пользователь создаёт новый проект и видит окно чата, куда можно ввести первый промпт с описанием приложения (например, какие страницы, какая функциональность нужны). AI проанализирует запрос и начнёт выдавать результат: он может отвечать частями, создавая код и описывая свои действия. Важно код генерируется и меняется в реальном времени – параллельно с общением. В рабочей области рядом с чатом отображается живой превью-приложения (iframe), которое автоматически перезагружается по мере добавления кода. Таким образом, пользователь буквально видит как его слова превращаются в работающий интерфейс.
Для инженеров в платформе есть возможность просматривать и редактировать исходный код напрямую - есть встроенный редактор кода с файловой структурой проекта, так что опытные разработчики могут вручную поправить что-то или изучить сгенерированный код. Но для разработчиков конечно интереснее возможность сделать двухстороннюю синхронизацию кода с GitHub и менять код своим привычным способом.
Lovable снабжён рядом инструментов, делающих "vibe-кодинг" более эффективным
1. AI-агент имеет доступ к консольным логам приложения - это позволяет замкнуть агенту обратную связь и обрабатывать ошибки из браузерной консоли. То есть, если сгенерированный код упал с ошибкой или что-то не работает, модель увидит трассировку и может сразу предложить исправление, дебаггая приложение в реальном времени
2. У пользователя есть возможность загружать в проект файлы (например, изображения) или подключать сторонние API-ключи, а AI умеет ими пользоваться
3. Платформа поддерживает режим “Custom Knowledge” – пользователь может предоставить собственные данные или документацию в базе знаний проекта, чтобы AI их учитывал. Например, можно добавить текстовый документ с описанием бизнес-логики или UI-гайдов, и модель будет обращаться к нему при генерации
Всё это превращает процесс разработки в диалог с "умным напарником": вы описываете задачу или проблему, AI предлагает решение, пишет код, объясняет свои действия.
♿️ Ограничения и лучшие практики
Хотя vibe-coding заметно ускоряет разработку, пользователям нужно научиться правильно формулировать запросы и разбивать работу на этапы. Разработчики отмечают, что чрезмерно общие или расплывчатые промпты могут привести к неудачным решениям и потребовать многократных исправлений. Лучший подход - чётко описывать требования и даже прописывать план (страницы, функции, данные) перед тем как просить AI писать код. Опыт показывает, что не стоит пытаться “завайбкодить” сразу всё приложение одним сообщением, особенно если там сложная бизнес-логика. В целом же vibe-кодинг в Lovable - это про быстрые итерации и взаимодействие: пользователь задаёт направление и оценивает результат, AI предлагает реализацию. Такой цикл может многократно повторяться (платформа не ограничена одним промптом - вы продолжаете диалог сколько нужно), благодаря чему даже сложные приложения рождаются через серию уточнений и улучшений, как если бы вы вели разговор с живыми разработчиками.
P.S.
Скетч на картинке не совсем повторяет интерфейс продукта - скорее он показывает как все части связаны между собой.
#AI #Software #Engineering #Future #Architecture #Startup
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥4👍3
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
🧠 Наука (исследования и публикации)
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
🤑 Бизнес (рынок искусственного интеллекта)
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
📈 Стартапы и инвестиции
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно. Я читаю эти отчеты, начиная с первого, и могу сказать, что они хорошо отображают среднее по больнице в академической среде, а также дают представление о игроках на рынке России. Правда, в этом отчете написано, что этот выпуск может стать последним в серии, но причины не уточняются. Сам отчет вышел относительно недавно (в сентябре 2025 года), но посвящен итогам предыдущего года (на тот момент это был 2024 год).
📄 Методология отчета
- Источники данных: отчет опирается на международные открытые базы, государственные реестры и отраслевые аналитические платформ. Кроме того, используются данные картографии ИИ-компаний (aiRussia.online) и отраслевого рейтинга вузов (rating.a-ai.ru).
- Охват и сбор данных: индекс охватывает основные сферы ИИ: науку, бизнес, стартапы, господдержку и образование (с детализацией по отраслям и регионам). Данные собирались из публикационных источников (статьи, конференции), от компаний (выручка, сегменты, сделки) и из госисточников (бюджетное финансирование, тендеры). Также проводились опросы экспертов: например, при составлении рейтинга вузов проанкетированы 170 компаний и ~10 000 студентов.
- Международный рейтинг: Россия поднялась на 12-е место в мире по числу публикаций в области ИИ (данные 2020–2024 гг.). Лидирует Китай (более 69 тыс. статей за 5 лет), российские ученые опубликовали более 2,8 тыс.
- Конференции A*: в 2024 году представлено 125 работ на топ-конференциях (A*) от российских авторов.
- Лидеры науки: основными центрами публикационной активности стали AIRI, Сколтех, НИУ ВШЭ и МФТИ, на их долю пришлось ~46% российских докладов на A*-конференциях 2024 г.
- Объем рынка: совокупный объем российского рынка ИИ в 2024 году составил ~1,15 трлн ₽, увеличившись примерно на 28% к 2023 г.
- Структура по направлениям: более половины рынка (≈61%) приходится на решения в сфере обработки естественного языка (NLP). Около 34% занимает аналитика данных для бизнеса. Доля всех остальных технологий (компьютерное зрение, робототехника, генеративные модели и др.) суммарно менее 5%.
- Компании и сегменты: в 2024 году насчитывается порядка 540 компаний, чья деятельность связана с ИИ. По числу фирм лидируют направления: компьютерное зрение (~81 компания), бизнес-аналитика (~68) и медицина (~60). Многие компании работают сразу в нескольких нишах; подробная карта ИИ-компаний доступна на сайте aiRussia.online.
- Регионы: AI-бизнес в РФ крайне сконцентрирован территориально: Москва и область – ~70% всех AI-компаний. Далее следуют Санкт-Петербург (~10%) и Татарстан (~3%, поднялся на 3-е место в 2024 г.). Остальные регионы пока существенно отстают по числу активных проектов.
- Венчурные сделки: объем венчурных инвестиций в российские AI-стартапы в 2024 г. составил около $39 млн (против $10 млн в 2023 г.). Рынок начал восстанавливаться после спада, хотя до рекордных уровней 2021 года еще далеко.
- Слияния и поглощения: в 2024 г. состоялось 11 M&A-сделок с AI-стартапами на сумму ~$33 млн, что значительно ниже предыдущего года ($148 млн). Однако в 2025 г. наблюдается оживление: крупные ИТ-холдинги возобновили поглощение разработчиков ИИ.
- Стадии раундов: основная часть инвестиций пришлась на поздние раунды. В 2024 г. ≈90% объема финансирования привлекли проекты на стадиях B+ (и позже). Доля посевных раундов упала до 3%, Series A – до 7%; почти половина – сделки M&A (выкуп долей). Таким образом, рынок второй год испытывает дефицит ранних инвестиций и зависимость от позднего финансирования.
Оставшиеся тезисы в посте-продолжении.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
aireport.ru
AI Report - Индекс ИИ 2024
Альманах Искусственный Интеллект №14, Индекс ИИ 2024
❤3👍2🔥1
T-Hack Hardcore (Рубрика #Engineering)
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
7 февраля пройдет конференция T-Sync Conf, в рамках которой пройдет закрытый инженерный хакатон для Senior+ команд.
Мы решили попробовать новый формат для тех, кто принимает архитектурные решения в проде. Там команды будут решать практические задачи по оптимизации высоконагруженной распределенной системы. Но надо будет не только решить проблемы реально работающей системы, но и презентовать свое решение на широкий круг участников. В общем, мы решили попробовать микс траблшутинга, проектирования, реализации изменений, а дальше обоснования своего решения, причем "правильных ответов" нет, но есть компромиссы и их обоснование.
Если говорить подробнее, то формат такой
- Только офлайн
- 5 команд по 3–5 человек
- Участие — по отбору через анкету
- Уровень участников: Senior / Staff / Principal
Участникам предстоит заняться
- Диагностикой инфраструктуры, архитектуры приложений и базы данных
- Проектированием и внедрение решений в условиях ограничений
- Демонстрацией эффективности решения на боевой инфраструктуре
- Представлением решения в виде презентации с достигнутыми результатами
Участникам будет доступно
- Исходный код системы
- Инфраструктурные конфигурации
- Метрики, логи, трейсинги и наблюдаемость
- Opensource‑стек, полностью открытый для анализа и модификации
Если говорить про технологический стек, то он будет +/- стандартным
- Backend: Java/Go, PostgtreSQL, Kafka, Kubernetes
- Docker Compose, Terraform, Ansible
- Различные балансировщики: Envoy, Nginx
- Публичные облака
Мы думаем, что формат может быть интересным для разных специалистов, среди которых
- Архитекторы распределённых систем
- Staff / Principal инженеры
- Senior‑инфраструктурные и backend‑инженеры
- SRE и специалисты по highload и low-latency системам
- Engineering-менеджеры с большим практическим опытом
В командах особенно важны backend-инженеры и SRE.
Участникам будут доступны следующие ништяки
- Команда-победитель получает 500 000 рублей
- Все участники получат публичное признание на конференции и фиксации авторства решения
- Все команды-участники получают доступ на закрытую вечеринку конференции
Как попасть?
- Команда заполняет короткую анкету (до 10 минут)
- Мы выбираем 5 команд по опыту и инженерному мышлению
🗓 Анкеты принимаем до 30 января (заполнить ее можно здесь), а результаты сообщим сразу после закрытия приема заявок.
Если знаете команду, которая реально тянет хардовую инженерную задачу - перешлите им это сообщение.
#Engineering #Metrics #Software #DevEx #DevOps #Architecture #Culture #Engineering #SystemDesign #Conference
❤5👍5🔥4
[2/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
🆘 Государственная поддержка
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
👩🎓 Образование и кадры
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
🎁 События и тенденции в России 2024 (мировые события 2024 года, приведенные в отчете я пропустил)
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (не факт, что прошенные )
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Продолжая обзор отчета про AI от центра компетенций по искусственному интеллекту МФТИ, расскажу про оставшиеся пункты.
- Бюджетные инвестиции: прямые госвложения в ИИ-проекты в 2024 г. оцениваются примерно в 7,5 млрд ₽ ежегодно, в рамках нацпроекта "Цифровая экономика" (фед. проект "Искусственный интеллект", завершенный к 2024 г.).
- Госзакупки ИИ: дополнительно через закупку ИИ-решений (ПО и услуги) инвестируется порядка 2,3 млрд ₽ в год. Таким образом, совокупный объем господдержки (бюджет + закупки) в 2024 г. достигает ~10 млрд ₽.
- Выпуск специалистов: по оценкам, около 5 400 выпускников 2024 года получили компетенции в сфере ML/DL. Основную часть этих кадров готовят ведущие университеты (МФТИ, ВШЭ, ИТМО, МГУ, СПбГУ). Для отслеживания качества подготовки Альянс ИИ публикует ежегодный рейтинг вузов (в 2025 г. охвачено 203 вуза).
- Несоответствие спроса и предложения: несмотря на рост числа выпускников, компании испытывают дефицит опытных кадров. Постоянно открыто >1000 вакансий в сфере ML/AI, но многие из них остаются незакрытыми. Парадокс в том, что количество молодых специалистов уже превышает эти вакансии, однако работодатели не готовы массово брать новичков без опыта. Требуются в первую очередь middle-инженеры, а университеты выпускают в основном junior-специалистов, часть из которых не может найти применение и уходит из индустрии.
- Отечественные модели: экосистема РФ отвечает на мировой тренд - Яндекс выпустил свою большую языковую модель YandexGPT 4. Также Альянс ИИ разработал открытый бенчмарк MERA для объективного сравнения возможностей русскоязычных LLM (знания, логика, этика и др.).
- Беспилотный транспорт: в 2024 г. Россия сделала шаг к автономной логистике – в пилотном проекте 30 грузовых роботрузовиков проехали по трассе М-11 «Нева» 3 млн км без аварий; теперь планируется расширение на новые дороги и увеличение парка до 90 машин.
- Международное сотрудничество: Российский Альянс ИИ выступил одним из инициаторов AI Alliance Network – глобального объединения 18 стран для координации развития и регулирования ИИ. Этот шаг призван ускорить обмен технологиями, совместные исследования и выработку единых этических норм с участием РФ на мировой сцене.
В конце были приведены выводы и рекомендации (
- Для вузов: повышать качество образования и ближе интегрировать его с индустрией. Вузы успешно нарастили выпуск, но "лишних" джуниоров рынок не поглощает. Необходимо усилить практику и участие работодателей в программах, чтобы выпускники получали прикладные навыки и быстрее росли до уровня middle.
- Для бизнеса: активнее вкладываться в развитие молодых кадров. Крупные компании сейчас нанимают гораздо меньше новичков, но рекомендуются обратные шаги: активнее нанимать перспективных выпускников и дообучать их до нужного уровня – такая инвестиция окупится подготовленными и лояльными сотрудниками.
- Для выпускников: реалистично оценивать ситуацию на рынке. Даже топ-выпускникам теперь сложнее сразу устроиться в AI-отделы, поэтому важно снижать завышенные ожидания, продолжать учиться (через онлайн-курсы, стажировки) и набирать опыт. Готовность начать с младших позиций и развиваться внутри компании значительно повысит шанс через 1–2 года перейти в middle-роль.
- Для государства: считать задачу увеличения числа ИТ-выпускников решенной и сосредоточиться на качестве кадров. Нужны меры стимулирования вузов к обновлению программ, развитие центров переподготовки и поддержка наставничества в компаниях. Без этого кадровый дефицит может только усилиться, тормозя реализацию стратегических инициатив по ИИ.
#AI #Engineering #Software #Economics #Whitepaper #ML #Future #Career
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Книжный куб
[1/2] Альманах "Искусственный интеллект" - 14 выпуск "Отчет Индекс-ИИ-2024" (Рубрика #AI)
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
С большим интересом прочитал 14 выпуск альманаха про AI от центра компетенций по искусственному интеллекту МФТИ, университета, из которого я выпустился давным-давно.…
👍3❤2🔥1
How we learn (Как мы учимся) (Рубрика #Brain)
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment
Я давно прочитал эту крутую книгу Станисласа Деана, но руки дошли написать про нее только сейчас. Станислас - один из ведущих когнитивных нейроученых мира, профессор Коллеж де Франс (Париж), который прославился исследованиями того, как мозг обрабатывает числа и текст, и стал автором нескольких известных книг о работе мозга и сознании. Как популяризатор, Деан умеет объяснять сложное простым языком и увлекательно рассказывать о тайнах мозга.
Если говорить про модель обучения, о которой он рассказывает в книге, то она очень инженерна по натуре. Если кратко, то мозг - это система, которая строит внутреннюю модель мира, постоянно предсказывает, сравнивает предсказания с реальностью и обновляет модель по сигналу ошибки. В лекции в Collège de France он описывает это как три шага: top‑down prediction → сравнение с входом → error signals → корректировка внутренней модели (это он связывает с идеей «байесовского мозга»). Из этой рамки вытекают ключевые концепции (и практики), которые он повторяет в книге
- Четыре столпа обучения
- Тестирование как часть обучения, а не "контроль"
- Пластичность мозга и "нейронный recycling"
Четыре столпа обучения, необходимых для обучения
1️⃣ Внимание (attention) = "гейт" обучения
Без внимания информация банально "не проходит" на глубокую обработку. Станислас ставит внимание рядом с вовлечением и быстрым фидбеком как с решающими факторами обучения. Инженерная интерпретация: если контекст постоянно рвётся (митинги/пинги/таск‑свитчинг), вы режете пропускную способность обучения.
2️⃣ Активное вовлечение (active engagement) = гипотезы, предсказания, любопытство
Ключевая идея в том, что пассивный организм не учится - мозг должен быть активным участником, генерировать ожидания/гипотезы и проверять их. Деан отдельно подчёркивает, что "активность" не равна "пусть сам всё откроет" (discovery learning). Нужна структурированная среда, но с постоянным вовлечением, вопросами, мини‑проверками. Ещё один нюанс: чтобы поддерживать вовлечение, задачи должны быть не слишком лёгкие и не слишком сложные — оптимальная зона сложности подпитывает интерес.
3️⃣ Ошибка и фидбек (error feedback) = двигатель обучения
У Деана очень сильный тезис в том, что обучение запускается, когда есть "сюрприз" - расхождение ожиданий и реальности. "Нет сюрприза — нет обучения". Отсюда практический вывод: ошибки - это информационный сигнал, а не повод для наказания. Наказание добавляет страх/стресс и снижает способность учиться. Инженерная аналогия: без loss/gradient система не обучается; без быстрых feedback loops вы "едете вслепую".
4️⃣ Консолидация (Consolidation) = автоматизация + сон
Консолидация у Деана - это постепенная автоматизация: знания "переносятся" из сознательной, усилием управляемой обработки в специализированные (в т.ч. неосознаваемые) цепи, освобождая ресурсы для новых задач. Сон - это важный фактор консолидации, в т.ч. через "переигрывание/реактивацию" дневных паттернов активности.
Отдельно он хорошо рассказывает про пластичность мозга и отношение к ошибкам.
Тестирование как часть обучения, а не "контроль"
Проверки знаний - это не только измерение, а механизм обучения. Деан приводит результаты, что простое перечитывание малоэффективно, а явное извлечение (testing) + быстрый фидбек по ошибкам работает лучше и помогает калибровать метакогницию (мы часто переоцениваем, как хорошо выучили).
Пластичность мозга и "нейронный recycling"
Деан не противопоставляет "врождённое vs приобретённое": мозг генетически структурирован, но пластичен, а обучение связано с перестройкой/стабилизацией синапсов. Его гипотеза в том, что культурные навыки (чтение, математика, и т.п.) переиспользуют существующие нейронные "ниши", поэтому форма обучения и "типичные трудности" во многом универсальны.
В общем, получилась отличная книга для тех, кто хочет эффективнее учиться сам или обучать других:)
#Brain #Learning #Thinking #SelfDevelopment