Forwarded from Korenev AI - GPT в тапочках🩴
Как и обещал на выступлении, прикладываю ссылку на презу. В pptx - есть видео с демонстранцией. В pdf - отсутствует
Нежданчик от Gamma
Презентацию делал в Гамме. Экспортировал в паверпоинт за день до выступления. Вылез баг - размеры шрифтов заголовков на каждом слайде с картинками очень различаются. Видимо, Гамма автоматически подстраивает размер под объем контента. На сайте этот как-то было не сильно заметно, а вот в паверпоинте заиграло новыми красками
Пришлось поздно вечером форматировать всю презу.
На будущее буду сохранять из гаммы часть слайдов и допиливать их уже в паверпоинте. Чтобы все картинки были на одном уровне и шрифты не плясали.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Artem Ryblov’s Data Science Weekly
Machine Learning System Design Interview by Ali Aminian and Alex Xu
Machine learning system design interviews are the most difficult to tackle of all technical interview questions. This book provides a reliable strategy and knowledge base for approaching a broad range of ML system design questions. It provides a step-by-step framework for tackling an ML system design question. It includes many real-world examples to illustrate the systematic approach, with detailed steps you can follow.
This book is an essential resource for anyone interested in ML system design, whether they are beginners or experienced engineers. Meanwhile, if you need to prepare for an ML interview, this book is specifically written for you.
What’s inside?
- An insider’s take on what interviewers really look for and why.
- A 7-step framework for solving any ML system design interview question.
- 10 real ML system design interview questions with detailed solutions.
- 211 diagrams that visually explain how various systems work.
Table Of Contents
Chapter 1 Introduction and Overview
Chapter 2 Visual Search System
Chapter 3 Google Street View Blurring System
Chapter 4 YouTube Video Search
Chapter 5 Harmful Content Detection
Chapter 6 Video Recommendation System
Chapter 7 Event Recommendation System
Chapter 8 Ad Click Prediction on Social Platforms
Chapter 9 Similar Listings on Vacation Rental Platforms
Chapter 10 Personalized News Feed
Chapter 11 People You May Know
Links:
- Paper version
- Digital version
- Solutions
Navigational hashtags: #armknowledgesharing #armbooks
General hashtags: #mlsd #machinelearning #machinelearningsystemdesign
@data_science_weekly
Machine learning system design interviews are the most difficult to tackle of all technical interview questions. This book provides a reliable strategy and knowledge base for approaching a broad range of ML system design questions. It provides a step-by-step framework for tackling an ML system design question. It includes many real-world examples to illustrate the systematic approach, with detailed steps you can follow.
This book is an essential resource for anyone interested in ML system design, whether they are beginners or experienced engineers. Meanwhile, if you need to prepare for an ML interview, this book is specifically written for you.
What’s inside?
- An insider’s take on what interviewers really look for and why.
- A 7-step framework for solving any ML system design interview question.
- 10 real ML system design interview questions with detailed solutions.
- 211 diagrams that visually explain how various systems work.
Table Of Contents
Chapter 1 Introduction and Overview
Chapter 2 Visual Search System
Chapter 3 Google Street View Blurring System
Chapter 4 YouTube Video Search
Chapter 5 Harmful Content Detection
Chapter 6 Video Recommendation System
Chapter 7 Event Recommendation System
Chapter 8 Ad Click Prediction on Social Platforms
Chapter 9 Similar Listings on Vacation Rental Platforms
Chapter 10 Personalized News Feed
Chapter 11 People You May Know
Links:
- Paper version
- Digital version
- Solutions
Navigational hashtags: #armknowledgesharing #armbooks
General hashtags: #mlsd #machinelearning #machinelearningsystemdesign
@data_science_weekly
Forwarded from Дмитрий Колодезев
Machine-Learning-Systems-2025-11-04.pdf
40.9 MB
Материалов куча, все теплится надежда еще раз прочитать курс со всем новым, но пока некогда.
Из книг - вот прикольная
Из книг - вот прикольная
Forwarded from Дмитрий Колодезев
вот допматериалы к тому старому курсу https://kolodezev.ru/mlsystemdesign.html
kolodezev.ru
Курс по ML System Design
Курс по проектированию систем машинного обучения (ML System Design).
Forwarded from Dataism
📚👀Если кто-то хотел глянуть, как работать с dbt, то вот вам курс, случайно наткнулась на просторах youtube.
Хорошо, что все больше полезного материала появляется, потому что еще 3 года назад по dbt была только официальная дока и маленькие видосы, а тут прям курс:
https://youtu.be/JXBAkOvAu5A?si=GFhEn9Nj8QaFq8vN (пример 1го урока, не нашла собранного плейлиста, но вы умненькие и сообразите куда клацать)
По Clickhouse курс там же: https://youtu.be/aN7grWZq_7Y?si=JkjxlQAU85cUCtwq (пример 1го урока)
Еще в копилку для чтения добавила книжечку
Может кто-то читал уже? Как вам?
Хорошо, что все больше полезного материала появляется, потому что еще 3 года назад по dbt была только официальная дока и маленькие видосы, а тут прям курс:
https://youtu.be/JXBAkOvAu5A?si=GFhEn9Nj8QaFq8vN (пример 1го урока, не нашла собранного плейлиста, но вы умненькие и сообразите куда клацать)
По Clickhouse курс там же: https://youtu.be/aN7grWZq_7Y?si=JkjxlQAU85cUCtwq (пример 1го урока)
Еще в копилку для чтения добавила книжечку
Может кто-то читал уже? Как вам?
Forwarded from Ebout Data Science | Дима Савелко
Как вытащить БОЛЬ из рекрутера и техлида прямо сейчас Прямо сейчас на трансляции мы разбираем, как перестать быть «одним из 30» в очереди и начать диктовать свои условия. Но чтобы продать решение, нужно сначала понять, что у них болит
Не надо гадать на кофейной гуще - тут нужно просто спросить. Ловите вопросы, которые превратят ваш монолог в допрос для компании, после которой вы будете знать её боли лучше, чем сама компания знает свои
Здесь мы узнаем контекст. HR - твой союзник, он сольет тебе инфу, если правильно спросить.
«В чем сейчас главная боль команды? Какую задачу нужно "тушить" в первую очередь?»
«А какие задачи будут приоритетными для нового человека, чтобы усилить то направление, которым занимался предыдущий сотрудник?»
«Позиция новая или это замена? Если замена — чего не хватило прошлому сотруднику?»
«Каких конкретных результатов вы ожидаете от специалиста через 3 месяца после начала работы? Что будет критерием успешного прохождения испытательного срока?»
Здесь ты говоришь с носителем боли. Поговоришь с людьми, которые либо решают эту боль, или её испытывают.
«Расскажите, пожалуйста, как выглядит путь модели от идеи до продакшена? С какими основными сложностями (узкими местами) команда сталкивается при деплое сейчас?»
«Каково примерное соотношение времени, которое команда тратит на поддержку текущих решений и на разработку новых фичей/моделей?»
«Как у вас выстроен процесс работы с данными? Есть ли в команде выделенные дата-инженеры, или подготовка данных и построение пайплайнов полностью лежат на ML-разработчиках?»
«Много времени уходит на поддержку легаси-моделей?»
«Насколько чистые данные приходят? Сколько времени уходит на feature engineering, а сколько на обучение?»
Здесь смотрим, сработаемся ли мы по-человечески.
«На какие ключевые метрики бизнеса влияет работа вашей команды? Как именно эта роль помогает компании достигать глобальных целей?»
«Как у вас организован рабочий процесс? Как обычно ставятся задачи и как команда справляется с пиковыми нагрузками или срочными дедлайнами?»
«Опишите, пожалуйста, идеального кандидата для этой роли. Какими софтами должен обладать человек, чтобы максимально органично вписаться в вашу команду?»
«Основываясь на нашем разговоре, есть ли у вас какие-то сомнения относительно моего опыта или навыков, которые мы могли бы обсудить и прояснить прямо сейчас?»
Залетай на эфир, там сейчас самый сок - разбираем, как эти ответы превратить в оффер
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from декомпозиция и отвага
Ваши ожидания — ваши проблемы
А теперь к теме📝
Ошибкой, которая была допущена в этом кейсе, является
ожидание определенной последовательности обработки событий, поступающих из разных топиков.
Но если последовательность все же нужна, как её обеспечить?
Вот самые простые решения, подойдут для кейса с товарами👀
1️⃣ сделать все атрибуты таблицы кроме product_id необязательными, чтобы можно было создавать запись с неполным перечнем параметров по любому из событий. В этом случае, продумайте, как будет строиться отображение на фронте, чтобы недозаполненные товары там не светились.
2️⃣ объединяем процессы в один топик. Например, оставляем только ProductUpdatedEvent. В топике должна быть одна партиция или несколько, но партиционирование по ключу product_id. Тут учитывайте, что не все процессы, создающие и обновляющие одну сущность, можно схлопнуть в один топик. Могут быть разные сервисы-продюсеры и слишком далекие по смыслу события.
Тогда еще вот такие варианты👀
3️⃣ использовать временную таблицу в БД для случаев, когда апдейт пришел раньше события создания. При получении события создания, удалять запись из временной таблицы и создавать полную запись в основной.
4️⃣ использовать оркестратор
🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃 🙃
всё пойдёт по одному месту😭 😔 😭
🫡 -
❤️ -
💅 -
Продолжение поста про ошибки при создании карточек товара.
Кстати, огромное спасибо всем, кто участвовал в обсуждении!
Не ожидала такого вовлечения в технические дискуссии ранним пятничным утром☕️ 🛌 Вы крутые!
А теперь к теме
Ошибкой, которая была допущена в этом кейсе, является
ожидание определенной последовательности обработки событий, поступающих из разных топиков.
Никогда
! Ты слышишь меня?
Никогда
не рассчитывай на то, что асинхронные события придут в каком-то логичном с твоей точки зрения порядке. Они же про бизнес-процесс вообще ничего не знают. Знаешь ты.
Это твой дар и твое проклятие
🕸️
Но если последовательность все же нужна, как её обеспечить?
Вот самые простые решения, подойдут для кейса с товарами
Тогда еще вот такие варианты
Подходящий вариант обычно выбирается коллегиально: аналитик, разработчик, иногда еще и архитектор.
Для СА полезно знать, какие опции доступны, ну и всегда помнить о том, что на проде все события будут приходить в самом неожиданном порядке, а то и одновременно спасибо, теперь буду смотреть в оба
❤️ -
не работаю с таким, но было интересно узнать, как бывает
прошу выкладывать фотографии админа, а не Андрея Аршавина
#практика_и_отвагаPlease open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Статистика и R в науке и аналитике
Diff-in-Diff на самом деле
Вокруг методов квазиэкспериментов (diff-in-diff, regression discontinuity, Propensity Score Matching и тд), которые применяются в случае, когда A/B невозможен, есть некая атмосфера крутизны. Считается, что обычные A/B тесты это база, которую умеют делать все, а вот методы причинного вывода это реально сложно и интересно. Хотя все понимают (надеюсь), что с точки зрения валидности и надежности выводов правильно задизайненный и проведенный A/B тест опережает все вышеперечисленное. Все остальные квазиэксперименты это "A/B для бедных". Тем не менее, иногда действительно нет возможности провести A/B тест по разным причинам. Например, он технически невозможен или этически недопустим, однако эффект все равно оценить нужно, тогда без квазиэкспериментов никак.
У меня самой было в планах наконец-то разобраться с этими методами, так как это интересно, а еще про это любят спрашивать на собеседованиях 😏.
И вот оно: по работе возникла задача посчитать влияние уже внедренной фичи, которую запускали сразу на 100% без A/B (были на это причины). Это как раз типичный кейс применения diff-in-diff. Я обрадовалась возможности с этим разобраться на реальных данных (ооо наконец-то сложные методы), так что поставила задачку на себя и пошла читать статьи как это работает.
Оказалось, что аналитики в очередной раз назвали умными словами обычную линейную регрессию с двумя факторами и взаимодействием. Основная сложность метода не в формуле, а как обычно в наличии качественных данных и в умении правильно их приготовить. Например, нужно выбрать подходящую контрольную группу или построить синтетическую, проверить выполняются ли параллельные тренды до вмешательства, при необходимости добавить ковариаты, но это уже детали.
Общую идею метода неплохо объяснили в статье на хабре, но мне немного показалось, что в статье есть то самое "назвать простое сложным".
Сама формула:
Как видите, это обычная формула линейной регрессии с взаимодействием, где
β0 (Intercept) – значение интересующего показателя, например конверсии, в контрольной группе до воздействия.
β1 – значение показателя в тестовой группе до воздействия.
β2 – значение показателя в контрольной группе после воздействия.
β3 – тот самый эффект взаимодействия, Diff-in-Diff, дополнительное изменение конверсии в тестовой группе после воздействия по сравнению с контрольной группой.
Никакой сложной математики, старая добрая линейная регрессия в тренде 😎
Пример кода на🖥
Пример кода на🐍
Самое главное для применения метода подобрать подходящий контроль с соблюдением параллельности трендов до воздействия, а дальше сама формула занимает буквально две строчки. И необязательно делать вид, что это что-то супер сложное и крутое, потому что по сравнению с моделями, с которыми сталкиваются ученые, это совсем не рокет саенс🤓
Вот еще несколько полезных ссылок:
1) Статья из книги Causal Inference for the Brave and True
2) Небольшая заметка на kaggle
3) Хорошая статья от X5 на хабре
👇 В комментарии приложила пример кода для генерации подходящих под Diff-in-Diff данных на R и Python
#analytics #stats
Вокруг методов квазиэкспериментов (diff-in-diff, regression discontinuity, Propensity Score Matching и тд), которые применяются в случае, когда A/B невозможен, есть некая атмосфера крутизны. Считается, что обычные A/B тесты это база, которую умеют делать все, а вот методы причинного вывода это реально сложно и интересно. Хотя все понимают (надеюсь), что с точки зрения валидности и надежности выводов правильно задизайненный и проведенный A/B тест опережает все вышеперечисленное. Все остальные квазиэксперименты это "A/B для бедных". Тем не менее, иногда действительно нет возможности провести A/B тест по разным причинам. Например, он технически невозможен или этически недопустим, однако эффект все равно оценить нужно, тогда без квазиэкспериментов никак.
У меня самой было в планах наконец-то разобраться с этими методами, так как это интересно, а еще про это любят спрашивать на собеседованиях 😏.
И вот оно: по работе возникла задача посчитать влияние уже внедренной фичи, которую запускали сразу на 100% без A/B (были на это причины). Это как раз типичный кейс применения diff-in-diff. Я обрадовалась возможности с этим разобраться на реальных данных (ооо наконец-то сложные методы), так что поставила задачку на себя и пошла читать статьи как это работает.
Оказалось, что аналитики в очередной раз назвали умными словами обычную линейную регрессию с двумя факторами и взаимодействием. Основная сложность метода не в формуле, а как обычно в наличии качественных данных и в умении правильно их приготовить. Например, нужно выбрать подходящую контрольную группу или построить синтетическую, проверить выполняются ли параллельные тренды до вмешательства, при необходимости добавить ковариаты, но это уже детали.
Общую идею метода неплохо объяснили в статье на хабре, но мне немного показалось, что в статье есть то самое "назвать простое сложным".
Сама формула:
y = β0 + β1*treat + β2*post + β3*(treat × post) + ε
Как видите, это обычная формула линейной регрессии с взаимодействием, где
β0 (Intercept) – значение интересующего показателя, например конверсии, в контрольной группе до воздействия.
β1 – значение показателя в тестовой группе до воздействия.
β2 – значение показателя в контрольной группе после воздействия.
β3 – тот самый эффект взаимодействия, Diff-in-Diff, дополнительное изменение конверсии в тестовой группе после воздействия по сравнению с контрольной группой.
Никакой сложной математики, старая добрая линейная регрессия в тренде 😎
Пример кода на
# предварительно уже создан df, в комментарии пришлю как сгенерировать
model <- lm(y ~ treat*post, data = data)
summary(model)
Пример кода на
# предварительно уже создан df, в комментарии пришлю как сгенерировать
import statsmodels.formula.api as smf # ключевой import для работы с Diff-in-Diff
df['did'] = df['treat'] * df['post'] # создание переменной взаимодействия
model = smf.ols("y ~ treat + post + did", data=df).fit()
print(model.summary())
Самое главное для применения метода подобрать подходящий контроль с соблюдением параллельности трендов до воздействия, а дальше сама формула занимает буквально две строчки. И необязательно делать вид, что это что-то супер сложное и крутое, потому что по сравнению с моделями, с которыми сталкиваются ученые, это совсем не рокет саенс
Вот еще несколько полезных ссылок:
1) Статья из книги Causal Inference for the Brave and True
2) Небольшая заметка на kaggle
3) Хорошая статья от X5 на хабре
#analytics #stats
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ars Poetica Numeralis
Внезапный препринт про обход защиты (по генерации нежелательного контента) в современных LLM через переписывание промптов в поэтической форме:
Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models
https://arxiv.org/pdf/2511.15304
Цитата из абстракта:
TL/DR: Our central hypothesis is that poetic form operates as a general-purpose jailbreak operator
Пересказ на русском: https://www.ixbt.com/news/2025/11/23/pojeticheskij-dzhejlbrejk-stihi-okazalis-kljuchom-k-obhodu-ogranichenij-bolshih-jazykovyh-modelej.html
Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models
https://arxiv.org/pdf/2511.15304
Цитата из абстракта:
We present evidence that adversarial poetry functions as a universal single-turn jailbreak technique for Large Language Models (LLMs). Across 25 frontier proprietary and open-weight models, curated poetic prompts yielded high attack-success rates (ASR), with some providers exceeding 90%.
TL/DR: Our central hypothesis is that poetic form operates as a general-purpose jailbreak operator
Пересказ на русском: https://www.ixbt.com/news/2025/11/23/pojeticheskij-dzhejlbrejk-stihi-okazalis-kljuchom-k-obhodu-ogranichenij-bolshih-jazykovyh-modelej.html
Forwarded from Б/У ml
Коллеги, вы как боретесь с item cold start?
Сегодня расскажу про статью от Google: «Item-centric Exploration for Cold Start Problem»
На недавнем RecSys 2025 было много неплохих работ, которые зацепили сходу.
Сегодня хочу рассказать про простую идею, которую можно переиспользовать везде, где важна вероятность.
Например, для кандидатогенерации. В моем докладе про кросскат мы предсказываем не айтемы, а категории товаров. Для каждой категории находим вероятность и пропорционально ей семплируем уже айтемы из этой категории.
Проблемы рекомендательных систем:
Допустим, мы научились предсказывать вероятность клика/контакта от показа — но насколько такой вероятности можно доверять?
Если айтем новенький и по нему мало коллаборативных фичей-счетчиков, то модели ранжирования поставят его сильно ниже. Похожая ситуация и в кандидатогенерации.
Что предлагают авторы:
Давайте не показывать айтемы слепо. Посчитаем честную конверсию для айтема из показа в клик/контакт. Также у нас уже есть обученная модель ранжирования, которая предсказывает персональную вероятность клика S на айтем для конкретного пользователя.
Если персональная вероятность меньше, чем глобальная вероятность клика - 2 * std, то этот айтем можно не показывать пользователю — с большой вероятностью он ему не интересен.
Но получается, что мы уменьшаем пул айтемов, не предлагая ничего взамен?
Тут на арену выходят параметры alpha и beta. Когда мы считаем честную вероятность N+/N (N+ — положительное событие "клик/контакт", N — показы), мы можем добавить в числитель alpha, а в знаменатель — alpha + beta.
Таким образом, если у айтема было много N+, то alpha и beta не внесут большого вклада — мы уверены в истинной конверсии айтема.
Но если айтем холодный, то alpha и beta значительно скорректируют (повысят) его расчетную конверсию.
На картинке представлена полная картина: условия фильтрации (1), перерасчитанная конверсия (2) и поправка для оценки std (3).
Результат:
Метод позволяет без дополнительного обучения модели поднять выдачу для холодных айтемов.
Мои мысли:
Такую поправку очень легко использовать в современных индустриальных рекомендательных системах — расчет количества контактов/кликов и показов это уже решенная задача.
Для ранжирования можно дешево "прогревать" новые категории объявлений, не переобучая модель ранжирования, что обходится кратно дороже.
Для кандидатогенерации — чуть сложнее. Если брать в расчет вероятностные кандгены — например, на базе semantic ids, где можно посчитать вероятность на этапе инференса — то, добавив поправку, можно настроить количество свежих айтемов для пользователя. Для векторного отбора кандидатов — сложнее, так как вероятность будет известна уже после похода в БД за кандидатами.
Вот такие мысли по статье :)
Делитесь, как еще вы решаете cold-start проблему для айтемов.
Сегодня расскажу про статью от Google: «Item-centric Exploration for Cold Start Problem»
На недавнем RecSys 2025 было много неплохих работ, которые зацепили сходу.
Сегодня хочу рассказать про простую идею, которую можно переиспользовать везде, где важна вероятность.
Например, для кандидатогенерации. В моем докладе про кросскат мы предсказываем не айтемы, а категории товаров. Для каждой категории находим вероятность и пропорционально ей семплируем уже айтемы из этой категории.
Проблемы рекомендательных систем:
Допустим, мы научились предсказывать вероятность клика/контакта от показа — но насколько такой вероятности можно доверять?
Если айтем новенький и по нему мало коллаборативных фичей-счетчиков, то модели ранжирования поставят его сильно ниже. Похожая ситуация и в кандидатогенерации.
Что предлагают авторы:
Давайте не показывать айтемы слепо. Посчитаем честную конверсию для айтема из показа в клик/контакт. Также у нас уже есть обученная модель ранжирования, которая предсказывает персональную вероятность клика S на айтем для конкретного пользователя.
Если персональная вероятность меньше, чем глобальная вероятность клика - 2 * std, то этот айтем можно не показывать пользователю — с большой вероятностью он ему не интересен.
Но получается, что мы уменьшаем пул айтемов, не предлагая ничего взамен?
Тут на арену выходят параметры alpha и beta. Когда мы считаем честную вероятность N+/N (N+ — положительное событие "клик/контакт", N — показы), мы можем добавить в числитель alpha, а в знаменатель — alpha + beta.
Таким образом, если у айтема было много N+, то alpha и beta не внесут большого вклада — мы уверены в истинной конверсии айтема.
Но если айтем холодный, то alpha и beta значительно скорректируют (повысят) его расчетную конверсию.
На картинке представлена полная картина: условия фильтрации (1), перерасчитанная конверсия (2) и поправка для оценки std (3).
Результат:
Метод позволяет без дополнительного обучения модели поднять выдачу для холодных айтемов.
Мои мысли:
Такую поправку очень легко использовать в современных индустриальных рекомендательных системах — расчет количества контактов/кликов и показов это уже решенная задача.
Для ранжирования можно дешево "прогревать" новые категории объявлений, не переобучая модель ранжирования, что обходится кратно дороже.
Для кандидатогенерации — чуть сложнее. Если брать в расчет вероятностные кандгены — например, на базе semantic ids, где можно посчитать вероятность на этапе инференса — то, добавив поправку, можно настроить количество свежих айтемов для пользователя. Для векторного отбора кандидатов — сложнее, так как вероятность будет известна уже после похода в БД за кандидатами.
Вот такие мысли по статье :)
Делитесь, как еще вы решаете cold-start проблему для айтемов.
Forwarded from Быть CTO – подкаст о c-level карьере в айти
План выживания руководителя с новой командой
В новом выпуске мы с Мишей говорим про 5 фатальных ошибок, из-за которых отношения с командой могут не сложиться.
Реальный опыт: как заходить в новую команду, когда ты не самый сильный эксперт в техническом домене своей команды, но от тебя ждут решений.
Обсуждаем:
• почему опасно доказывать команде, что ты «тут самый умный»
• как не работать «в тумане», если у бизнеса нет внятной стратегии
• что делать, если ты еще не понимаешь продукт и код, а решения принимать нужно вчера
• как не превратить людей в «ресурсы» и при этом сохранять план и жёсткость
• почему попытка тащить всё одному ломает и тебя, и команду
Видео особенно зайдёт тем, кому:
• уже дали новую команду,
• вот-вот отдадут,
• или кто сейчас в роли тимлида/руководителя чувствует, что отношения с командой шаткие.
Смотреть на YouTube
Смотреть на VK Видео
В новом выпуске мы с Мишей говорим про 5 фатальных ошибок, из-за которых отношения с командой могут не сложиться.
Реальный опыт: как заходить в новую команду, когда ты не самый сильный эксперт в техническом домене своей команды, но от тебя ждут решений.
Обсуждаем:
• почему опасно доказывать команде, что ты «тут самый умный»
• как не работать «в тумане», если у бизнеса нет внятной стратегии
• что делать, если ты еще не понимаешь продукт и код, а решения принимать нужно вчера
• как не превратить людей в «ресурсы» и при этом сохранять план и жёсткость
• почему попытка тащить всё одному ломает и тебя, и команду
Видео особенно зайдёт тем, кому:
• уже дали новую команду,
• вот-вот отдадут,
• или кто сейчас в роли тимлида/руководителя чувствует, что отношения с командой шаткие.
Смотреть на YouTube
Смотреть на VK Видео