Заскуль питона (Data Science)
Где практиковать SQL? 😮 Давно не было постов вообще про SQL. Не знаю даже почему, хотя самый важный инструмент в нашей работе. Представьте, что вы прошли какие-то курсы, примерно понимаете как все решать, знаете основные концепции, но хочется потрогать задачи…
Вы набрали достаточное количество реакций, поэтому привожу 1 кейс - это когортный анализ в SQL.
☕️ Этот подход важен, когда нужно понять, что происходит с пользователями спустя какое-то время после их взаимодействия с продуктом. Например, они пользуются новой фичей или заходят в продукт через 1, 7, 14, 30 дней после регистрации? Когортный анализ помогает ответить на такие вопросы.
🍪 🍪 Пример задачи
Допустим, у вас есть продукт, где пользователи регистрируются и совершают действия. Нужно определить, сколько пользователей из каждой когорты (группы, зарегистрированной в один день) возвращаются через разные промежутки времени.
🤔 Что сделаем?
1. Разделим пользователей на когорты по дате регистрации.
2. Посчитаем, сколько пользователей из каждой когорты совершили хотя бы одно действие через 0, 1, 7, 14 и 30 дней.
3. Рассчитаем удержание в процентах относительно размера когорты.
😱 Что делает этот запрос?
🐸 Рассчитываем удержание (retention_rate) как процент активных пользователей от общего числа зарегистрированных в когорте.
Можно выявить, как изменения в продукте (новая фича, интерфейс) влияют на удержание пользователей. Если retention сильно падает после первых дней, это сигнал, что пользователи теряют интерес или сталкиваются с трудностями.
Обратная задача рассчитать Churn Rate, нужно просто сделать 1 - Retention Rate
Если наберется 100🐳 , выложу еще пост с практическим применением SQL, есть еще что рассказать 🔥
Допустим, у вас есть продукт, где пользователи регистрируются и совершают действия. Нужно определить, сколько пользователей из каждой когорты (группы, зарегистрированной в один день) возвращаются через разные промежутки времени.
1. Разделим пользователей на когорты по дате регистрации.
2. Посчитаем, сколько пользователей из каждой когорты совершили хотя бы одно действие через 0, 1, 7, 14 и 30 дней.
3. Рассчитаем удержание в процентах относительно размера когорты.
with cohort_base as (
select
u.user_id,
date(u.registration_date) as cohort_date,
datediff(e.event_date, u.registration_date) as days_since_registration
from users u
left join events e
on u.user_id = e.user_id
where e.event_date is not null
),
cohort_activity as (
select
cohort_date,
days_since_registration,
count(distinct user_id) as active_users
from cohort_base
where days_since_registration between 0 and 30
group by cohort_date, days_since_registration
),
cohort_size as (
select
date(registration_date) as cohort_date,
count(distinct user_id) as cohort_size
from users
group by cohort_date
)
select
ca.cohort_date,
ca.days_since_registration,
round(ca.active_users * 100.0 / cs.cohort_size, 2) as retention_rate
from cohort_activity ca
join cohort_size cs
on ca.cohort_date = cs.cohort_date
order by ca.cohort_date, ca.days_since_registration;
cohort_base
- объединяем таблицу пользователей и таблицу событий, чтобы определить, на какой день с момента регистрации пользователь совершил событие.cohort_activity
- считаем количество уникальных пользователей, которые были активны через 0, 1, 7, 14 и 30 дней после регистрации, для каждой когорты.cohort_size
- определяем размер каждой когорты — количество пользователей, зарегистрировавшихся в конкретный день.Можно выявить, как изменения в продукте (новая фича, интерфейс) влияют на удержание пользователей. Если retention сильно падает после первых дней, это сигнал, что пользователи теряют интерес или сталкиваются с трудностями.
Обратная задача рассчитать Churn Rate, нужно просто сделать 1 - Retention Rate
Если наберется 100
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳85 5 5👍3🤓2🤷♂1🤷1
Заскуль питона (Data Science)
Вы набрали достаточное количество реакций, поэтому привожу 1 кейс - это когортный анализ в SQL. ☕️ Этот подход важен, когда нужно понять, что происходит с пользователями спустя какое-то время после их взаимодействия с продуктом. Например, они пользуются новой…
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁20 4🔥2
Формат:
🆎 Пост про дизайн экспериментов. Про какие-то статьи. Хочу понять, почему так считаем.
Чем лучше описано то, что хотите видеть, тем легче для меня и это будет в рамках ваших ожиданий
Можно накидать под этот пост комментариев на несколько недель вперед, возьму в соответствующий спринт
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10🐳4 2❤🔥1 1
Заскуль питона (Data Science) pinned «🍪 🍪 Понравился формат, когда спрашиваю про то, о чем хотите видеть посты. Давайте постараемся внедрить. О чем пишем на следующей неделе? Выберу среди топа залайканных комментариев. Формат: 💻 Пост про какую-то область в ML, практические кейсы в работе аналитика…»
Всем привет!
Хочу порекомендовать вам канал Start Career in DS - один из самых крупных каналов с материлами по DS и смежным темам
👉 Автор канала Рома Васильев руководит отделом аналитики международного поиска Яндекса, преподаёт на "Karpov.сourses", на ФКН Вышки и в Центральном Университете Т-Банка 👨🎓
В канале вы можете найти полезные материалы для изучения и подготовки к собеседованиям:
🦾 Классический ML – база: справочник основных алгоритмов
👨🏫 Что ботать, чтобы пройти на стажировку аналитиком в Яндекс?
🤖 Модели перевернувшие NLP: как устроен Transformer
📚Deep Learning: теоретический справочник по базовым концепциям
Подписывайтесь, ребята делают достойный контент 🙂
Хочу порекомендовать вам канал Start Career in DS - один из самых крупных каналов с материлами по DS и смежным темам
👉 Автор канала Рома Васильев руководит отделом аналитики международного поиска Яндекса, преподаёт на "Karpov.сourses", на ФКН Вышки и в Центральном Университете Т-Банка 👨🎓
В канале вы можете найти полезные материалы для изучения и подготовки к собеседованиям:
🦾 Классический ML – база: справочник основных алгоритмов
👨🏫 Что ботать, чтобы пройти на стажировку аналитиком в Яндекс?
🤖 Модели перевернувшие NLP: как устроен Transformer
📚Deep Learning: теоретический справочник по базовым концепциям
Подписывайтесь, ребята делают достойный контент 🙂
Telegram
Start Career in DS
Тут публикуются материалы для прокачки скиллов в DS и подготовки к собеседованиям.
Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
Автор: @RAVasiliev
№ 5141779667
Пишем про технические тулзы, визуализацию данных, бизнесовые задачи, разбираем ML-алгоритмы и обсуждаем смежные темы :)
Автор: @RAVasiliev
№ 5141779667
❤9🔥5😱4
Дизайн 🆎 экспериментов и почему это важно.
😱 Ранее я считал, что важнее всего подводить итоги, но как оказалось не только. Дизайн эксперимента подразумевает определенную структуру, комплекс действий, направленных для корректного запуска и последующего анализа эксперимента. Подразумевается, что разметка уже готова (более подробно хочу рассказать в следующих постах).
🎄 При проектировании A/B эксперимента учитывайте сезонность, например, в Новый Год пользователи могут вести себя по-другому
💡 Нужно определиться с гипотезой. Проводя A/B тестирование, мы всегда говорим о постановке различных гипотез, как на языке бизнеса (в понятном для всех формате), так и на языке статистики, когда говорим про нулевые и альтернативные гипотезы. Важно понимать, что от гипотезы зависит многое. По сути, как мы дальше будем интерпретировать различные варианты.
🙅♂️ Риски. Какие могут быть риски для компании? Если что-то резонирующее, которое сразу улетит в СМИ - тест можно перезапускать, можем получить при анализе невалидные результаты. Например, если мы просто убираем точку входа или полностью меняем популярное приложение при раскатке 50/50.
🗒 Определение метрик и теста. А на что мы смотрим, когда подводим итоги? Может есть какие-то целевые, по которым мы хотим принимать решения, а может есть какие-то вспомогательные, которые нам нужны для дальнейшего анализа. Если у нас есть своя A/B платформа, проблемой с подсчетов быть не должно. На этом этапе важно также понимать какой тест мы используем для анализа.
☕ Сегменты пользователей. Хотим мы катиться на всех или нет зависит от сетапа эксперимента, возможно, нам нужно брать определенный срез пользователей (старички/новички, пользователи, обладающие каким-то признаком).
🌳 Дерево принятия решений. Если метрик несколько, мы должны определиться с различными вариантами, когда эксперимент катим, а когда нет. Если метрика серая, то..., а если нет, то. Базово должно фиксироваться до проведения эксперимента.
😁 Определение MDE / размера выборки / длительности эксперимента. Мы должны понять на истории, а действительно ли мы сможем прокрасить эксперимент? По сути, тот же MDE нужен нам для определения примерной длительности эксперимента или ответа на вопрос, а эта метрика чувствительна вообще будет на данном срезе или нет?
🥪 Другие слои. А считаем ли мы корректным проводить эксперимент, если слои забиты, а насколько забиты, все ли окей в этом плане?
📱 Если есть своя команда разработки и платформа, то с заведением пользователей (кому какой флаг навешиваем) проблем нет, а если самому, то нужно продумать. Не все могут себе позволить запускать так тесты. Если нет, то со старичками понятно, мы отдаем контроль и тест списком, с новичками сложнее, как будто нужно раз в какое-то время на дню отдавать пользователей списками с айдишниками.
🤕 Тестинг. Посмотрите, как функционал работает, корректно ли все раскатилось, нет ли проблем, походите по различным страницам приложения, может найдете какие-то проблемы, которые можно в дальнейшем пофиксить с помощью разработки
✅ Корректное логирование эксперимента. Можно раскатить на себя, посмотреть, собрать различные события в тестовой группе, попробовать посчитать метрики (просмотр, клик по фиче X, которую мы запускаем на тестовую группу).
🚀 Запуск эксперимента
От вас жду 100🐳 за пост. Далее пройдемся по вопросам, касаемых разметки и ТЗ для команды разработки и я продолжу писать посты из списка.
От вас жду 100
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳78 4❤3 2🌚1
Подглядывание в 🆎 тестах. Я ошибся, я могу один раз ошибиться?
Всем привет! В этом посте я хочу затронуть одну из базовых проблем, с которыми сталкивалось большинство людей - это проблема подглядывания.
В чем основная суть?
Предположим, мы запустили эксперимент, который должен идти 14 дней (так мы определили по дизайну). Возьмем для примера базовый t-test для двух выборок.
Вдруг мы решили посмотреть на результаты, видим значимое изменение. По сути (если мы знаем формулу для t-test'а или другого статистического критерия), накопительно на каждый день можем посчитать статистику и увидеть, что, например, в 4 день (ладно-ладно, в 7), мы увидели значимое изменение. Пришла в головугениальная мысль отрубить тест и экстраполировать выводы, но так, очевидно делать нельзя, и вот почему:
1. Мы рассчитывали сроки эксперимента в зависимости от трафика. Чем меньше пользователей, тем сильнее шум.
2. Доверительный интервал получается весьма широким, мы можем не до конца быть уверенными в эффекте (та же история может случиться и в обратную сторону, p-value от статистики (например, разницы средних) может "отскочить" от промежутка (0, alpha). Если бы мы подсмотрели, мы сделали неправильное решение.
3. На симуляциях мы повышаем ошибку первого рода (FPR) достаточно сильно. Подглядывание даже может имитировать подбрасывание монетки (по факту, мы проверяем несколько гипотез, что за 1, 2, 3, ... n день средние различаются, тем самым мы рискуем ошибиться. Подробнее можно посмотреть тут
Что можно посмотреть по этому поводу?
1. Статья от GoPractice..
2. Видео от Анатолия Карпова.
3. Пост от ProductSense на Facebook
Про это очень много есть статей + давно было интересно покопаться в проблеме подглядывания, например, ребята из Spotify использовали методы последовательного тестирования для досрочного принятия решения (чтобы не держать эксперимент какое-то время). История может быть актуальна, если мы хотим принимать правильные решения как можно чаще, а неправильные - сразу отрубать, чтобы не терять деньги во время теста. Также читал, что советуют обращаться к байесовскому тестированию, но давайте ко всему последовательно).
🐳 🐳 🐳 100 реакций на пост и разгоняем дальше 🐳 🐳 🐳
Всем привет! В этом посте я хочу затронуть одну из базовых проблем, с которыми сталкивалось большинство людей - это проблема подглядывания.
В чем основная суть?
Предположим, мы запустили эксперимент, который должен идти 14 дней (так мы определили по дизайну). Возьмем для примера базовый t-test для двух выборок.
Вдруг мы решили посмотреть на результаты, видим значимое изменение. По сути (если мы знаем формулу для t-test'а или другого статистического критерия), накопительно на каждый день можем посчитать статистику и увидеть, что, например, в 4 день (ладно-ладно, в 7), мы увидели значимое изменение. Пришла в голову
1. Мы рассчитывали сроки эксперимента в зависимости от трафика. Чем меньше пользователей, тем сильнее шум.
2. Доверительный интервал получается весьма широким, мы можем не до конца быть уверенными в эффекте (та же история может случиться и в обратную сторону, p-value от статистики (например, разницы средних) может "отскочить" от промежутка (0, alpha). Если бы мы подсмотрели, мы сделали неправильное решение.
3. На симуляциях мы повышаем ошибку первого рода (FPR) достаточно сильно. Подглядывание даже может имитировать подбрасывание монетки (по факту, мы проверяем несколько гипотез, что за 1, 2, 3, ... n день средние различаются, тем самым мы рискуем ошибиться. Подробнее можно посмотреть тут
Что можно посмотреть по этому поводу?
1. Статья от GoPractice..
2. Видео от Анатолия Карпова.
3. Пост от ProductSense на Facebook
Про это очень много есть статей + давно было интересно покопаться в проблеме подглядывания, например, ребята из Spotify использовали методы последовательного тестирования для досрочного принятия решения (чтобы не держать эксперимент какое-то время). История может быть актуальна, если мы хотим принимать правильные решения как можно чаще, а неправильные - сразу отрубать, чтобы не терять деньги во время теста. Также читал, что советуют обращаться к байесовскому тестированию, но давайте ко всему последовательно).
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳68 5 5🔥2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳39❤8🔥6 2👍1
Перед новогодними праздниками X5 написали статью про контекстных бандитов и то, как они их применяли в ценообразовании. Здесь рассказывается об основных методах, которые ребята применяли для экспериментов: UCB, Thompson Sampling.
Базово алгоритмы позволяют выбрать лучшую стратегию на основе метрики, например, цены товара, исходя из определенного контекста, изменения среды (данных по пользователю, внешних факторов и др.). В отличие от классических A/B-тестов, контекстные бандиты могут достаточно быстро менять свои решения, адаптируясь к реальным данным. Это значит, что вместо долгих тестов можно сразу получать лучшие результаты.
Кроме того, статья затрагивает важный аспект - это баланс между исследованием новых вариантов и использованием уже известных положительных решений. Например, утром цены могут быть ниже, чтобы привлечь покупателей, а вечером - выше, чтобы увеличить маржу.
Код обещали выложить в следующей статье, в статье Ozon Tech он уже есть. Байесовская линейная регрессия, Thompson Sampling, СMAB, код тут
Базово алгоритмы позволяют выбрать лучшую стратегию на основе метрики, например, цены товара, исходя из определенного контекста, изменения среды (данных по пользователю, внешних факторов и др.). В отличие от классических A/B-тестов, контекстные бандиты могут достаточно быстро менять свои решения, адаптируясь к реальным данным. Это значит, что вместо долгих тестов можно сразу получать лучшие результаты.
Кроме того, статья затрагивает важный аспект - это баланс между исследованием новых вариантов и использованием уже известных положительных решений. Например, утром цены могут быть ниже, чтобы привлечь покупателей, а вечером - выше, чтобы увеличить маржу.
Код обещали выложить в следующей статье, в статье Ozon Tech он уже есть. Байесовская линейная регрессия, Thompson Sampling, СMAB, код тут
1👍15🔥7❤4
Как проводите новогодние праздники? Отдыхаете / обучаетесь / работаете?
Планирую в ближайшее время актуализировать роадмап + подкрепить средним временем прохождения пунктов / расписанием того, как все изучать, чтобы вкатиться (и не только вкатышам). Возможно, это будет в Figma / Miro с дальнейшей развилкой в ML, руководящие позиции. Если вам по-прежнему это интересно, накидайте очень много реакций, а я постараюсь сделать так, чтобы вы четко понимали как идет развитие / что нужно дополнительно изучить + рассмотрю варианты как можно качаться внутри команды, чтобы дорасти еще выше.
Как я вижу для себя:
1. Сделать для новичков
2. Сделать для продолжающих (а как можно расти еще быстрее, что нужно делать, чтобы расти)
3. Объединить несколько форматов.
Все зависит от вас! Ставьте много🐳 (200?) и я начну двигаться к разработке данного формата.
Планирую в ближайшее время актуализировать роадмап + подкрепить средним временем прохождения пунктов / расписанием того, как все изучать, чтобы вкатиться (и не только вкатышам). Возможно, это будет в Figma / Miro с дальнейшей развилкой в ML, руководящие позиции. Если вам по-прежнему это интересно, накидайте очень много реакций, а я постараюсь сделать так, чтобы вы четко понимали как идет развитие / что нужно дополнительно изучить + рассмотрю варианты как можно качаться внутри команды, чтобы дорасти еще выше.
Как я вижу для себя:
1. Сделать для новичков
2. Сделать для продолжающих (а как можно расти еще быстрее, что нужно делать, чтобы расти)
3. Объединить несколько форматов.
Все зависит от вас! Ставьте много
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳174🔥18❤13
Заскуль питона (Data Science)
Как проводите новогодние праздники? Отдыхаете / обучаетесь / работаете? Планирую в ближайшее время актуализировать роадмап + подкрепить средним временем прохождения пунктов / расписанием того, как все изучать, чтобы вкатиться (и не только вкатышам). Возможно…
Ну и еще закину сюда, если вам все нравится и хотите также много классной инфы, закиньте бустов. Хочется много разных эмодзи на реакции, коммент с большим количеством реакций (который не относится к какому-то другому каналу), добавлю в эмодзи-пак) 🪨
https://t.iss.one/boost/zasql_python
https://t.iss.one/boost/zasql_python
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Заскуль питона (Data Science)
Проголосуйте за канал, чтобы он получил больше возможностей.
3🔥13 5👍3❤🔥2 1
Недавно наткнулся на подкаст, где обсуждалась важная тема для аналитиков. Там говорили о том, что всех аналитиков условно можно разделить на две категории: “аналитики-калькуляторы” и “аналитики-партнеры”. Захотелось поделиться своими мыслями.
➕ 🟰 Аналитики-калькуляторы - это те, кто выполняет задачи, которые им ставят. Считают данные, строят отчеты, собирают чарты и системы, которые потом менеджмент использует для дальнейшей работы. И это не плохо, потому что без базовой аналитики никуда. Адхоки, регулярные отчеты, которые лежат в основе процессов, - это база. Но проблема в том, что у многих такой подход становится потолком. Они не понимают, зачем их данные нужны бизнесу, что именно решают их чарты или отчеты. Если не задумываться об этом, можно долго работать в таком режиме. Хотя с другой стороны, это может быть отличным временем для прокачки технических навыков и понимания основ.
🍪 🍪 Аналитики-партнеры - это уже другой уровень. Они не просто считают и отдают результаты, а берут на себя ответственность за влияние этих данных на бизнес. Они понимают, для чего нужны те или иные задачи, предлагают решения, которые не только закрывают запросы, но и приносят реальную пользу. Здесь уже важны не только технические навыки, но и способность общаться, правильно доносить идеи до людей из разных отделов, выбирать подход к каждому, чтобы убедить в правильности решений. Это те, кто видят шире, чем просто таска.
Как вырасти до аналитика-партнера? [мое мнение]
1️⃣ Погружение в контекст бизнеса. Не нужно пытаться быть на всех встречах, но есть процессы, в которых важно участвовать. Например, тот же квартальный план команды продукта. Это поможет лучше понять, куда движется бизнес, и какую роль твоя аналитика может сыграть. Видеть, где и как ты можешь быть полезным, - это основа.
2️⃣ Адаптация коммуникации. Мы часто забываем, что общаемся с людьми, которые могут не знать, что такое p-value или зачем ты используешь тот или иной метод. Людям из бизнеса важно понимать результат: как это повлияет на их задачи, принесет ли прибыль или решит проблему. Умение говорить на языке разных команд - аналитиков, маркетинга, продукта - это ключ к тому, чтобы становиться партнером.
3️⃣ Активная позиция и фильтрация задач. Когда задач много, важно понимать, какие из них действительно решают проблему, а какие - просто затыкают дыру в имеющемся процессе. Аналитик-партнер не просто выполняет запланированные таски, а задает вопросы: “А это точно решит проблему?”, “Какое влияние это окажет?”, “Можно ли сделать проще или эффективнее?”. При этом нужно уметь фильтровать входящие запросы. Не все задачи стоит брать в работу, но те, которые ты принимаешь, важно выполнять так, чтобы не пришлось переделывать или добавлять правки. Инициативность здесь тоже играет роль: иногда ты можешь предложить свой вариант решения, который окажется лучше исходного.
4️⃣ Учиться у тех, кто уже разбирается в области. Коллеги, которые давно работают в компании или просто сильнее тебя в каких-то аспектах, – это ценный источник знаний. Если ты не понимаешь, как работает тот или иной процесс, не бойся задавать вопросы. Работать в паре над задачами – это тоже хороший способ быстрее разбираться в сложных темах.
Что думаете, корректно ли делить аналитиков именно так? Конечно, есть те, кто работает исключительно в операционной зоне, и это тоже важная часть. Но здесь речь именно про тех аналитиков, которые могут влиять на развитие бизнеса своими инициативами. Если интересно, ставьте1️⃣ 0️⃣ 0️⃣ реакций (завез еще кастомные), и я разберу что-нибудь ещё - подкаст, статью или, может быть, ваш запрос. А в комментариях будет круто почитать ваши мысли, делитесь!
Как вырасти до аналитика-партнера? [мое мнение]
Что думаете, корректно ли делить аналитиков именно так? Конечно, есть те, кто работает исключительно в операционной зоне, и это тоже важная часть. Но здесь речь именно про тех аналитиков, которые могут влиять на развитие бизнеса своими инициативами. Если интересно, ставьте
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳66 23 13👍3🍾2⚡1❤1
Карьерный бег по кругу: работа ради зарплаты или ради роста?
Листая LinkedIn, я заметил один интересный тренд: есть ребята, которые меняют работу почти каждый год, но их позиция при этом остается на том же уровне. Задачи и обязанности в лучшем случае расширяются минимально.
Иногда причина понятна: человек хочет сменить вектор и заняться чем-то новым — например, перейти от стандартной аналитики к ML или A/B тестам. Но в реальности ожидания часто не оправдываются: задачи остаются схожими с предыдущим местом, а новых знаний и навыков добавляется немного.
Нередко эти специалисты меняют место работы 4-5 раз подряд с одними и теми же задачами. Да, зарплата при этом растет (возможно, значительно), но общий профессиональный прогресс замедляется или вовсе останавливается.
_______________________
Почему так происходит?
У всех есть свои причины, но чаще всего частые переходы связаны с двумя основными факторами:
Зарплата. В новой компании диапазон компенсации может быть выше. И вилка, как говорится, раздувается.
Рутина. Одни и те же задачи начинают наскучивать, хочется сменить обстановку. Но чаще это лишь следствие первой причины: мотивация на самом деле исходит из желания заработать больше.
_______________________
Конечно, не всем хочется расти вертикально. Кто-то осознанно избегает менеджерских функций и предпочитает углубляться в свои текущие задачи. Это нормально. Но стоит помнить, следующее:
1. Потолок зарплаты существует у всех позиций.
2. Требования к профессионалам растут, особенно в условиях высокой конкуренции.
_______________________
Что происходит с профессиональным ростом?
Вот несколько моментов, о которых стоит задуматься:
Каждый переход добавляет лишний период адаптации (обычно 3-6 месяцев). Новые процессы, новая команда, другая корпоративная культура — это все требует времени. По сути, несколько месяцев уходит на “разгон”.
Рост зарплаты не всегда означает рост компетенций. Да, на этапе согласования оффера или контроффера можно выбить большую сумму. Но если задачи остаются прежними, через пару лет вы можете оказаться в ситуации, где ваши навыки уже не соответствуют зарплатным ожиданиям работодателя.
Глубокая экспертиза требует времени. Частая смена компаний мешает углубляться в продукт или бизнес. А именно глубокая экспертиза делает аналитиков незаменимыми специалистами, на которых хотят равняться другие.
_______________________
Рост внутри компании
Если есть возможность расти профессионально и забирать кусок ответственности за бизнес, лучше воспользоваться этим шансом
Период адаптации сводится к минимуму. Вы уже знаете людей, процессы и продукт. Это позволяет более глубоко сосредоточиться на задачах.
Вы прокачиваете не только навыки, но и доверие. Ваше участие в ключевых проектах укрепляет репутацию внутри команды. Это сложно переоценить, особенно если в будущем вы планируете расти вертикально.
Рост внутри компании не менее выгоден. Зарплата, конечно, может увеличиваться медленнее, но стабильный прогресс в задачах и роли дает долгосрочную выгоду. Вы становитесь экспертом в своей области. Можно расценить как долгосрочную инвестицию.
_______________________
К чему это всё?
Зарплата важна. Комфорт важен. Но если вы видите возможность профессионального роста в текущей компании, не стоит упускать этот шанс ради краткосрочной выгоды. Рано или поздно важнее становится не просто количество мест работы, а опыт, который дает вам вес на рынке труда.
Как вы думаете, выгодно ли менять работу каждый год, или лучше развиваться в стабильной среде? Делитесь своими мыслями в комментариях!
___________________________
@zasql_python
Листая LinkedIn, я заметил один интересный тренд: есть ребята, которые меняют работу почти каждый год, но их позиция при этом остается на том же уровне. Задачи и обязанности в лучшем случае расширяются минимально.
Иногда причина понятна: человек хочет сменить вектор и заняться чем-то новым — например, перейти от стандартной аналитики к ML или A/B тестам. Но в реальности ожидания часто не оправдываются: задачи остаются схожими с предыдущим местом, а новых знаний и навыков добавляется немного.
Нередко эти специалисты меняют место работы 4-5 раз подряд с одними и теми же задачами. Да, зарплата при этом растет (возможно, значительно), но общий профессиональный прогресс замедляется или вовсе останавливается.
_______________________
Почему так происходит?
У всех есть свои причины, но чаще всего частые переходы связаны с двумя основными факторами:
Зарплата. В новой компании диапазон компенсации может быть выше. И вилка, как говорится, раздувается.
Рутина. Одни и те же задачи начинают наскучивать, хочется сменить обстановку. Но чаще это лишь следствие первой причины: мотивация на самом деле исходит из желания заработать больше.
_______________________
Конечно, не всем хочется расти вертикально. Кто-то осознанно избегает менеджерских функций и предпочитает углубляться в свои текущие задачи. Это нормально. Но стоит помнить, следующее:
1. Потолок зарплаты существует у всех позиций.
2. Требования к профессионалам растут, особенно в условиях высокой конкуренции.
_______________________
Что происходит с профессиональным ростом?
Вот несколько моментов, о которых стоит задуматься:
Каждый переход добавляет лишний период адаптации (обычно 3-6 месяцев). Новые процессы, новая команда, другая корпоративная культура — это все требует времени. По сути, несколько месяцев уходит на “разгон”.
Рост зарплаты не всегда означает рост компетенций. Да, на этапе согласования оффера или контроффера можно выбить большую сумму. Но если задачи остаются прежними, через пару лет вы можете оказаться в ситуации, где ваши навыки уже не соответствуют зарплатным ожиданиям работодателя.
Глубокая экспертиза требует времени. Частая смена компаний мешает углубляться в продукт или бизнес. А именно глубокая экспертиза делает аналитиков незаменимыми специалистами, на которых хотят равняться другие.
_______________________
Рост внутри компании
Если есть возможность расти профессионально и забирать кусок ответственности за бизнес, лучше воспользоваться этим шансом
Период адаптации сводится к минимуму. Вы уже знаете людей, процессы и продукт. Это позволяет более глубоко сосредоточиться на задачах.
Вы прокачиваете не только навыки, но и доверие. Ваше участие в ключевых проектах укрепляет репутацию внутри команды. Это сложно переоценить, особенно если в будущем вы планируете расти вертикально.
Рост внутри компании не менее выгоден. Зарплата, конечно, может увеличиваться медленнее, но стабильный прогресс в задачах и роли дает долгосрочную выгоду. Вы становитесь экспертом в своей области. Можно расценить как долгосрочную инвестицию.
_______________________
К чему это всё?
Зарплата важна. Комфорт важен. Но если вы видите возможность профессионального роста в текущей компании, не стоит упускать этот шанс ради краткосрочной выгоды. Рано или поздно важнее становится не просто количество мест работы, а опыт, который дает вам вес на рынке труда.
Как вы думаете, выгодно ли менять работу каждый год, или лучше развиваться в стабильной среде? Делитесь своими мыслями в комментариях!
___________________________
@zasql_python
1🐳16 12👍5🥱4 4💩3❤2⚡1
Заскулил питона at the gym
В 10 классе начал тягать железо в тренажерном зале. Понравилось, хожу до сих пор. (по крайнем мере я стараюсь).
Достигать результата, видеть прогресс - как меняется тело, эмоциональное состояние - это кайф. Ну и, конечно же, важна дисциплина, которая в работе влияет на твой перфоманс.
В Яндексе есть тренажерка, в которой я обычно зависаю 2-3 раза в неделю. Для себя выбираю оптимальный формат по тренировкам в зависимости от загруженности: ходить утром или вечером.
Утром сложно пересилить себя и не поспать подольше
(опять же речь про дисцпилну).
А я сова🦉
Под конец работы чувствую себя уставшим, но появляется еще время что-то поделать, например, подготовиться к экзаменам в магистратуру.
Вечером обычно ходит много людей и тренировка может заканчиваться в 22-23, остается только доехать до дома и ночью(либо в течение дня) находить свободное время для изучения нового
А как вы совмещаете хобби с работой?
Поделитесь своим опытом?
#личнаяжизнь@zasql_python
В 10 классе начал тягать железо в тренажерном зале. Понравилось, хожу до сих пор. (по крайнем мере я стараюсь).
Достигать результата, видеть прогресс - как меняется тело, эмоциональное состояние - это кайф. Ну и, конечно же, важна дисциплина, которая в работе влияет на твой перфоманс.
В Яндексе есть тренажерка, в которой я обычно зависаю 2-3 раза в неделю. Для себя выбираю оптимальный формат по тренировкам в зависимости от загруженности: ходить утром или вечером.
Утром сложно пересилить себя и не поспать подольше
(опять же речь про дисцпилну).
А я сова
Под конец работы чувствую себя уставшим, но появляется еще время что-то поделать, например, подготовиться к экзаменам в магистратуру.
Вечером обычно ходит много людей и тренировка может заканчиваться в 22-23, остается только доехать до дома и ночью(либо в течение дня) находить свободное время для изучения нового
А как вы совмещаете хобби с работой?
Поделитесь своим опытом?
#личнаяжизнь@zasql_python
Please open Telegram to view this post
VIEW IN TELEGRAM
1 13🐳10 7❤2🌭2👍1💩1
Анализ экспериментов с Ratio-метриками
Проводя эксперименты, обычно, мы используем базовые методы: t-test, z-test, bootstrap (если данных не так много). Это для одних метрик, но, предположим, мы работаем с метриками-отношения (представляют из себя деление суммы случайной величины X на сумму случайной величины Y).
В этом случае в группе A и группе B у нас нет дисперсии. В самом деле, рассмотрим средний чек - метрика отношения (сумма GMV / количество заказов), CTR (сумма кликов / количество показов). Получаем некоторую метрику Za и Zb для которой мы знаем значение, но дисперсии метрики не знаем.
Отсюда выход:
а) провести бутстрап, чтобы найти распределение этой метрики и узнать распределение статистики
б) бакетировать (меньше по ресурсам, чем бутстрап).
в) применять другие методы (например, линеаризацию или дельта-метод).
г*) что-то другое...
Бутстрап
Для оценки распределения метрики можем использовать выборочные значения в группе A и группе B и найти разницу, таким образом, мы получим «разницу средних». Из минусов: MDE не рассчитать (при дизайне эксперимента), очень долгий расчет при больших выборках, ресурсов может не хватить.
Расчет для конкретной выборки, можно разницу средних потом посчитать
Бакетизация
Делим также пользователей по бакетам (с их GMV и количеством заказов), распределение метрики будет нормальным, главное, чтобы в бакетах было достаточное количество наблюдений. Мы делаем n-подвыборок (где n - это количество бакетов). Из минусов: сложность работать с маленькими выборками, зависимость от количества бакетов (тонкая настройка).
Пару слов про дельта-метод и линеаризацию.
В общем-то это об одном и том же. Мы хотим найти дисперсию метрики для того, чтобы применить классические методы (например, t-test). В дельта-методе мы корректируем дисперсию на корреляцию двух случайных величин (числителя и знаменателя). Только есть разница: дельта-метод вычисляет дисперсию на уровне выборки сразу, а линеаризация позволяет Ratio-метрику превратить в поюзерную. Результаты сонаправлены.
Дельта-метод
Линеаризация
Дополнительные материалы для ознакомления: первый, второй, третий, четвертый, пятый
Понравился пост? Давайте наберем 150 🐳🐳🐳, если хотите продолжение, пишите в комментариях, часто ли используете подобные методы?
Проводя эксперименты, обычно, мы используем базовые методы: t-test, z-test, bootstrap (если данных не так много). Это для одних метрик, но, предположим, мы работаем с метриками-отношения (представляют из себя деление суммы случайной величины X на сумму случайной величины Y).
В этом случае в группе A и группе B у нас нет дисперсии. В самом деле, рассмотрим средний чек - метрика отношения (сумма GMV / количество заказов), CTR (сумма кликов / количество показов). Получаем некоторую метрику Za и Zb для которой мы знаем значение, но дисперсии метрики не знаем.
Отсюда выход:
а) провести бутстрап, чтобы найти распределение этой метрики и узнать распределение статистики
б) бакетировать (меньше по ресурсам, чем бутстрап).
в) применять другие методы (например, линеаризацию или дельта-метод).
г*) что-то другое...
Бутстрап
Для оценки распределения метрики можем использовать выборочные значения в группе A и группе B и найти разницу, таким образом, мы получим «разницу средних». Из минусов: MDE не рассчитать (при дизайне эксперимента), очень долгий расчет при больших выборках, ресурсов может не хватить.
Расчет для конкретной выборки, можно разницу средних потом посчитать
def bootstrap_ratio(data, nominator, denominator, group_column, group_value, n_iter=10000):
group_data = data[data[group_column] == group_value]
boot_ratios = []
for _ in range(n_iter):
sample = group_data.sample(len(group_data), replace=True)
ratio = sample[nominator].sum() / sample[denominator].sum()
boot_ratios.append(ratio)
return np.array(boot_ratios)
Бакетизация
Делим также пользователей по бакетам (с их GMV и количеством заказов), распределение метрики будет нормальным, главное, чтобы в бакетах было достаточное количество наблюдений. Мы делаем n-подвыборок (где n - это количество бакетов). Из минусов: сложность работать с маленькими выборками, зависимость от количества бакетов (тонкая настройка).
def bucketize(data, nominator, denominator, n_buckets=50, random_state=42):
data = data.sample(frac=1, random_state=random_state).reset_index(drop=True)
buckets = np.array_split(data, n_buckets)
bucket_ratios = [bucket[nominator].sum() / bucket[denominator].sum() for bucket in buckets]
return bucket_ratios
Пару слов про дельта-метод и линеаризацию.
В общем-то это об одном и том же. Мы хотим найти дисперсию метрики для того, чтобы применить классические методы (например, t-test). В дельта-методе мы корректируем дисперсию на корреляцию двух случайных величин (числителя и знаменателя). Только есть разница: дельта-метод вычисляет дисперсию на уровне выборки сразу, а линеаризация позволяет Ratio-метрику превратить в поюзерную. Результаты сонаправлены.
Дельта-метод
def calculate_ratio_variance(values_numerator, values_denominator):
mean_num = np.mean(values_numerator)
mean_denom = np.mean(values_denominator)
variance_num = np.var(values_numerator, ddof=1)
variance_denom = np.var(values_denominator, ddof=1)
covariance_num_denom = np.cov(values_numerator, values_denominator)[0, 1]
ratio_variance = (
(variance_num / mean_denom ** 2)
- (2 * (mean_num / mean_denom ** 3) * covariance_num_denom)
+ ((mean_num ** 2 / mean_denom ** 4) * variance_denom)
)
return ratio_variance
Линеаризация
# ratio_control - ratio-метрика в контрольной группе (для теста также рассчитывается)
def calculate_ratio_control(numerator_control, denominator_control):
return sum(numerator_control) / sum(denominator_control)
ratio_control = calculate_ratio_control(numerator_control, denominator_control)
def linearization(numerator, denominator, ratio_control):
return numerator - ratio_control * denominator
Дополнительные материалы для ознакомления: первый, второй, третий, четвертый, пятый
Понравился пост? Давайте наберем 150 🐳🐳🐳, если хотите продолжение, пишите в комментариях, часто ли используете подобные методы?
🐳67❤5 3 2🖕1
Как считать пенетрацию пользователей в продукте на SQL?
🎮 В сервисе у нас есть чарт, характеризующий количество пользователей в сервисе (MAU / DAU / WAU), мы смотрим за определенный промежуток времени количество пользователей. Этот график интуитивно понятен, есть практически во всех продуктах и является одной из тех метрик, которую отслеживают.
Тут достаточно понятно, берем группировку по дням / неделям / месяцам, считаем уникальных пользователей в приложении и готово!
❓ Пенетрация позволяет ответить на вопрос: "Сколько всего пользователей пользуются продуктом в динамике?". В сервисе есть старички, которые регулярно продукт используют и за время мы их учитываем несколько раз (по дням). Мы можем взять весь год и посмотреть сколько всего пользователей использовали фичу X и посчитать статично, найти долю и все. Но хочется понимать как инициативы влияют на абсолютные значения / доли относительно всех пользователей продукта до момента T.
⬆️ Выше представлен скрипт, который считает накопительно пользователей по дням, теперь мы можем это применить для ответа на вопрос: "Какой процент пользователей когда-либо использовал продукт на момент времени T?". Это нам может быть нужно для отслеживания доли использования от всей аудитории накопительно. Мы можем более явно отслеживать как наша база (в тотале) реагирует по дням, когда мы используем какие-то механики, например, или запускаем новые фичи
⬆️ Выше представлен код, как мы считае долю тех, кто использовал фичу относительно всех пользователей до момента T.
🐖 Используете ли вы пенетрацию для отслеживания доли относительно всех пользователей? Был ли этот пост полезен? Ставьте 100 🐳 и я выложу еще что-нибудь по этой тематике)
Тут достаточно понятно, берем группировку по дням / неделям / месяцам, считаем уникальных пользователей в приложении и готово!
WITH daily_users AS (
SELECT
event_date,
user_id
FROM user_events
WHERE event_date BETWEEN '2024-01-01' AND '2024-01-30'
),
date_series AS (
SELECT DISTINCT event_date
FROM daily_users
),
cumulative_users AS (
SELECT
d.event_date,
COUNT(DISTINCT u.user_id) AS cumulative_unique_users
FROM date_series d
LEFT JOIN daily_users u ON u.event_date <= d.event_date
GROUP BY d.event_date
ORDER BY d.event_date
)
SELECT * FROM cumulative_users;
WITH daily_feature_users AS (
SELECT
event_date,
user_id
FROM user_events
WHERE event_name = 'feature_x'
AND event_date BETWEEN '2024-01-01' AND '2024-01-30'
),
daily_total_users AS (
SELECT
event_date,
user_id
FROM user_events
WHERE event_date BETWEEN '2024-01-01' AND '2024-01-30'
),
date_series AS (
SELECT DISTINCT event_date
FROM daily_total_users
),
cumulative_feature_users AS (
SELECT
d.event_date,
COUNT(DISTINCT u.user_id) AS cumulative_feature_users
FROM date_series d
LEFT JOIN daily_feature_users u ON u.event_date <= d.event_date
GROUP BY d.event_date
ORDER BY d.event_date
),
cumulative_total_users AS (
SELECT
d.event_date,
COUNT(DISTINCT u.user_id) AS cumulative_total_users
FROM date_series d
LEFT JOIN daily_total_users u ON u.event_date <= d.event_date
GROUP BY d.event_date
ORDER BY d.event_date
)
SELECT
cfu.event_date,
cfu.cumulative_feature_users,
ctu.cumulative_total_users,
ROUND(100.0 * cfu.cumulative_feature_users / (ctu.cumulative_total_users, 0), 2) AS penetration_rate
FROM cumulative_feature_users cfu
JOIN cumulative_total_users ctu ON cfu.event_date = ctu.event_date
ORDER BY cfu.event_date;
Please open Telegram to view this post
VIEW IN TELEGRAM
1🐳50 11 4👍3
Как стать тимлидом? [статья]
Тут описано со стороны разработки, но с какой-то погрешностью можно переложить на аналитику
У тимлида основные фокусы:
1. Delivery - чтобы все заказчики были довольны и команда закрывала проблемы в бизнесе. Различные исследования, проверка гипотез.
2. Team Development - построение эффективной команды, выстраивание определенной культуры, найм новых сотрудников. Тут может быть и помощь в решении различных вопросов взаимодействия и т.д.
3. Technical - технические скиллы у тимлида, он должен быть источником знаний, готовым помочь линейным сотрудникам.
Как стать тимлидом в компании?
Автор указывает четыре пункта:
1. Проактивность. Брать на себя больше ответственности, покрывать больше зон в бизнесе. Также это может развитие новых инструментов, генерация гипотез по росту продукта.
2. Самостоятельное решение задач. Я бы еще добавил тут то, что хороший аналитик может сам сгенерировать гипотезу, сходить ко всем, решить задачу, дать рекомендации по росту продукта. Довести задачу от гипотезы до реально работаюещго варианта на проде
3. Развитие хардов (тут для разработки). Для аналитики важны софты также. Мы очень часто работаем с бизнесовыми заказчиками, нужно проще объяснять сложные вещи. Не вдаваться в работу алгоритмов, а попытаться объяснить на простых примерах.
4. Обращать внимание на эмпатию. Умение сочувствовать, сопереживать коллегам. Тут блок про мотивацию, делегирование, что нужно чувствовать свою команду, эмоции.
Тут про заблуждения в работе тимлида.
А вы что думаете? Как считаете, сочетание этих пунктов позволят вырасти или есть еще другие составляющие? Пишите в комментариях!
Тут описано со стороны разработки, но с какой-то погрешностью можно переложить на аналитику
У тимлида основные фокусы:
1. Delivery - чтобы все заказчики были довольны и команда закрывала проблемы в бизнесе. Различные исследования, проверка гипотез.
2. Team Development - построение эффективной команды, выстраивание определенной культуры, найм новых сотрудников. Тут может быть и помощь в решении различных вопросов взаимодействия и т.д.
3. Technical - технические скиллы у тимлида, он должен быть источником знаний, готовым помочь линейным сотрудникам.
Как стать тимлидом в компании?
Автор указывает четыре пункта:
1. Проактивность. Брать на себя больше ответственности, покрывать больше зон в бизнесе. Также это может развитие новых инструментов, генерация гипотез по росту продукта.
2. Самостоятельное решение задач. Я бы еще добавил тут то, что хороший аналитик может сам сгенерировать гипотезу, сходить ко всем, решить задачу, дать рекомендации по росту продукта. Довести задачу от гипотезы до реально работаюещго варианта на проде
3. Развитие хардов (тут для разработки). Для аналитики важны софты также. Мы очень часто работаем с бизнесовыми заказчиками, нужно проще объяснять сложные вещи. Не вдаваться в работу алгоритмов, а попытаться объяснить на простых примерах.
4. Обращать внимание на эмпатию. Умение сочувствовать, сопереживать коллегам. Тут блок про мотивацию, делегирование, что нужно чувствовать свою команду, эмоции.
Тут про заблуждения в работе тимлида.
А вы что думаете? Как считаете, сочетание этих пунктов позволят вырасти или есть еще другие составляющие? Пишите в комментариях!
1 14 7❤6🗿2
Когда дашборд превращается в хаос
Когда только начинал работать аналитиком, казалось, что чем больше метрик в отчёте, тем лучше. Детализация, графики, таблички - это красиво, значит полезно. Сделать какую-то сложную логику, добавить парочку элементов, которые оказываются полезными для вас, но решения по ним вы не принимаете. Всю эту историю можно обсудить с продуктом на предмет полезности при принятии важных решений.
Но потом оказывалось, что в реальности смотрят на 3-5 ключевые метрики и пару срезов. А если дашборд перегружен ненужными деталями, он не помогает принимать решения, а мешает. В результате смежникам он может перестать быть интересен и на него могут забить.
___________________________
Частая ошибка: не уточнить контекст задачи. Получил запрос, построил отчёт, принёс и тут начинаются уточнения:
(вопросов может быть много)
1.
Не зафиксировали цель дашборда. Какую проблему позволяет решить данный дашборд?
Не проверили, а покрывает ли эту задачу существующая отчётность?
Не уточнили, какие срезы реально важны. Заказчик сам может не знать, пока не увидит готовый отчёт.
В итоге аналитик теряет время на правки (вместо каких-то исследований, решений проблем), а бизнесу приходится разбираться в ненужных метриках.
2.
1️⃣ Сначала обсуждать контекст задачи. Зачем решили делать этот отчёт именно сейчас?
2️⃣ Формулировать основные показатели заранее. Бизнесу нужна конкретика, а не “что-нибудь полезное”.
3️⃣ Закладывать время на доработки, но минимизировать их за счёт хорошего брифинга на старте. Каждую отчетность важно документировать и подсветить основным пользователям за что он отвечает и почему он выглядит именно так.
4️⃣ Понять, кто будет пользоваться дашбордом. Одним важно смотреть верхнеуровнево, другим необходима детализация
5️⃣ Спроектировать с заказчиком то, как будет выглядеть дашборд, накидать примерные чарты, блоки, которые потенцииально решают проблемы в нужных метриках.
Было у вас такое, что делали сложный отчёт, а потом оказалось, что его никто не смотрит или вы постоянно вносили в него правки? Делитесь в комментариях!
Понравился формат? Ставьте🐳 , буду рассказывать подробнее с чем сталкивался и чего бы я не хотел допускать в будущем.
Когда только начинал работать аналитиком, казалось, что чем больше метрик в отчёте, тем лучше. Детализация, графики, таблички - это красиво, значит полезно. Сделать какую-то сложную логику, добавить парочку элементов, которые оказываются полезными для вас, но решения по ним вы не принимаете. Всю эту историю можно обсудить с продуктом на предмет полезности при принятии важных решений.
Но потом оказывалось, что в реальности смотрят на 3-5 ключевые метрики и пару срезов. А если дашборд перегружен ненужными деталями, он не помогает принимать решения, а мешает. В результате смежникам он может перестать быть интересен и на него могут забить.
___________________________
Как сделать дашборд, который реально нужен бизнесу?
Частая ошибка: не уточнить контекст задачи. Получил запрос, построил отчёт, принёс и тут начинаются уточнения:
“А это для выгрузок или для ежедневного контроля?”
“Нам вообще-то важен срез по регионам, почему его нет? А по приложениям? Точкам входа в продукт?”
“А где сравнение с прошлым месяцем?”
"А нам еще важно следить за этим, сделаешь парочку графиков?
"Смежникам важно смотреть на это, а давай еще сделаем так: на одной вкладке будет общая информация, а на второй возможность для финансов грепнуть
(вопросов может быть много)
1.
Почему так произошло?
Не зафиксировали цель дашборда. Какую проблему позволяет решить данный дашборд?
Не проверили, а покрывает ли эту задачу существующая отчётность?
Не уточнили, какие срезы реально важны. Заказчик сам может не знать, пока не увидит готовый отчёт.
В итоге аналитик теряет время на правки (вместо каких-то исследований, решений проблем), а бизнесу приходится разбираться в ненужных метриках.
2.
Как избежать переделок?
Было у вас такое, что делали сложный отчёт, а потом оказалось, что его никто не смотрит или вы постоянно вносили в него правки? Делитесь в комментариях!
Понравился формат? Ставьте
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳25 5 5👍2❤1🔥1
Интересно, как это работает на тех, кто поставил статус "был(а) недавно".
По мне, очень классная фича, которая сразу позволяет скоммуницировать с собеседником (как он будет в сети) и тем самым повысить вероятность прочтения сообщения. Интересно, например, использовать в рассылках по какой-то базе пользователей или в других сценариях.
Если это катилось с экспериментом, то какие бы вы предложили метрики для эксперимента? Пишите в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥7👍2🤝1
В мире продуктовой аналитики A/B-тесты обычно ассоциируются с улучшением продукта (или его неухудшением). Однако существует менее очевидный, но крайне полезный метод — ухудшающие A/B-тесты. Давайте разберём, что это такое, зачем их проводят и какие преимущества они дают.
________________________
Что такое ухудшающие A/B-тесты?
Ухудшающий A/B-тест — это эксперимент, в котором намеренно ухудшаются определённые характеристики продукта, чтобы оценить их влияние на ключевые метрики. Вместо того чтобы улучшать элемент и смотреть на рост показателей, мы ухудшаем его и наблюдаем за снижением. Это помогает понять, насколько сильно данный элемент влияет на пользовательский опыт и бизнес-результаты. Ухудшающие тесты планируется проводить на очень узкий срез аудитории, так как реакция пользователей может быть негативной на какое-то изменение. При дизайне (если есть какой-то единый процесс заведения A/B экспериментов, может тикет), нужно указать, что эксперимент является ухудшающим.
____________________
Оценка значимости характеристик продукта. Не всегда очевидно, какие элементы продукта критичны для пользователей. Ухудшая или удаляя их, можно выявить, насколько они важны для аудитории.
Экономия ресурсов. Прежде чем инвестировать в улучшение определённой функции, стоит понять, насколько она влияет на метрики. Если ухудшение не приводит к значимым изменениям, возможно, улучшение не принесёт ожидаемой отдачи. За внедрение фичи отвечают 4 лица: менеджер, дизайнер, аналитик и разработчик.
Приоритизация задач. Понимание влияния различных элементов помогает расставить приоритеты в разработке и фокусироваться на действительно важных улучшениях.
____________________
Компания рассматривает возможность ускорения работы своего приложения, полагая, что это улучшит пользовательский опыт и повысит ключевые метрики. Вместо того чтобы сразу инвестировать ресурсы в оптимизацию, они проводят ухудшающий A/B-тест.
Гипотеза: Замедление работы приложения негативно повлияет на метрики.
Эксперимент: Создаются несколько тестовых групп с разной степенью замедления приложения.
Результат: Если замедление приводит к ухудшению метрик, это подтверждает гипотезу о важности скорости, и компания принимает решение об инвестировании в оптимизацию. Если изменений нет, ресурсы перенаправляются на другие задачи.
____________________
Глобальный контроль подразумевает наличие постоянной контрольной группы, которая не подвергается изменениям, для сравнения с тестовыми группами. Однако такой подход не всегда позволяет выявить влияние конкретных характеристик продукта. Ухудшающие A/B-тесты дают возможность точечно оценить значимость отдельных элементов, что особенно полезно при ограниченных ресурсах и необходимости быстрой проверки гипотез.
____________________
Про пользу ухудшающих тестов в статье Авито
Метрики перформанса могут влиять и на продуктовые показатели. К такому выводу мы пришли после проведения ухудшающих тестов.
Про ухудшающие A/B тесты
🔗 link3
А вы проводили ухудшающий эксперимент? Что проверяли? Наберется 100
Please open Telegram to view this post
VIEW IN TELEGRAM
2🐳54👍9 6 3❤2🤔1