Заскуль питона (Data Science)
6.16K subscribers
110 photos
15 videos
4 files
142 links
Канал про Python, Data Science, SQL и многое другое

По вопросам сотрудничества и рекламе: @m459n9

Чат: https://t.iss.one/my_it_frogs
Download Telegram
👩‍💻 Шпаргалки по SQL

Хочешь подтянуть базу или быстро вспомнить, как работает JOIN, CASE, UNION, оконные функции и многое другое?

🔍 Нашел удобные PDF-шпаргалки, которые можно сохранить себе и использовать в работе или при подготовке к собеседованиям.

🔗 Основы SQL

Каждая функция разобрана не только по синтаксису, но и по смыслу применения.

1️⃣ SELECT, WHERE, GROUP BY, HAVING
2️⃣ JOIN всех типов с примерами
3️⃣ CASE WHEN, UNION
4️⃣ Подзапросы, агрегатные функции

🔗 Оконные функции в SQL

Считается "продвинутой историей" в области SQL для аналитиков и тех, кто работает с данными.
Помню, когда только изучал SQL была проблема найти что-то годное, а ребята сделали, за что им жирный респект 👍

1️⃣ ROW_NUMBER, RANK, DENSE_RANK, NTILE
2️⃣ LAG, LEAD, FIRST_VALUE, LAST_VALUE
3️⃣ Рамки окна: ROWS BETWEEN, RANGE, GROUPS
4️⃣ Сортировка внутри окон, примеры запросов


🔥 Сохраняйте к себе, делитесь постом, если вам было полезно.

Если нужны похожие шпаргалки по ML / A/B и др., ставьте реакции!


Уверен, эта подборка поможет:

🟢 быстро вспомнить синтаксис перед собеседованием
🟣 разобраться, как реально работают функции в SQL
🟡 или просто освежить голову, если давно не писали запросы.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥112211632👍2🐳1
Красная карточка

Меня дисквалифицировали из университета.

Вот прошли мои 4 (5?) лет в РАНХиГсе, теперь я дипломированный специалист… (менеджер)

Дальше поступление в магистратуру. Для себя рассматриваю несколько вариантов, связанных с ИИ, машинным обучением и анализом данных.

Если кто поступает в этом году, отпишите в комментариях, интересно послушать ваши размышления, приоритеты и др. +будет интересно мнение тех, кто уже обучается (для себя рассматриваю онлайн-магистратуру)

А через две недели я выхожу на новое место работы после ❤️

🐳 Если наберется много-много реакций и комментариев, расскажу про это более подробно в следующих постах!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6748🐳304👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Всем хорошего понедельника!

Делитесь сколько сегодня созвонов и пишите сколько они занимают по времени.
😁21🔥8🐳6
Встречи или работа: где найти золотую середину аналитика?

Встречи стали частью нашей жизни. Планирование, командные встречи, внутренние встречи аналитиков, встречи со стейкхолдерами для объявления результатов и другие сценарии. Влеты, онбординг, 1-1...


Все это очень классно, но давайте посмотрим на то, как это действительно может быть.

Раньше, когда я работал аналитиком данных, у меня были командные синки и 1-2 встречи с основными стейкхолдерами.

И все!
Никаких больше встреч.
Сиди и работай.
Крути запросы, настраивай ETL, делай дашборды и исследования, приноси импакт продукту.

Далее, когда я перешел в продуктовую аналитику, встреч стало намного больше раза в 3 или даже больше. Причем самое интересное, что встречи, которые якобы являлись ВАЖНЫМИ проходили следующим образом:

Заинтересованы во встрече организатор + еще несколько человек, начинают какой-то движ. А кто-то сидит на встрече, чтобы просто физически посветиться без активного вовлечения, можно еще и позалипать, повтыкать. Обычно с таких встреч ничего не забирается. Просто обновили статусы и поехали дальше). А еще есть отдельные встречи без адженды, где может быть импровизация, тоже было такое.

Какой смысл от этого, если встречи суммаризируются + если реально у тебя возникнут вопросы, ты спокойно дойдешь до человека через личку или ногами в офисе и спросишь - есть же такая опция. Я не противник встреч, просто огромное количество встреч ничего не решают (нет никаких конкретных шагов), к сожалению и стоят дорого для всех.

Можно отвечать за направление аналитики и без бесконечного количества ненужных встреч, главное их грамотно фильтровать и обосновывать себе это, а в дальнейшем руководству.

Action Points:

1. 2-3 дня в неделю ставить БЕЗ ВСТРЕЧ в календаре. Deep Work наше все).
2. Появляться только на важных встречах для вас, как чувствуете. Понятно, что если встреча с руководителем, то скорее всего, ее не нужно пропускать :3
3. Если пошло на то, что на встрече точно НУЖНО быть, тогда смотрим адженду, чтобы четко понимать как можно быстро решить вопросы / проблемы.

Встреч меньше не становится, но держать фокус — реально

А как вы справляетесь с потоком встреч? Получается ли выделять дни под фокус? Что работает у вас?

Ставьте 🐳, если такие посты заходят)

@zasql_python
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳39🔥109💯2🦄1
📺 [YouTube] Денис Теплов. Как использовать дофаминовые петли в развитии продукта

Доклад от CPO Лиги Ставок, в котором говорится о продуктовых механиках, которые, кстати, связаны с формированием привычек.
Стимул -> Желание -> Реакция -> Вознаграждение.

Если упрощать, то мы запускаем цепочку, закрепляем действие наградой.

🟣Прогресс как источник мотивации🟣

1. Прогресс-бар в регистрации. Просто добавили баннер с прогресс-баром — результат: +0.9 п.п. конверсии в активацию, +3.8% оборот новичков.
2. Уровни в программе лояльности. Чем выше уровень, тем больше бонус — +2.7 п.п. Retention Rate второго месяца, +9.8% оборот.
3. Примеры Apple Watch, Duolingo. Регулярная фиксация и награда за закрытые цели усиливают вовлечённость. Работает безотказно.

🟢Поощрение целевых действий🟢

1. Кейс: Лига Ставок (Тамагочи). Виртуальный зверёк, который растёт за активность, просто меняется настроение. Эффект: +1.3% депозитов, +0.7% GMV.
2. Выигрыш пари. Моментальная обратная связь (что-то из разряда: ты молодец, все топчик, так держать). Эффект: +0.2% количество ставок.

🔵Поощрение нецелевых действий🔵

1. Награда за промежуточные шаги. Ввод карты или выбор адреса — поощрение даже на этапе онбординга даёт +2.8 п.п. к активации, +11.9% оборот новичков.
2. Чтение книги. Привычка формируется через награду за смежные действия. Само действие - это подготовка к целевому сценарию.

🟣Неожиданные награды🟣

Суть: постоянные предсказуемые бонусы быстро перестают работать. Неожиданные - цепляют.

Это как мне понравилось сравнение с клиентами приложения, когда я работал в Лавке. Наши клиенты: это лемуры, которым если каждый день давать обычный банан, они умрут от скуки. Поэтому сотрудники зоопарка каждый день режут бананы по-разному: кубиками, звездочками и так далее. Каждый день у них ощущение, что они получают что-то новое. Из-за этого они не грустят :)

1. Spotify: переменные награды (итоги года) - формируют ожидание и интерес.
2. LinkedIn: триггер на статус (ты в топ-50% публикаций) — вовлекает в активность.
3. Лига Ставок: подсветка легендарных коэффициентов — +0.3 п.п. к количеству ставок.
4. Лига Ставок: Социальное подтверждение: фраза "ещё 1000 человек повторили за тобой".

Всё просто: используйте прогресс, поощряйте и целевые, и промежуточные действия, добавляйте элемент неожиданности. Это системно влияет на ключевые продуктовые метрики. Здесь показаны не читы в продукте, а постепенные маленькие изменения, которые могут улучшать ключевые метрики и влиять в долгосроке на бизнес.

Понравился пост? Поставьте 🐳, пишите комментарии
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳34😐66🔥322
Forwarded from Data Science Memes
This media is not supported in your browser
VIEW IN TELEGRAM
Всех с понедельником!
Не отвлекаемся!
Работаем 😓

😏 @ds_memes
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5162😭1🫡11
📺 Мок интервью для Продакт Менеджера | Кейсы из Яндекса

🎯 Формат: 2 кейса, реальные задачи с собеседований на продакт-менеджеров. Обсуждение кандидатами по ~15–20 минут, далее фидбек и обсуждение с продакт-менеджерами.

🧺 Кейс 1: Стиральная машина в Средневековой Европе

Задача: Разработать MVP стиральной машины для условий средневековья (нет электричества, нет водопровода, другие социальные условия).

💡 Ключевые аспекты решения:

1. Целевая аудитория: прачки, служанки, крестьянские семьи.
2. Боли: тяжёлый труд, холодная вода, отсутствие времени, неудобство.
3. Конкуренты: ручная стирка, природные решения (водяные колёса).
4. Идея MVP: механическое устройство на водяной мельнице, стирающее сразу несколько вещей.
5. Метрики: количество отстиранного белья, удовлетворённость, сокращение времени.
6. Маркетинг: гонцы, слухи, ярмарки, церкви.
7. Ограничения: отсутствие технологий, нужны простые материалы (дерево, канаты).
8. Модели распространения: аренда, прачечные, версии для феодалов.

🤌 Обратная связь:

1. Плюсы: структура, работа с аудиторией.
2. Минусы: мало конкретики, не все гипотезы протестированы, нужны вопросы к нанимающему менеджеру (например: эпоха, регион, цели).

Как мне кажется, тут нужно было еще оценить объем рынка, необходимые инвестиции, возможно, к этому можно было бы подступиться через интервью, чтобы закрыть боли потенциальных клиентов.

🫙 Кейс 2: Подписка в Яндекс Банке

Задача: Разработать и обосновать подписочную модель для Яндекс Банка по аналогии с Тинькофф.

💡 Ключевые аспекты решения:

1. Анализ конкурентов: Тинькофф, Сбер, Альфа -> кэшбэк, статус, бонусы.
2. Цели Яндекса: рост LTV, удержание, рост выручки.
3. Гипотеза: пользователи хотят кэшбэк и статус.
4. ЦА: частые пользователи Яндекс-сервисов, миллениалы, городские жители.
5. Фичи: доп. кэшбэк в экосистеме, приоритетная поддержка, лимит на переводы.
6. Тестирование: MVP за 2 (4?) недели, A/B-тесты, тест на разных ЦА.
7. Метрики: конверсия в подписку, выручка, удержание, NPS, ARPU.
8. Запуск: бесплатный пробный период, ретаргетинг, промо-кампании.
9. Юнит-экономика: оценка затрат, возврата, LT/CPA.
10. Приоритизация: фичи, которые решают боли, легко объясняются и измеримы.

🤌 Обратная связь:

* Сильная сторона - рыночный анализ и работа с метриками.
* Рекомендация: больше вопросов к контексту, чётче проработка бизнес-целей.

🧠 Чему учат эти кейсы:

Показывают важность структурного мышления, установки границ, работы с метриками и понимания целей бизнеса.

Умение задать правильные вопросы нанимающему менеджеру - ключ к успешному решению.

Понравился пост? Ставьте 🐳, пишите комментарии!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20🐳944👍2
Всех с началом выходных!

Что успели поделать за неделю?
Чем планируете заниматься?

Пишите в комментариях!
😁147🔥5
Новая поляна

Всем привет! Недавно я обещал рассказать о том, куда я ухожу после Яндекса. Думаю, время настало, так как я успел отработать 5 дней 🥳

Я ушел Sr продуктовым аналитиком в рекламную платформу в WB 🛒.

По первым впечатлениям, все заходит и стек похож очень сильно на 💙, чему я очень сильно рад. Мне интересно написать будет про оптимизацию запросов, различные технологии (ближе к DE), планирую опубликовать пилотный пост, если зайдет, то в эту сторону тоже будем двигать!

По стеку: ClickHouse, Trino, SuperSet, Spark, HDFS, JupyterHub, GitLab.

Задач, которые можно тут сделать большое количество (как и везде в принципе, всегда найдется время что-то поделать): от базовой отчетности и исследований до реализации методологии A/B тестирования. Делать есть что и есть где развернуться 💻

По процессам, команде, проектам пока что все нравится, будем смотреть дальше как пойдет.

Сейчас я поступаю в магистратуру. Предварительно сдал большее количество вступительных испытаний (5+, без учета конкурсов портфолио). Если отдельно интересна эта тема, ставьте реакции (🐳 киты важно!). Скажу, как выбирал, почему рассматривал.

Делитесь в комментариях, кем и где работаете, чем занимаетесь, интересно понимать, где вы сейчас!
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳184🔥2213😁111
💫 Spark для аналитика (ч. 1)

Раньше в 💙 я работал немного со Spark, большая часть задач спокойно решалась внутри одной БД или выгрузкой в pandas.

Сейчас для моих задач Spark - это необходимость, чтобы не падал JupyterHub по оперативной памяти: все вычисления выполняются распределённо на кластере с большим объёмом ресурсов. Но это не волшебная таблетка, т.к. важно следить за тем, как используются ресурсы, грамотно настраивать Spark-приложения и оптимизировать запросы. На самом деле подход к работе с ресурсами здесь другой, и есть ряд ограничений, о которых расскажу в следующих постах 🙃

🥳 Как я использую сейчас

1. Собираю данные из разных источников
В реальных задачах часто нужно объединять сразу несколько источников: выгрузки из разных баз, parquet и тд. Пока всё влезает в pandas - норм, но когда данных слишком много, pandas начинает падать. Spark позволяет легко подтянуть все необходимые источники и собрать их в одну большую таблицу, не заботясь об ограничениях памяти.

2. Выполняю тяжёлые вычисления и агрегации
После того как все данные собраны, начинаются подсчеты метрик по большим объёмам данных. Здесь Spark выигрывает за счёт распределённых вычислений: вся тяжёлая работа идёт на кластере, а не на ноутбуке. Как только нужные агрегаты посчитаны, можно забрать результат и уже дальше анализировать, строить графики и т.д.

😍 Spark реально может работать дольше, чем pandas, если данных немного. Всё из-за архитектуры: Spark каждый раз поднимает распределённую систему, разбивает задачи на части, отправляет их на кластер и только потом собирает результат. Pandas же считает всё в оперативке и на небольших данных это быстрее почти всегда.

🔽Ниже прикрепляю основные функции для работы в Spark, которые я использую для решения задач аналитики

from pyspark.sql import SparkSession
from pyspark.sql.functions import avg, count

# запускаем Spark-сессию, тут еще можно закопаться в настройки приложения (если будет много 🐳, выложу)

spark = SparkSession.builder.appName("zasql_python").getOrCreate() # название приложения может быть произвольным

# читаем csv и кучу источников

df_csv = spark.read.csv("file.csv", header=True, inferSchema=True)
df_parquet = spark.read.parquet("file.parquet")
df_json = spark.read.json("file.json")

# джойним таблицы между собой

df_joined = df_csv.join(df_parquet, on="user_id", how="inner")

# фильтруем данные

df_filtered = df_joined.filter(df_joined["is_active"] == 1)

# применяем агрегирующие функции, считаем сумму строчек, среднее значение по заказам

df_grouped = (
df_filtered
.groupBy("country")
.agg(
count("*").alias("users_count"),
avg("order_sum").alias("avg_order_sum")
)
)

df_pandas = df_grouped.toPandas()


🐼 Очень похоже на pandas + можно в любой момент пересесть на spark.sql и писать в sql-формате любой запрос.

from pyspark.sql import SparkSession

spark = SparkSession.builder.appName("zasql_python_sql").getOrCreate() # произвольное название приложения, должно быть другим, если запускаем параллельно

df_orders = spark.read.parquet("orders.parquet") # читаем в Spark DataFrame первый источник источник
df_users = spark.read.csv("users.csv", header=True, inferSchema=True) # читаем в Spark DataFrame второй источник

df_orders.createOrReplaceTempView("orders") # создаем темповые таблицы заказов
df_users.createOrReplaceTempView("users") # создаем темповые таблицы юзеров

# теперь читаем тут в sql-формате

query = """
SELECT
u.country,
COUNT(DISTINCT o.user_id) AS active_users,
AVG(o.order_sum) AS avg_order_sum
FROM orders o
JOIN users u ON o.user_id = u.user_id
WHERE o.is_active = 1
GROUP BY u.country
ORDER BY avg_order_sum DESC
"""

result = spark.sql(query) # читаем в spark.sql, результат тот же получаем, но в SQL-формате
result.show() # показать значения, но можно перевести и в pandas, но ресурсов много сожрет


Spark спасает, когда надо соединить и обработать десятки миллионов строк из разных источников, и обычный pandas падает по памяти, ядро умирает.

Ставьте
🐳, если хотите продолжение истории про Spark 💫
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳153🔥1473👌2
😋 Когда задачи кочуют из спринта в спринт

Всем привет! У кого в трекере задач был таск, который существовал бесконечно (по крайнем мере вам так кажется)?

Лично у меня бывало такое: открываешь задачу, а она уже третью итерацию кочует из одного спринта в другой. Казалось бы, простая штука - это сделать дашборд или сделать аналитику, а в итоге эта задача никуда не уходит. Просто существует и все...

🥺 Обычно это такие долгоиграющие задачи, которые никто не решает до конца: то заказчик сменился, то приоритеты поменялись, то внезапно нужно переделать всё под новый бизнес-процесс. Муть страшная, если вовремя не сделать ряд действий, задача превратиться в рудимент, который нужно будет бесконечно поддерживать новыми правками.

Как это выглядит на практике
1. Встречи проходят, а таска осталась на месте, никаких апдейтов не произошло.
2. Заказчик на вопрос "актуально ли?" отвечает что-то типа "ну, наверное, да…", но сам не уверен. Обычно вот тут нужно остановиться и спросить более конкретно про задачу, которую покрывает инструмент.
3. На стендапах появляется лёгкая неловкость (или часть людей в принципе не интересуются): все понимают, что задача висит, но почему - никто не знает. Было такое, что задача у смежного направления могла висеть и по 2-3 месяца, хотя по сути нужно было декомпозировать до более мелких задач и прокачивать видимость выполнения работы)
4. В голове включается голос (от тебя): "Может, со мной что-то не так?" — и начинается самокопание. Расслабься, попробуй посмотреть с холодной головой, что ты действительно сделал и почему вообще это было нужно.

😋 Что делать?
1. Декомпозировать. Разбиваю задачу на мелкие шаги. Вообще это может выглядеть вот так, если, например, задача - это собрать классный дашборд!

а) поговорить с заказчиком
б) собрать сырые данные
в) проверить метрики
г) собрать прототип
д) выкатить первую версию.
е) поддержка.

2. Фиксировать всё письменно. Заказчик сказал устно - завтра забудет. И да, спустя время это спасает, когда возвращаемся к болям, тут важно ее закрыть и все будет топчик.
3. Не бояться возвращать задачу. Если ТЗ меняется - переоткрываю и честно спрашиваю: "А что реально нужно?" Часто оказывается, что половину уже не надо или приоритеты поменялись.

В следующих постах вернемся к техническим аспектам, ну а пока все!

Ставьте мои любимые реакции 🐳🐬, делитесь постом и пишите в комментариях были ли такие ситуации у вас!
Please open Telegram to view this post
VIEW IN TELEGRAM
45🐳1964🎄21
Аналитика мемов

😏 Возможно вы уже заметили подозрительную активность с каналом @ds_memes

😐 Рад поделиться с вами своим новым проектом. Хочу сделать его максимально прозрачным и раскрыть все карты.

В чем идея?
Хотелось сделать не просто ресурс с развлекательным контентом, а порционный источник дофамина, который позволит не залипать подолгу с бесконечными скроллом ленты в поисках хорошо сработавшей рекомендации, а разово закрыть свою потребность в просмотре видео и вернуться к более важным и интересным делам.

В чем суть?
Порционно: посты будут выходить ограниченное количество раз в день (пока 3, буду тюнить в зависимости от предпочтений подписчиков) в определенные промежутки времени - до работы / во время обеда / после работы.

Тематика: контент подобран только на определенную тему IT / работа / офис 💻

Ничего лишнего: никакой тяжелой теории и смыслов - только мемы.

Если вам интересно следить за развитием такого продукта, ставьте реакции - расскажу как полностью автоматизировал процесс публикации и подбора контента. Ставьте 🐳🐬, если интересно. Ссылочку продублирую тут.

И пусть у вас всегда будет под рукой база мемов для чата с коллегами 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳21144
💫 Spark для аналитика (ч.2.)

Собралось много реакций на предыдущем посте про Spark, делаю еще один!
Repartition в Spark. Зачем это вообще нужно?

В pandas не задумываешься про куски данных: читаете DataFrame и сразу работаешь с ним целиком. В Spark всё иначе: данные делятся на партиции (шарды), которые обрабатываются разными воркерами. Repartition позволяет управлять тем, как и насколько равномерно эти куски разбросаны по кластеру.

Зачем?

⚖️ Баланс нагрузки на кластер. Spark работает быстрее, если данные распределены по всем воркерам более-менее равномерно. Если партиций мало, часть узлов простаивает, остальные тянут всё на себе и теряется весь смысл распределённых вычислений.

🚤 Ускоряет джойны и агрегации. Самая частая боль в Spark - это медленные джойны или группировки. Причина часто в том, что данные по ключу раскиданы неравномерно. Если сделать .repartition("key") перед джойном Spark сможет склеить нужные куски локально, а не гонять данные по всему кластеру.

📝 Экономит память и снижает риск падений приложений. Иногда Spark после фильтрации или select делает ОЧЕНЬ перекошенные партиции: на одной куча данных, на другой почти ничего. Это может привести к OutOfMemory именно на одном воркере, при том что на других куча свободной памяти. Repartition выравнивает данные и размазывает нагрузку.

🗃️ Контроль количества файлов на выходе. Когда записываешь данные в parquet/csv, Spark по дефолту делает столько файлов, сколько партиций в DataFrame.
Если хочешь один файл — обязательно делайте .repartition(1) перед записью, иначе получишь кучу маленьких частей.

📝 Как это выглядит на практике

🔗 Джойны (делаем repartition по ключу объединения таблиц, так проще собрать ключи, разбросанные по кластеру)

df_left = df_left.repartition("user_id")
df_right = df_right.repartition("user_id")
df_joined = df_left.join(df_right, on="user_id", how="inner")


✍️ Запись (в примере ниже указано то, что на выходе мы получаем один файл).

df_result.repartition(1).write.parquet("result.parquet")


☝️ Изменяем количество партиций вручную.

df = df.repartition(50)  # вручную задаём 50 партиций


Обычно количество партиций автоматически подтягивается из конфига приложения, возможно, при настройке видели параметр spark.sql.shuffle.partitions

Самое важное в этом посте, что нужно искать размен между количеством партиций и размером задач на воркеры.
1️⃣
Слишком много партиций. Куча маленьких задач, и на маленьких данных становится только хуже, по скорости проседает.
2️⃣
Слишком мало партиций. Неэффективно, Spark теряет свою распределённость, одна нода делает всю работу.


Вообще в DA / DS / ML / DE мы всегда работаем с разменом (трейд-оффами) и все упирается в задачи, которые мы решаем)

Пишем дальше про Spark или нет?
🐳 — Пишем, давай еще, очень интересно
🤝 — Давай уже про что-то другое!
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳538🤝311
🔭 Пост про магистратуры

Всем привет! Сегодня хочу написать про магистратуры, которые рассматриваю, куда проходил вступительные. Сначала я думал, что будет достаточно стрессово, но как оказалось зря.

⚠️ На что я обращаю внимание

1. Онлайн-формат обучения, так как не в кайф подрываться на другой конец города (или вообще в другой город) за учебой.

2. Очная форма обучения + акредитованный вуз. Сейчас практически все онлайн-магистратуры предоставляют очный формат обучения, то есть все плюшки от него будут получены (если вы понимаете о чем я).

3. Айтишное образование. Первое мое образование (Менеджмент) не связано с айтишкой, по крайнем мере его нет в реестре специальностей на отсрочку, поэтому иду получать.

4. Возможное обучение чему-то новому. Управление AI-продуктами, ML. Постоянно чему-то учиться тоже кайф + если тут применить обязательные дедлайны (хочется еще не страдать от этого), обучение пройдет намного эффективнее.

5. Стоимость. Большинство магистратур предоставляют только платное обучение. Есть образовательные кредиты, но не хочется растягивать эту историю, учитывая, что брать его нужно на 15 лет. Конечно, можно все разом выплатить и не париться, но тоже один из факторов.

Куда я прошел вступительные испытания

💻💻💻 НИУ ВШЭ

1. Аналитика больших данных. Достаточно простенькое вступительное, очень сильно похоже на демовариант + курс на Stepik. Скидки нет, стоимость 490к в год. По модулям есть классные дисциплины с LLM / MLOps / ML для аналитики / DE / Продуктовые метрики. В общем, получается неплохой фуллстек аналитик.

2. Магистр по наукам о данных. Суммарный балл складывается из тестирования по математике, мотивационного письма, личных достижений и собеседования. Демовариант. Скидки нет, стоимость 490к в год. Тут больше упор на ML. По программе тоже зашло + процедура сама по себе не была такой сложной.

3. Искусственный интеллект. Более хардовая магистратура, есть скидки. Стоимость 520к в год. Упор на современные архитектуры, фундаментальные знания. В магистратуре нужно уделять больше времени, чем в предыдущих. В программе более детально описано. По демовариантам можно хорошо подготовиться + есть отдельные курсы на Stepik

🟢 МИФИ. Множество компаний коллабятся с этим вузом. От некоторых из них я прошел вступительные (простенькая математика + кейс), проблем с поступлением не вижу, стоимость ~400к + по наполнению у всех примерно одинаково. Есть плюсом военная кафедра. Вот пример одной из программ, хороший план.

▪️ Центральный университет. Посмотрел по программам, есть топовые преподаватели, например, Александр Дьяконов и Рома Васильев.
По вступительным: был контекст по математике и программированию.
Слышал много положительных отзывов + получил грант, по идее можно идти туда, но обучение очное в кампусе несколько раз в неделю. Ребята из ЦУ, если вы тут есть, напишите в комменты, как вам, очень интересно почитать.

😮 ИТМО. Подавался с портфолио на несколько программ по портфолио, сформировал релевантный опыт + достижения в виде участия в хакатонах, кейс-чемпионатах + выступлений. Понравилось, что есть бюджет + можно получить достаточное хорошее образование AI Talent Hub, УВБ и др. Будем отталкиваться от результатов собеседований и конкурса портфолио. Если будет еще и удаленный формат обучения — будет кайф!
Сейчас я склоняюсь к выбору МИФИ, но, возможно, мое решение поменяется. Поэтому буду рад услышать ваши за и против.

Ставьте 🐳, если пост понравился, делитесь вашим мнением

@zasql_python 👉 @ds_memes
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳48🔥135
Мемы

Всем доброе утро! Сегодня суббота, а это значит, что нужно отдыхать, уделять время себе после рабочей неделе, предлагаю прислать любимые мемы про DS / IT / работу в комментарии.

😏 Если мемы будут классные, то я их выложу в @ds_memes, а пока начну эстафету в комментариях.

Следующий пост выложу про то, как устроен пайплайн публикации мемов.

🐳🐳🐳

@zasql_python
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁10🐳421
😎 Крутые статьи на Хабре про A/B-тестирование от крупных компаний

A/B-тесты кажутся простыми: разделили аудиторию, сравнили метрики, сделали вывод. Но на практике можно легко допустить ошибку, которая приведёт к неправильным решениям. Собрал полезные статьи с Хабра, которые помогут разобраться в нюансах экспериментов и избежать классических фейлов и узнать что-то новое.

Топ постов от IT-компаний, в которых активно используется 🆎.

💙 Ozon

🟢Шесть причин, почему ваши A/B-тесты не работают
🟢Без А/B результат XЗ, или Как построить высоконагруженную платформу А/B-тестов

🖤 X5 Tech

🟢А/Б тесты с метрикой отношения. Дельта-метод
🟢Как проводить A/B-тестирование на 15 000 офлайн-магазинах
🟢50 оттенков линейной регрессии, или почему всё, что вы знаете об A/B тестах, помещается в одно уравнение
🟢Varioqub: за Mann-Whitney замолвите слово

🛒 Купер (ex. СберМаркет)

🟢Линеаризация: зачем и как укрощать ratio-метрики в A/B-тестах
🟢База: айсберг A/B-тестов

🌏 Авито

🟢Как устроено A/B-тестирование в Авито
🟢Как улучшить ваши A/B-тесты: лайфхаки аналитиков Авито. Часть 1
🟢Как улучшить ваши A/B-тесты: лайфхаки аналитиков Авито. Часть 2
🟢Сетап А/В-теста, который помог снизить MDE выручки в 2 раза
🟢Как мы в Авито проводим A/B-тесты CRM-рассылок

🤪 Lamoda Tech

🟢Как же мощно я провел A/B-тест, или почему не стоит сравнивать наблюдаемый аплифт с MDE

❤️ Яндекс

🟢10 мифов об A/B-тестировании: как избежать распространённых заблуждений в статистическом анализе

🏦 Т-банк

🟢Использование последовательного тестирования для уменьшения размера выборки

Ставьте 🐳, если подборка была полезной, сохраняйте к себе, чтобы не забыть! Следующую подборку сделаю по методам оценки эффекта без A/B тестирования

@zasql_python 👉 @ds_memes

Что-то забыл? Пишите в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳569🔥85👍42
Последние дни регистрации на E-CUP 2025 — самое масштабное ML-соревнование от Ozon Tech с призовым фондом 7 200 000 рублей 🔥

🗓 Регистрация до 17 августа включительно: https://cnrlink.com/ecup25zasqlpy
💻 Формат участия: онлайн
👥 Команда: от 1 до 5 человек
🎯 Для кого: Data Scientists, ML-специалисты, аналитики данных, дата-инженеры, специалисты Big Data и разработчики, которые интересуются ML/DS.

Что вас ждёт:
🔹 Работа над проектом для миллионов пользователей на основе данных от ведущего e-com в России.
🔹 Призовой фонд — 7 200 000 рублей для девяти сильнейших команд.
🔹 Обмен опытом с экспертами Ozon Tech.
🔹 Эксклюзивный мерч и подарки.
🔹 Питчинг — онлайн или очно на конференции E-CODE. Финалистам Ozon Tech предоставит билеты и оплатит поездку.

Три трека E-CUP:
1️⃣ Рекомендации: предсказание следующей покупки пользователя.
2️⃣ Логистика: автопланирование курьеров.
3️⃣ Контроль качества: автоматическое выявление поддельных товаров.

Соревнование пройдёт на платформе Codenrock. Задачи откроются 18 августа, решения принимаются до 1 сентября.

🔥 E-CUP 2025 — масштабные проекты. Реальные данные. Большие призы.
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥4👍2🐳2
Forwarded from Data Science Memes
Пятница, играем в русскую рулетку.

😏 @ds_memes
Please open Telegram to view this post
VIEW IN TELEGRAM
😁27🤣9😎2🤯1