Вопрос:
Очень хороший вопрос! Помогут разные техники user discovery, когда мы пытаемся самостоятельно «стать заказчиком» и попробовать понять с его стороны, что же нужно.
Тут всё равно не обойдётся совсем без участия заказчика — нужно будет в первую очередь понять, чем он занимается, в каких процессах участвует. После мы можем попробовать представить типичный день заказчика и сделать карту его аналитических потребностей и проблем.
Из фреймворков — это подходы JTBD (jobs to be done), user persona, user story. Это как представить себе, что вы запускаете новый продукт и пытаетесь найти нишу и product market fit — для кого же будет этот продукт и какие проблемы он будет решать.
Как понять, что хочет увидеть в дашборде заказчик, если он сам этого не понимает и не может объяснить?
Очень хороший вопрос! Помогут разные техники user discovery, когда мы пытаемся самостоятельно «стать заказчиком» и попробовать понять с его стороны, что же нужно.
Тут всё равно не обойдётся совсем без участия заказчика — нужно будет в первую очередь понять, чем он занимается, в каких процессах участвует. После мы можем попробовать представить типичный день заказчика и сделать карту его аналитических потребностей и проблем.
Из фреймворков — это подходы JTBD (jobs to be done), user persona, user story. Это как представить себе, что вы запускаете новый продукт и пытаетесь найти нишу и product market fit — для кого же будет этот продукт и какие проблемы он будет решать.
🔥7❤4 2
Эта программа профессиональной переподготовки — сплав науки от лучшего исследовательского вуза страны НИЯУ МИФИ и практики в формате симулятора реальной работы от Simulative.
Почему это ваш шанс?
Что вы получите?
Места на поток ограничены! Забронируйте место на курс уже сейчас и сделайте решающий шаг в карьере:
Есть вопросы по программе, оплате от компании или вступительным требованиям? Оставьте свои контакты на сайте, и наши менеджеры подробно ответят!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2 2
А мы продолжаем наш Q&A с Настей Кузнецовой!
Вопрос:
Вопрос:
Побольше бы примеров построения разных дашбордов с разборами ошибок и разных нестандартных ситуаций, с которыми можно столкнуться при построении дашбордов.
Ещё раз спасибо Насте и всем, кто задавал вопросы!
Напоминаем, что уже 30 января стартует авторский тренинг Насти «Осмысленные дашборды», где она поделится своим опытом построения эффективных дэшей.
За 9 недель вы пройдёте весь путь от сбора требований до релиза и поддержки дашборда и научитесь проектировать дашборды, ориентированные на бизнес-цели. А ещё пополните своё портфолио и сделаете шаг вперёд навстречу карьере!
📈 Бронируйте место на потоке уже сейчас: simulative.ru/bi-training
📊 Simulative
Напоминаем, что уже 30 января стартует авторский тренинг Насти «Осмысленные дашборды», где она поделится своим опытом построения эффективных дэшей.
За 9 недель вы пройдёте весь путь от сбора требований до релиза и поддержки дашборда и научитесь проектировать дашборды, ориентированные на бизнес-цели. А ещё пополните своё портфолио и сделаете шаг вперёд навстречу карьере!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥1 1
Проект студента: ETL-процесс для обработки данных в LMS
Делимся ещё одним крутым проектом нашего студента курса «Аналитик данных», который высоко оценили преподаватели!
Александр реализовал ETL-процесс для автоматической обработки данных об учебной активности студентов. Система на удалённом сервере с помощью cron ежедневно в 7 утра собирает данные по API, загружает их в PostgreSQL, формирует отчёт в Google Sheets, отправляет email-уведомления, визуализирует результаты в Metabase и логирует все происходящее. Цель — исключить ручной сбор данных и мониторить ключевые метрики.
Студент благодарит преподавателя Илью Трофимова и ментора Александра Грудинина за помощь в этом проекте!
👩💻 Посмотреть проект можно по ссылке: https://github.com/iwswmb/lms-analytics-pipeline
📊 Simulative
Делимся ещё одним крутым проектом нашего студента курса «Аналитик данных», который высоко оценили преподаватели!
Александр реализовал ETL-процесс для автоматической обработки данных об учебной активности студентов. Система на удалённом сервере с помощью cron ежедневно в 7 утра собирает данные по API, загружает их в PostgreSQL, формирует отчёт в Google Sheets, отправляет email-уведомления, визуализирует результаты в Metabase и логирует все происходящее. Цель — исключить ручной сбор данных и мониторить ключевые метрики.
Главной сложностью было правильно развернуть всё на сервере, так как Metabase постоянно падал из-за нехватки ресурсов. Пришлось изрядно повозиться, чтобы добиться корректной работы и не платить много денег за сервер.
Студент благодарит преподавателя Илью Трофимова и ментора Александра Грудинина за помощь в этом проекте!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27❤7 3
Как аналитику данных покорить рынок в 2026 году? Отвечают NEWHR и Simulative
NEWHR с 2018 года проводят исследование рынка аналитиков: отслеживают тренды рынка и выясняют, как аналитики ищут работу, какие задачи выполняют чаще всего и как планируют развиваться в профессии.
Приглашаем всех аналитиков и тех, кто хочет перейти в эту профессию, на вебинар, где взглянем на поиск работы со стороны HR и поговорим:
➖ Какие изменения происходят на рынке труда для аналитиков;
➖ Как сделать поиск работы более эффективным;
➖ Что важно учитывать при подготовке к собеседованию.
➡️ Зарегистрироваться на вебинар
Вебинар проведут:
*️⃣ Кира Кузьменко, фаундер международного рекрутингового агентства NEWHR, автор курса по поиску работы Hello New Job!, сервиса анонимного поиска работы Geekjob и подкаста Собес.
*️⃣ Оксана Прутьянова, лидер направления поиска аналитиков и дата-сайентистов в NEWHR, член исследовательской команды NEWHR;
*️⃣ Наталья Рожкова, HR Simulative, ex-ANCOR IT-рекрутмент, ex-HRtech, эксперт по найму топов.
Вебинар будет полезен:
➖ тем, кто начинает карьеру в сфере аналитики;
➖ тем, кто хочет сменить профессию и перейти в анализ данных;
➖ аналитикам данных, которые хотят прокачать навыки поиска работы и понять требования рынка.
❗️ Встречаемся 22 января в 19:00 МСК
➡️ Зарегистрироваться на вебинар
📊 Simulative
NEWHR с 2018 года проводят исследование рынка аналитиков: отслеживают тренды рынка и выясняют, как аналитики ищут работу, какие задачи выполняют чаще всего и как планируют развиваться в профессии.
Основатель NEWHR Кира Кузьменко и авторы исследования 2025 года готовы поделиться промежуточными результатами из первых уст😉
Приглашаем всех аналитиков и тех, кто хочет перейти в эту профессию, на вебинар, где взглянем на поиск работы со стороны HR и поговорим:
Вебинар проведут:
Вебинар будет полезен:
💬 Всем зарегистрировавшимся в боте дарим полезные материалы от NewHR для старта карьеры в аналитике!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥5 2👍1
Аналитики часто решают нестандартные задачи с помощью нестандартных методов. В итоге код становится нагруженным, сложно читаемым и его сложно поддерживать. Чтобы упростить код и ускорить решение задачи, можно использовать оконные функции.
В статье блога разберёмся, что это такое, какие они бывают и как их использовать:
https://simulative.ru/blog/window-functions-sql
📊 Simulative
В статье блога разберёмся, что это такое, какие они бывают и как их использовать:
https://simulative.ru/blog/window-functions-sql
Please open Telegram to view this post
VIEW IN TELEGRAM
О значимости времени и стандартов
Всем привет! На связи Георгий Семенов, руководитель команды Analytics Engineer в Яндекс и ментор курса «Инженер данных».
Давным-давно, еще в доковидные времена, нам понадобилось настроить сбор ежедневных статистик наших мобильных приложений из личного кабинета Apple Developer.
Настроили импорт через API — миссия выполнена. Но не тут-то было. Данные не сходились с другим источником, который мы использовали для учета установок и сессий приложений (Appsflyer).
Довольно быстро выяснили, что Apple отдаёт даты в таймзоне Pacific Time, который меньше UTC на 7 часов летом и на 8 зимой, тогда как мы всегда использовали UTC. Сейчас Apple уже умеет в UTC, но тогда это стало для нас проблемой, ведь мы не могли сверить свои финансовые и продуктовые отчеты. Хорошо, что нам было с чем сверять. Иначе ошибка могла пройти незамеченной — и такое случается.
А ведь большинство табличных данных — это time-series.
И да — для этого недостаточно указать дефолтную timezone в настройках вашей БД.
В том или ином виде я постоянно сталкиваюсь с проблемами смещения времени и их последствиями. Если модель данных хранилища недостаточно хорошо спроектирована, то потребителю данных будет очень легко упустить различие между таймстэмпами и сравнить несравнимое: PT с UTC, дату события с датой получения события.
И дело не только во времени. Другие поля (идентификаторы, денежные суммы, категории и прочее) часто имеют в разных источниках разные названия, типы данных и форматы значений даже для одних и тех же реальных объектов. Всё это серьезно осложняет задачу получения ценности из данных.
Во многом именно поэтому считается, что 80% работы аналитика — это очистка и подготовка данных. Но качественная работа архитекторов и инженеров данных может в несколько раз упростить аналитику жизнь.
Структура вашего хранилища должна быть максимально понятной. Чтобы ваши коллеги даже без обращения к документации понимали где какие данные искать.
И что, например, поле business_dttm во всех time-series таблицах является первичным ключом партиции и имеет тип timestamp с таймзоной UTC, а колонка product_id во всех таблицах означает одну и ту же сущность (по крайней мере, в рамках одного бизнес-домена, но это уже отдельная история).
Так они совершат меньше ошибок и зададут вам меньше вопросов. Особенно, если среди них есть неискушенные бизнес-пользователи, а у вас self-service BI.
⁉️ Так как же мы решили этот кейс?
Поскольку date, в отличие от datetime, нельзя конвертировать в наш стандартный часовой пояс, то надо явно дать понять пользователю о нестандартной ситуации. И если мы называли поле с датой business_date, то это назвали business_date_pacific_time.
💬 А как бы сделали вы? Пишите в комментариях) И если у вас были похожие истории — тоже обязательно поделитесь!
📊 Simulative
Всем привет! На связи Георгий Семенов, руководитель команды Analytics Engineer в Яндекс и ментор курса «Инженер данных».
Давным-давно, еще в доковидные времена, нам понадобилось настроить сбор ежедневных статистик наших мобильных приложений из личного кабинета Apple Developer.
Настроили импорт через API — миссия выполнена. Но не тут-то было. Данные не сходились с другим источником, который мы использовали для учета установок и сессий приложений (Appsflyer).
Довольно быстро выяснили, что Apple отдаёт даты в таймзоне Pacific Time, который меньше UTC на 7 часов летом и на 8 зимой, тогда как мы всегда использовали UTC. Сейчас Apple уже умеет в UTC, но тогда это стало для нас проблемой, ведь мы не могли сверить свои финансовые и продуктовые отчеты. Хорошо, что нам было с чем сверять. Иначе ошибка могла пройти незамеченной — и такое случается.
А ведь большинство табличных данных — это time-series.
Время — это основной ключ партицирования данных в хранилище, используемый для фильтрации, группировки и даже JOIN. Поэтому очень важно, чтобы все обработанные данные хранились в едином часовом поясе.
И да — для этого недостаточно указать дефолтную timezone в настройках вашей БД.
В том или ином виде я постоянно сталкиваюсь с проблемами смещения времени и их последствиями. Если модель данных хранилища недостаточно хорошо спроектирована, то потребителю данных будет очень легко упустить различие между таймстэмпами и сравнить несравнимое: PT с UTC, дату события с датой получения события.
И дело не только во времени. Другие поля (идентификаторы, денежные суммы, категории и прочее) часто имеют в разных источниках разные названия, типы данных и форматы значений даже для одних и тех же реальных объектов. Всё это серьезно осложняет задачу получения ценности из данных.
Во многом именно поэтому считается, что 80% работы аналитика — это очистка и подготовка данных. Но качественная работа архитекторов и инженеров данных может в несколько раз упростить аналитику жизнь.
Поэтому я обобщу свою мысль — для хранилища очень важна стандартизация: таймзон, типов данных, названий, значений и много чего еще.
Структура вашего хранилища должна быть максимально понятной. Чтобы ваши коллеги даже без обращения к документации понимали где какие данные искать.
И что, например, поле business_dttm во всех time-series таблицах является первичным ключом партиции и имеет тип timestamp с таймзоной UTC, а колонка product_id во всех таблицах означает одну и ту же сущность (по крайней мере, в рамках одного бизнес-домена, но это уже отдельная история).
Так они совершат меньше ошибок и зададут вам меньше вопросов. Особенно, если среди них есть неискушенные бизнес-пользователи, а у вас self-service BI.
⁉️ Так как же мы решили этот кейс?
Поскольку date, в отличие от datetime, нельзя конвертировать в наш стандартный часовой пояс, то надо явно дать понять пользователю о нестандартной ситуации. И если мы называли поле с датой business_date, то это назвали business_date_pacific_time.
💬 А как бы сделали вы? Пишите в комментариях) И если у вас были похожие истории — тоже обязательно поделитесь!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤5 2
Как писать красивый код на Pandas
Одна из самых классных фишек Pandas, которой многие не пользуются — это
Большая проблема кода на Pandas в том, что его сложно читать — у нас либо слишком длинные строки с последовательным применением методов, либо куча лишних переопределений переменных. Например, вариант 1:
Вариант 2:
А вот как пишут код на Pandas люди, которые шарят в Pandas и любят красивый код:
Этот код писал один из членов нашей команды, Даниил. Чтобы понять его на 100%, надо немного погрузиться в задачу и понимать Pandas, но одно можно сказать точно — это максимально красиво и удобно! Согласны?
Делается
1. Вся последовательность команд оборачивается в скобки;
2. Каждая новая операция переносится на новую строку.
А если ещё красиво оформить отступы (как в примере), то вообще будет отлично! В основном, IDE, в которой вы пишите код, делает это за вас.
Как вам такой метод? Ждём🔥
➡️ Ну а если хотите еще лучше разбираться в Pandas — присоединяйтесь к нам в бесплатном курсе! Регистрация: simulative.ru/pandas
📊 Simulative
Одна из самых классных фишек Pandas, которой многие не пользуются — это
method chaining или цепочки методов. Большая проблема кода на Pandas в том, что его сложно читать — у нас либо слишком длинные строки с последовательным применением методов, либо куча лишних переопределений переменных. Например, вариант 1:
# Здесь у нас длинная строка с кучей методов - все в кашу
df.do().do_more().do_something_else()...
Вариант 2:
# Здесь каждое действие делается в отдельной строке
# так еще и лишнее переопределение df происходит
df = df.do()
df = df.do_more()
df = df.do_something_else()
...
А вот как пишут код на Pandas люди, которые шарят в Pandas и любят красивый код:
redistributed_orders_amount = (
area_orders_agg.drop(columns="warehouse_name")
.rename(columns={"preferred_warehouse": "warehouse_name"})
.query("~is_local_delivery")
.groupby(group_fields)["orders_amount"]
.sum()
.rename("redistributed_orders_amount")
)
Этот код писал один из членов нашей команды, Даниил. Чтобы понять его на 100%, надо немного погрузиться в задачу и понимать Pandas, но одно можно сказать точно — это максимально красиво и удобно! Согласны?
Делается
method chaining очень просто (в коде выше видно):1. Вся последовательность команд оборачивается в скобки;
2. Каждая новая операция переносится на новую строку.
А если ещё красиво оформить отступы (как в примере), то вообще будет отлично! В основном, IDE, в которой вы пишите код, делает это за вас.
Как вам такой метод? Ждём
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥8❤1 1
Целых три вебинара на этой неделе!
Строим рекомендательные системы, разбираемся в профессии аналитика данных и решаем, как искать работу в 2026🧡
Регистрируйтесь на интересные вебинары и добавляйте к себе в календарь, чтобы не забыть!
📊 Simulative
Строим рекомендательные системы, разбираемся в профессии аналитика данных и решаем, как искать работу в 2026
✅ 20 января, 19:00 МСК — «Как работают рекомендации товаров на маркетплейсах? Строим собственную рекомендательную систему»
На вебинаре с Марией Жаровой, ML-инженером из команды рекомендательных систем Wildberries и автором канала Easy data, разберём, как на самом деле работают рекомендации товаров в маркетплейсах и за счёт чего они увеличивают продажи. В качестве практики построим простую рекомендательную систему для каталога товаров: пройдём весь путь — от подготовки данных до модели, которая предлагает пользователю релевантные товары.➡️ Зарегистрироваться на вебинар
✅ 21 января, 19:00 МСК — «Как перейти в аналитику данных в 2026 году: чёткий план, навыки и сроки перехода»
Эксперт вебинара Вячеслав Потапов, руководитель отдела продуктовой аналитики в Lamoda, регулярно смотрит резюме, общается с кандидатами и понимает, за что нанимают аналитиков. На вебинаре вы получите пошаговый план перехода в аналитику: какие навыки закрыть в первую очередь, как собрать портфолио без учебных проектов, как оценить свою готовность и сроки и как выглядят требования работодателей к junior‑аналитику сегодня.➡️ Зарегистрироваться на вебинар
✅ 22 января, 19:00 МСК — «Как аналитику данных покорить рынок в 2026 году? Отвечают NEWHR и Simulative»
Вместе с гостями из NEWHR посмотрим на поиск работы глазами рекрутеров и HR: какие изменения происходят на рынке труда для аналитиков, как сделать поиск работы более эффективным и что важно учитывать при подготовке к собеседованию. А также коллеги поделятся промежуточными результатами исследования рынка аналитиков за 2025 год.➡️ Зарегистрироваться на вебинар
Регистрируйтесь на интересные вебинары и добавляйте к себе в календарь, чтобы не забыть!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤2 1
Алгоритмы машинного обучения: виды и примеры
Разберёмся, как работают алгоритмы и как они могут изменить наш подход к решению задач.
🤖 Линейная регрессия
Это один из самых простых и популярных методов машинного обучения, используемый для моделирования зависимости между одной зависимой переменной (целевой переменной) и одной или несколькими независимыми переменными (предикторами). Этот метод позволяет предсказывать значения целевой переменной на основе значений предикторов, что делает его полезным в различных областях, таких как экономика, биология и социальные науки.
Линейная регрессия часто используется для прогнозирования числовых значений, таких как цены на жильё или продажи товаров. Она также помогает в анализе данных, позволяя выявить, какие переменные оказывают наибольшее влияние на целевую переменную.
Для оценки качества модели применяются метрики, такие как среднеквадратичная ошибка (MSE) и коэффициент детерминации (R²). MSE показывает, насколько предсказанные значения отклоняются от фактических значений, а R² указывает на долю вариации зависимой переменной, объясняемую моделью.
Пример создания модели:
🤖 Логистическая регрессия
Логистическая регрессия используется для задач бинарной классификации. Она позволяет предсказывать вероятность принадлежности объекта к определенному классу (например, «да» или «нет»). Этот метод основан на логистической функции и преобразует линейную комбинацию входных переменных в вероятность.
Логистическая регрессия широко используется в медицинской диагностике (например, для прогнозирования наличия болезни), оценке кредитоспособности и выявлении мошенничества. Она позволяет эффективно классифицировать объекты на основе различных признаков.
Пример создания модели:
🤖 Деревья решений
Деревья решений представляют собой интуитивно понятный метод классификации и регрессии. Они делят данные на подгруппы на основе значимых атрибутов, создавая структуру в виде дерева. Каждый узел дерева представляет собой условие на одном из признаков.
Деревья решений используются в бизнес-аналитике для принятия решений и анализа рисков. Они легко интерпретируемые и визуализируемые, что делает их популярными среди специалистов по данным.
Пример создания модели:
➡️ Другие алгоритмы обучения разобрали в статье: simulative.ru/blog/algorithms-ml
Если у вас есть вопросы или вы хотите узнать больше о конкретных алгоритмах и примерах, пишите в комментариях!
📊 Simulative
Разберёмся, как работают алгоритмы и как они могут изменить наш подход к решению задач.
Это один из самых простых и популярных методов машинного обучения, используемый для моделирования зависимости между одной зависимой переменной (целевой переменной) и одной или несколькими независимыми переменными (предикторами). Этот метод позволяет предсказывать значения целевой переменной на основе значений предикторов, что делает его полезным в различных областях, таких как экономика, биология и социальные науки.
Она описывается уравнением:
y=aX + b, где a — коэффициент наклона, b — свободный член.
Линейная регрессия часто используется для прогнозирования числовых значений, таких как цены на жильё или продажи товаров. Она также помогает в анализе данных, позволяя выявить, какие переменные оказывают наибольшее влияние на целевую переменную.
Для оценки качества модели применяются метрики, такие как среднеквадратичная ошибка (MSE) и коэффициент детерминации (R²). MSE показывает, насколько предсказанные значения отклоняются от фактических значений, а R² указывает на долю вариации зависимой переменной, объясняемую моделью.
Пример создания модели:
from sklearn.linear_model import LinearRegression
# Создание и обучение модели
model = LinearRegression()
model.fit(X, y)
Логистическая регрессия используется для задач бинарной классификации. Она позволяет предсказывать вероятность принадлежности объекта к определенному классу (например, «да» или «нет»). Этот метод основан на логистической функции и преобразует линейную комбинацию входных переменных в вероятность.
Логистическая регрессия описывается уравнением:
P(Y=1∣X)= 1/(1+e^−(aX+b)), где P(Y=1∣X) — вероятность того, что событие произойдёт.
Логистическая регрессия широко используется в медицинской диагностике (например, для прогнозирования наличия болезни), оценке кредитоспособности и выявлении мошенничества. Она позволяет эффективно классифицировать объекты на основе различных признаков.
Пример создания модели:
from sklearn.linear_model import LogisticRegression
# Создание и обучение модели
model = LogisticRegression()
model.fit(X, y)
Деревья решений представляют собой интуитивно понятный метод классификации и регрессии. Они делят данные на подгруппы на основе значимых атрибутов, создавая структуру в виде дерева. Каждый узел дерева представляет собой условие на одном из признаков.
Деревья решений используются в бизнес-аналитике для принятия решений и анализа рисков. Они легко интерпретируемые и визуализируемые, что делает их популярными среди специалистов по данным.
Пример создания модели:
from sklearn.tree import DecisionTreeClassifier
# Создание и обучение модели дерева решений
model = DecisionTreeClassifier()
model.fit(X, y)
Если у вас есть вопросы или вы хотите узнать больше о конкретных алгоритмах и примерах, пишите в комментариях!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥6👍2 1
This media is not supported in your browser
VIEW IN TELEGRAM
Готовы покорить рынок данных в 2026? Секреты от тех, кто знает его изнутри
Кажется, что все хотят стать аналитиками данных. Но что на самом деле ждет профессию в новом году? Как выделиться среди тысяч кандидатов и найти работу мечты?
Ответы знают те, кто ежедневно изучает рынок и закрывает вакансии: NEWHR и Simulative. С 2018 года NEWHR проводят масштабное исследование рынка аналитиков. Они видят все тренды, ловят каждый сигнал и знают, что будет завтра.
➡️ Регистрация
На вебинаре разберём:
➖ Тренды 2026: что происходит на рынке труда для аналитиков прямо сейчас и куда он движется;
➖ Эффективный поиск: как перестать отправлять резюме в пустоту и выстроить стратегию;
➖ Собеседование: на что действительно смотрят HR и наниматели, когда берут в команду.
📆 22 января, 19:00 МСК
🎁 Всем зарегистрировавшимся в боте — полезный гайд от NEWHR для старта в аналитике!
➡️ Регистрация
📊 Simulative
Кажется, что все хотят стать аналитиками данных. Но что на самом деле ждет профессию в новом году? Как выделиться среди тысяч кандидатов и найти работу мечты?
Ответы знают те, кто ежедневно изучает рынок и закрывает вакансии: NEWHR и Simulative. С 2018 года NEWHR проводят масштабное исследование рынка аналитиков. Они видят все тренды, ловят каждый сигнал и знают, что будет завтра.
22 января в 19:00 МСК основатель NEWHR Кира Кузьменко и авторы исследования 2025 года лично поделятся промежуточными результатами и главными инсайтами.
На вебинаре разберём:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤5😁1 1
Через 2 часа построим свою рекомендательную систему
Мария Жарова, ML-инженер из команды рексистем Wildberries и автор канала Easy data, ждёт вас на вебинаре!
Вы увидите, как устроены рекомендации в маркетплейсах изнутри, разберётесь, чем занимается ML-инженер и поймёте, почему ML стал массовым инструментом в бизнесе и зачем компании вкладываются в найм ML-специалистов.
♾ Регистрация
📊 Simulative
Мария Жарова, ML-инженер из команды рексистем Wildberries и автор канала Easy data, ждёт вас на вебинаре!
Вы увидите, как устроены рекомендации в маркетплейсах изнутри, разберётесь, чем занимается ML-инженер и поймёте, почему ML стал массовым инструментом в бизнесе и зачем компании вкладываются в найм ML-специалистов.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5❤3👏3
Почему 80% дашбордов проваливаются?
Привет! На связи Анастасия Кузнецова, BI-эксперт и автор тренинга «Осмысленные дашборды» 👋🏻
Если вы создали красивый дашборд с крутой аналитикой, а им почти не пользуются, это системная проблема. Её корень в классическом, но в порочном подходе к построению дашбордов — мы строим инструмент, который не решает никаких задач и сделан просто чтобы быть.
Вместо того, чтобы начинать обсуждать визуализации и какие данные есть, начните с задачи. Попробуйте спросить — на какие вопросы должен отвечать дашборд и какую из ваших задач он должен помочь решить?
Провал происходит, когда дашборд проектируется исходя из данных, а не вокруг Jobs-to-be-Done (JTBD) — реальных рабочих задач пользователя. Безусловно, данные важны и без них никакого дашборда не будет, но фокус только на них мешает нам подумать, а что действительно может помочь решить задачу Х и подумать о том, каких данных может в том числе не хватать.
Как научиться собирать такие требования? Мы детально разбираем эту методологию на тренинге «Осмысленные дашборды». Вы узнаете:
🟠 Техники интервью, чтобы «докопаться» до истинной задачи;
🟠 Фреймворк для перевода пользовательских историй в структуру дашборда;
🟠 Как приоритизировать функции, чтобы делать только то, что действительно нужно;
🟠 Готовые шаблоны для описания требований, которые поймут и аналитики, и бизнес.
Превратите ваш дашборд из музейного экспоната в ежедневный рабочий инструмент!
✅ Забронировать место на тренинге: simulative.ru/bi-training
📊 Simulative
Привет! На связи Анастасия Кузнецова, BI-эксперт и автор тренинга «Осмысленные дашборды» 👋🏻
Если вы создали красивый дашборд с крутой аналитикой, а им почти не пользуются, это системная проблема. Её корень в классическом, но в порочном подходе к построению дашбордов — мы строим инструмент, который не решает никаких задач и сделан просто чтобы быть.
Вместо того, чтобы начинать обсуждать визуализации и какие данные есть, начните с задачи. Попробуйте спросить — на какие вопросы должен отвечать дашборд и какую из ваших задач он должен помочь решить?
Провал происходит, когда дашборд проектируется исходя из данных, а не вокруг Jobs-to-be-Done (JTBD) — реальных рабочих задач пользователя. Безусловно, данные важны и без них никакого дашборда не будет, но фокус только на них мешает нам подумать, а что действительно может помочь решить задачу Х и подумать о том, каких данных может в том числе не хватать.
В своей статье я разобрала концепцию JTBD подробнее: https://nastengraph.substack.com/p/jobs-to-be-done-a-user-centered-approach
Как научиться собирать такие требования? Мы детально разбираем эту методологию на тренинге «Осмысленные дашборды». Вы узнаете:
Превратите ваш дашборд из музейного экспоната в ежедневный рабочий инструмент!
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🔥3 1
Обзор курса «Инженер данных»
На одном из вебинаров Георгий Семёнов, руководитель команды Analytics Engineer в Яндексе и ментор потока «Инженер данных», рассказал об инструментах, которые мы даём на курсе.
Мы решили вырезать этот фрагмент из вебинара и поделиться с вами — вы узнаете, из каких модулей состоит курс и какие навыки вы освоите в процессе обучения.
Смотрите там, где удобно:
📱 YouTube
📱 VK Видео
✅ А оставить заявку на курс можно тут: simulative.ru/data-engineer
📊 Simulative
На одном из вебинаров Георгий Семёнов, руководитель команды Analytics Engineer в Яндексе и ментор потока «Инженер данных», рассказал об инструментах, которые мы даём на курсе.
Мы решили вырезать этот фрагмент из вебинара и поделиться с вами — вы узнаете, из каких модулей состоит курс и какие навыки вы освоите в процессе обучения.
Смотрите там, где удобно:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤3 1
Как перейти в аналитику данных в 2026 году? Обсудим через пару часов
Вячеслав Потапов, руководитель отдела продуктовой аналитики в Lamoda, ждёт вас на вебинаре, где вы:
🟠 Поймёте ценность аналитики на языке бизнеса: какие задачи помогают принимать решения и какие джун делает на практике;
🟠 Получите реалистичный маршрут на 6–8 месяцев до готовности к трудоустройству;
🟠 Разберёте требования работодателей к джуну: что считается базой и что обычно идёт «плюсом», чтобы не тратить время на лишнее;
🟠 Унесёте понятный план того, как сформировать портфолио и резюме, которые выгодно выделят вас на фоне других кандидатов.
➡️ Зарегистрироваться на вебинар
📊 Simulative
Вячеслав Потапов, руководитель отдела продуктовой аналитики в Lamoda, ждёт вас на вебинаре, где вы:
#️⃣ А ещё к вебинару подключится выпускник нашего курса, который нашёл работу ещё до его окончания! Он расскажет, насколько тот пошаговый план, который мы дадим на вебинаре, соответствует реальности, сколько он учился, искал работу и с какого раза получил оффер.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥2 1