#Moscow #Москва #DataEngineer #ДатаИнженер #DE #Python #Spark #Airflow #Офис
Всем привет!
Ищем Data Engineer в команду компании-стартапа с крупным заказчиком и быстрым развитием. Будем разрабатывать CDP (costumer data platform), для сегментации пользователей на аудитории, а также выполнять много других интересных задач.
🔸Что нужно будет делать:
Проектировать, разрабатывать и поддерживать пайплайны для сбора и обработки данных;
Обеспечивать SLA и качество данных;
Готовить данные для моделей машинного обучения и участвовать в их продукционализации совместно с data science командой.
🔹Что для этого нужно:
Хорошее знание технологий из стека: Python, SQL, Spark, Airflow;
Опыт работы на проектах с большими данными, понимание принципов распределенной обработки данных;
Опыт продуктовой разработки в технологических компаниях.
🔸Будет плюсом:
Опыт работы с облаками, особенно, с Яндекс.Облаком;
Опыт разработки высоконагруженных бэкенд сервисов на Java, Scala или Python;
Опыт работы с моделями машинного обучения в продакшене;
Опыт работы с базами данных для аналитики, особенно, с ClickHouse.
🔹Предлагаем:
Официальное оформление с достойной заработной платой;
Красивый современный офис в Трехгорной мануфактуре;
Возможность влиять на развитие продукта;
Работа в стремительно развивающейся компании.
Интересно? Пишите в тг @baiev_rodion93
Всем привет!
Ищем Data Engineer в команду компании-стартапа с крупным заказчиком и быстрым развитием. Будем разрабатывать CDP (costumer data platform), для сегментации пользователей на аудитории, а также выполнять много других интересных задач.
🔸Что нужно будет делать:
Проектировать, разрабатывать и поддерживать пайплайны для сбора и обработки данных;
Обеспечивать SLA и качество данных;
Готовить данные для моделей машинного обучения и участвовать в их продукционализации совместно с data science командой.
🔹Что для этого нужно:
Хорошее знание технологий из стека: Python, SQL, Spark, Airflow;
Опыт работы на проектах с большими данными, понимание принципов распределенной обработки данных;
Опыт продуктовой разработки в технологических компаниях.
🔸Будет плюсом:
Опыт работы с облаками, особенно, с Яндекс.Облаком;
Опыт разработки высоконагруженных бэкенд сервисов на Java, Scala или Python;
Опыт работы с моделями машинного обучения в продакшене;
Опыт работы с базами данных для аналитики, особенно, с ClickHouse.
🔹Предлагаем:
Официальное оформление с достойной заработной платой;
Красивый современный офис в Трехгорной мануфактуре;
Возможность влиять на развитие продукта;
Работа в стремительно развивающейся компании.
Интересно? Пишите в тг @baiev_rodion93
👍7❤1🔥1
#работа #вакансия #job #vacancy #fulltime #удаленка #офис #remote #SQL #DE #Python #PySpark #Airflow #Data
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
@datascienceml_jobs
Data engineer в Aston на проект платформы, которая распределяет работу между сотнями исполнителей.
Требования:
-Опыт работы в роли Data Engineer от 2\3-х лет;
-Хорошее знание Python и SQL
-Практический опыт решения алгоритмических задач
Будет плюсом:
-Знание PySpark
-Опыт работы с Databricks из Airflow
-Опыт работы с Airflow
-Знание Bash, Docker
-Высшее математическое или физико-математическое образование
Условия:
- работа удаленно или в офисе, фултайм
- система менторства и адаптации (куратор, четкий план роста, своя школа архитекторов,
а также корпоративный обучающий портал для любого стека вашей специализации)
- возможность выбора/смены проекта
- медицинское страхование (+стоматология)
- возможность доп заработка через участие в активностях компании
- компенсация спорта и англ языка
- помощь в отсрочке (входим в РФ реестр ИТ-компаний)
- ЗП на руки 150-240к ₽ и более
Контакт для связи Ян @job_accelerator
@datascienceml_jobs
#вакансия #dataengineer #senior #python #airflow #aws
Позиция: Data engineer
Уровень: Senior
Локация: за пределами РФ и РБ, готовность работать по GMT+3
Формат работы : remote
Занятость: full-time, 5/2
ЗП: от 5000 до 8000 usd gross (оформление по b2b контракту)
Контакт: @sobolevavalery
Всем привет! Меня зовут Лера, я работаю в КА Lucky Hunter: https://luckyhunter.io/
Мы находимся в поисках Senior Data Engineer на интересный проект для Travel рынка.
Про продукт 🏄♀️
Основной продукт создан на стыке психологии и современных технологий, это умный помощник, который помогает построить персонализированный маршрут путешествий в считанные минуты, используя анализ данных.
В июне 2022 года продукт вышел в релиз на американский рынок, команда получила фидбек, что пользователи хотят маршруты в ЕС, ОАЭ, позднее начали добавлять европейские города. Сейчас планируют покрыть всю Европу, часть Азии, Канаду.
Команда 💫
На сегодняшний день в компании cформирована сильная команда из 43 специалистов (Backend Developers, Frontend Developers, Data Scientists, Business Analyst, QA Engineers, DevOps Engineers, Project Manager, Marketing, Designers, etc).
Команда DS состоит из четырех человек - DS Тимлид, DS общего профиля и два Python разработчика. Из-за стремительного развития продукта коллеги находятся в поиске Senior Data Engineer, которому предстоит "реанимировать" ранее уже запущенные data pipelines, перевести решение в продакшен и переложить на Airflow, а также продолжить дальнейшую реализацию и развитие пайплана с добавлением новых источников и организацией процедуры обновления данных. В качестве единственного DE в команде вы будете принимать все ключевые решения с точки зрения инженерии данных и выбора новых технологий и процедур хранения данных.
С точки зрения технологий на текущий момент это Python, Airflow, SQL, ElasticSearch, AWS (S3), Docker.
Команда работает по скрам канбану.
Детальнее о задачах:
- Разрабатывать и оптимизировать пайплайны, ETL-процедуры;
- Разработка мониторинга и алертинга (Grafana, Prometheus);
- Автоматизация скриптов дата-аналитиков и обработка сырых данных.
Какой опыт и знания коллеги ожидают увидеть: 🔎
- Понимание моделей данных и принципов устройства хранилищ данных;
- Хорошее знание SQL, работа с хранимыми процедурами;
- Опыт работы с базами данных;
- Опыт работы с ElasticSearch, Airflow;
- Опыт коммерческой разработки на Python от 3-х лет;
- Умение работать с production-кодом;
- Знакомство с CI/CD и Docker.
Условия: 📝
- Трудоустройство по B2B контракту с американской или европейской компанией. Заработная плата в USD/Евро;
- Удаленный формат работы. Работа коллег распределена по всему миру, но по времени ориентируются на Центральное европейское время. Основные часы работы с 10 до 19 по GMT+3. Праздничные дни по календарю той страны, в которой проживает сотрудник;
- Оплачиваемый отпуск - 20 дней в году, оплачиваемые больничные дни - 10 дней.
Пишите, буду рада обсудить подробности!
Позиция: Data engineer
Уровень: Senior
Локация: за пределами РФ и РБ, готовность работать по GMT+3
Формат работы : remote
Занятость: full-time, 5/2
ЗП: от 5000 до 8000 usd gross (оформление по b2b контракту)
Контакт: @sobolevavalery
Всем привет! Меня зовут Лера, я работаю в КА Lucky Hunter: https://luckyhunter.io/
Мы находимся в поисках Senior Data Engineer на интересный проект для Travel рынка.
Про продукт 🏄♀️
Основной продукт создан на стыке психологии и современных технологий, это умный помощник, который помогает построить персонализированный маршрут путешествий в считанные минуты, используя анализ данных.
В июне 2022 года продукт вышел в релиз на американский рынок, команда получила фидбек, что пользователи хотят маршруты в ЕС, ОАЭ, позднее начали добавлять европейские города. Сейчас планируют покрыть всю Европу, часть Азии, Канаду.
Команда 💫
На сегодняшний день в компании cформирована сильная команда из 43 специалистов (Backend Developers, Frontend Developers, Data Scientists, Business Analyst, QA Engineers, DevOps Engineers, Project Manager, Marketing, Designers, etc).
Команда DS состоит из четырех человек - DS Тимлид, DS общего профиля и два Python разработчика. Из-за стремительного развития продукта коллеги находятся в поиске Senior Data Engineer, которому предстоит "реанимировать" ранее уже запущенные data pipelines, перевести решение в продакшен и переложить на Airflow, а также продолжить дальнейшую реализацию и развитие пайплана с добавлением новых источников и организацией процедуры обновления данных. В качестве единственного DE в команде вы будете принимать все ключевые решения с точки зрения инженерии данных и выбора новых технологий и процедур хранения данных.
С точки зрения технологий на текущий момент это Python, Airflow, SQL, ElasticSearch, AWS (S3), Docker.
Команда работает по скрам канбану.
Детальнее о задачах:
- Разрабатывать и оптимизировать пайплайны, ETL-процедуры;
- Разработка мониторинга и алертинга (Grafana, Prometheus);
- Автоматизация скриптов дата-аналитиков и обработка сырых данных.
Какой опыт и знания коллеги ожидают увидеть: 🔎
- Понимание моделей данных и принципов устройства хранилищ данных;
- Хорошее знание SQL, работа с хранимыми процедурами;
- Опыт работы с базами данных;
- Опыт работы с ElasticSearch, Airflow;
- Опыт коммерческой разработки на Python от 3-х лет;
- Умение работать с production-кодом;
- Знакомство с CI/CD и Docker.
Условия: 📝
- Трудоустройство по B2B контракту с американской или европейской компанией. Заработная плата в USD/Евро;
- Удаленный формат работы. Работа коллег распределена по всему миру, но по времени ориентируются на Центральное европейское время. Основные часы работы с 10 до 19 по GMT+3. Праздничные дни по календарю той страны, в которой проживает сотрудник;
- Оплачиваемый отпуск - 20 дней в году, оплачиваемые больничные дни - 10 дней.
Пишите, буду рада обсудить подробности!
luckyhunter.io
Подбор IT персонала – Найти разработчика – IT кадровое агентство Lucky Hunter
Быстрый подбор IT специалистов. Поможем найти IT специалистов любого уровня и специализации для компаний со всего мира. Обширная база кандидатов. Скидки стартапам
👍3😁1
#вакансия #dataengineer #senior #middle #python #airflow #remote
Позиция: Data engineer
Уровень: Middle/Senior
Локация: есть офис в Москве и юр лицо в Казахстане, можно работать удаленно из удобной для вас точки (не более 3 часов разницы с Мск)
Формат работы: remote
Занятость: full-time, 5/2
ЗП: до 400 000 на руки
Контакт: @sobolevavalery
Всем привет! Меня зовут Лера, я работаю в КА Lucky Hunter: https://luckyhunter.io/
Мы находимся в поисках Data Engineer на проект крупного российского ритейлера.
Продукты компании - AI/ML-решения для крупных банков, ритейла и промышленности: системы предсказания спроса, сервисы персонализации и рекомендательные системы, поисковые системы и т.д. Среди клиентов: Сбербанк, Тинькофф, Альфа-Банк, KFC, X5 (Перекресток, Пятерочка).
Основные задачи:
Вы будете плотно работать с командой DS, заниматься написанием ETL пайплайнов, настройкой и поддержкой стэндов, с которых запускаются задания, а также решать самые нестандартные задачи, которые связаны с проблемами данных, задержками их доставки.
Команда используют современный стек технологий и работает с большими данными: Python, Spark, Hadoop, Airflow.
Какой опыт и знания коллеги ожидают увидеть: 🔎
- Уверенные знания Python 3+ (структуры данных, алгоритмы, концепции языка);
- Уверенные знания SQL: агрегации, джойны, вложенные запросы, индексы, оптимизации запросов;
- Опыт работы с Spark, Hadoop;
- Опыт развертывания, настройки мониторинга и передачи на поддержку разработанных решений.
Условия: 📝
- Есть возможность работать в офисе в Москве, а также удаленно как в РФ, так и за пределами (есть возможность оформиться через ИП или ГПХ, есть возможность оформления на юр лицо в Казахстане);
- Гибкий график работы, лояльное предоставление отгулов и отпусков;
- Приятным дополнением будет ДМС (РФ), оплата профильных курсов, скидки на курсы английского.
- Участие в быстром росте компании, работающей на перспективном AI рынке;
- Совместная работа с опытными разработчиками, аналитиками данных, data инженерами, продуктологами.
Позиция: Data engineer
Уровень: Middle/Senior
Локация: есть офис в Москве и юр лицо в Казахстане, можно работать удаленно из удобной для вас точки (не более 3 часов разницы с Мск)
Формат работы: remote
Занятость: full-time, 5/2
ЗП: до 400 000 на руки
Контакт: @sobolevavalery
Всем привет! Меня зовут Лера, я работаю в КА Lucky Hunter: https://luckyhunter.io/
Мы находимся в поисках Data Engineer на проект крупного российского ритейлера.
Продукты компании - AI/ML-решения для крупных банков, ритейла и промышленности: системы предсказания спроса, сервисы персонализации и рекомендательные системы, поисковые системы и т.д. Среди клиентов: Сбербанк, Тинькофф, Альфа-Банк, KFC, X5 (Перекресток, Пятерочка).
Основные задачи:
Вы будете плотно работать с командой DS, заниматься написанием ETL пайплайнов, настройкой и поддержкой стэндов, с которых запускаются задания, а также решать самые нестандартные задачи, которые связаны с проблемами данных, задержками их доставки.
Команда используют современный стек технологий и работает с большими данными: Python, Spark, Hadoop, Airflow.
Какой опыт и знания коллеги ожидают увидеть: 🔎
- Уверенные знания Python 3+ (структуры данных, алгоритмы, концепции языка);
- Уверенные знания SQL: агрегации, джойны, вложенные запросы, индексы, оптимизации запросов;
- Опыт работы с Spark, Hadoop;
- Опыт развертывания, настройки мониторинга и передачи на поддержку разработанных решений.
Условия: 📝
- Есть возможность работать в офисе в Москве, а также удаленно как в РФ, так и за пределами (есть возможность оформиться через ИП или ГПХ, есть возможность оформления на юр лицо в Казахстане);
- Гибкий график работы, лояльное предоставление отгулов и отпусков;
- Приятным дополнением будет ДМС (РФ), оплата профильных курсов, скидки на курсы английского.
- Участие в быстром росте компании, работающей на перспективном AI рынке;
- Совместная работа с опытными разработчиками, аналитиками данных, data инженерами, продуктологами.
👍7👎2
#Вакансии, #Hadoop, #Python, #Spark, #Airflow #BigData
Компания: ГК Иннотех + совместительство в ПАО ВТБ
Позиции: 1. Разработчик BigData, 2. Системный аналитик (Витрины данных)
Формат работы: удаленный на территории РФ, по желанию выход в офисы в Москве, СПб и др. городах РФ
В кластер витрин требуются разработчики и аналитики. Работа с витринами Розничного кредитного конвейера ВТБ. Миграции на импортозамещенное хранилище, Arenadata Hadoop, инструменты devops.
Позиция: Разработчик BigData
Специализация: Hadoop, ETL, Python/Spark /контейнеры
Обязанности: Выполнение функциональных обязанностей в рамках реализации проектов ВТБ:
- реализация интеграций в гетерогенной среде с помощью Python/Spark
- ETL
- Работа с Airflow, написание кастомных операторов, формирование дагов
- Оптимизация дагов
- Оптимизация существующего кода
- Базовые знания работы Kerberos
- Разработка и поддержка платформы исполнения моделей.
Требования Опыт реализации интеграции в гетерогенных средах
- Понимание и опыт работы со средствами экосистемы технологий Hadoop;
- Знание Python (Spark)
- Знание Apache Airflow
- Знание Apache Kafka
- Знание Docker
- Опыт решения ETL/data engineering задач
Приветствуется - Приветствуется опыт работы с REST сервисами
- Разработка микросервисов для внутренних инфраструктурных задач;
- Опыт работы с Grafana, разработка мониторинга на Grafana;
- Опыт построения Devops-инфраструктуры:
- знание и опыт администрирования Linux-систем;
- опыт работы с Openshift\Kubernetes;
- понимание концепций построения CI/CD, опыт проектирования и построения CI/CD pipeline, управление процессом сборки и развертывания ПО;
- опыт построения фреймворков с нуля
Позиция: Системный аналитик (Витрины данных)
Специализация Системный анализ
Обязанности - Сбор, анализ, формализация требований
- Подготовка технической документации
- Оценка трудоемкости работ
- Исследование источников данных
- Составление и доработка маппингов
- Построение прототипов витрин согласно бизнес-требованиям
- Проверка качества данных в прототипах
- Постановка задач разработчикам
- Участие в тестировании результатов
Требования - Опыт работы с хранилищами данных (DWH), витринами от одного года – факты, снежинки, звезды и т.д..
- Отличное знание SQL, большим плюсом будет опыт работы с Hadoop (Impala/Hive), Python
- Опыт разработки технической документации.
- Умение структурировать и описывать требования по их автоматизации,
- Умение профилировать источники данных, выявлять закономерности
- Участие в тестировании и в технической приемке разработанного функционала
Обсудить подробнее: @IvanZagrebin
Компания: ГК Иннотех + совместительство в ПАО ВТБ
Позиции: 1. Разработчик BigData, 2. Системный аналитик (Витрины данных)
Формат работы: удаленный на территории РФ, по желанию выход в офисы в Москве, СПб и др. городах РФ
В кластер витрин требуются разработчики и аналитики. Работа с витринами Розничного кредитного конвейера ВТБ. Миграции на импортозамещенное хранилище, Arenadata Hadoop, инструменты devops.
Позиция: Разработчик BigData
Специализация: Hadoop, ETL, Python/Spark /контейнеры
Обязанности: Выполнение функциональных обязанностей в рамках реализации проектов ВТБ:
- реализация интеграций в гетерогенной среде с помощью Python/Spark
- ETL
- Работа с Airflow, написание кастомных операторов, формирование дагов
- Оптимизация дагов
- Оптимизация существующего кода
- Базовые знания работы Kerberos
- Разработка и поддержка платформы исполнения моделей.
Требования Опыт реализации интеграции в гетерогенных средах
- Понимание и опыт работы со средствами экосистемы технологий Hadoop;
- Знание Python (Spark)
- Знание Apache Airflow
- Знание Apache Kafka
- Знание Docker
- Опыт решения ETL/data engineering задач
Приветствуется - Приветствуется опыт работы с REST сервисами
- Разработка микросервисов для внутренних инфраструктурных задач;
- Опыт работы с Grafana, разработка мониторинга на Grafana;
- Опыт построения Devops-инфраструктуры:
- знание и опыт администрирования Linux-систем;
- опыт работы с Openshift\Kubernetes;
- понимание концепций построения CI/CD, опыт проектирования и построения CI/CD pipeline, управление процессом сборки и развертывания ПО;
- опыт построения фреймворков с нуля
Позиция: Системный аналитик (Витрины данных)
Специализация Системный анализ
Обязанности - Сбор, анализ, формализация требований
- Подготовка технической документации
- Оценка трудоемкости работ
- Исследование источников данных
- Составление и доработка маппингов
- Построение прототипов витрин согласно бизнес-требованиям
- Проверка качества данных в прототипах
- Постановка задач разработчикам
- Участие в тестировании результатов
Требования - Опыт работы с хранилищами данных (DWH), витринами от одного года – факты, снежинки, звезды и т.д..
- Отличное знание SQL, большим плюсом будет опыт работы с Hadoop (Impala/Hive), Python
- Опыт разработки технической документации.
- Умение структурировать и описывать требования по их автоматизации,
- Умение профилировать источники данных, выявлять закономерности
- Участие в тестировании и в технической приемке разработанного функционала
Обсудить подробнее: @IvanZagrebin
👍2❤1🍌1
SQL Analyst (Middle+)
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy
📍 Локация: РФ
💼 Формат: удалёнка (фулл-тайм)
💰 Ставка: 280 000–300 000 ₽
📅 Старт: ASAP или в течение месяца
⏳ Проект: банковский проект (инвесты, аналитика)
📃 Оформление: ИП / самозанятость
📌 Что делать:
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка
💻 Требования:
✅ 2+ года опыта работы с SQL и DWH
✅ Опыт построения SQL-запросов и аналитических витрин
✅ Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
✅ Опыт работы с ETL (Airflow, Informatica Power Center)
✅ Навыки работы с Hadoop и большими данными
✅ Умение работать с BI-инструментами: PowerBI, Tableau
✅ Умение писать оптимизированный SQL, знание PL/SQL
🌟 Будет плюсом:
➕ Опыт в банках или финтехе
➕ Опыт в ETL/BI системах в инвестиционных продуктах
➕ Знание Python или скриптов для автоматизации ETL
📩 Пиши в личку @skeldafn с кодом BD-1005, расскажу детали и отправим на проект.
#sql #bi #bank #etl #airflow #tableau #powerbi #удаленно #middle #vacancy
❤6👍1