SysAdmin_jobs
470 subscribers
22 photos
3 videos
2.52K links
Обсуждаем вакансии и все с ними связанное.

Оформить и предложить вакансию можно тут: @cyberJohnny
Реклама - @cyberJohnny
Чат: https://t.iss.one/+GV-1GAi3F2o1OTMy
Download Telegram
Data Engineer (Sales Technologies)
#удаленка #middle #senior
Компания: Т-Банк
🔹Обязанности
1. Разработка ETL процессов с использование инструментов платформы данных Т‑Банка — Apache Airflow, Apache NiFi, Apache Flink
2. Разработка и оптимизация пайплайнов обучения и инференса ML моделей при помощи Airflow
3. Разработка и поддержка потоковой обработки данных — Apache Flink
4. Аудит и оптимизация процессов работы с данными
5. Анализ и подготовка данных для построения отчетности и обучения ML моделей — Clickhouse, Apache Superset

🔹Требования
1. Умение работать с данными (SQL).
2. Знание принципов построения DWH и стандартов архитектуры.
3. Знание архитектуры Greenplum, Hadoop и Clickhouse, умение оптимизировать запросы в этих системах.
4. Умение работать с ETL инструментами Apache Airflow, Apache NiFi, Apache Flink.
5. Python — pandas, numpy.
6. Аналитическое мышление.
7. Системный подход.
8. Опыт работы или желание развиваться в направлении ML будет большим преимуществом.

🔹Мы предлагаем
-Работу в офисе или удаленно — по договоренности
-Возможность работы в аккредитованной ИТ-компании
-Платформу обучения и развития «Т‑Банк Апгрейд». -Курсы, тренинги, вебинары и базы знаний. Поддержку менторов и наставников, помощь в поиске точек роста и карьерном развитии
-Заботу о здоровье. Оформим полис ДМС со стоматологией и страховку от несчастных случаев. Предложим льготное страхование вашим близким
-Бесплатный фитнес-зал или компенсацию затрат на спортивные занятия
-3 дополнительных дня отпуска в год
-Уникальную well-being-программу, направленную на физическое и ментальное благополучие сотрудников
-Достойную зарплату — обсудим ее на собеседовании
Контакты: https://www.tbank.ru/career/it/dwh/data-engineer-sales-technologies/

⬇️



@SysAdmins_jobs
Data Engineer
#удаленка #400k #middle #senior #400k
Компания: БизнесМатика
ЗП: от 200 000 до 450 000₽
🔹Задачи:
— Моделирование и обработка данных на Python;
— Проработка архитектуры разрабатываемых решений;
— Анализ данных, выявление зависимостей и потенциала для развития моделей;

🔹Требования:
— Опыт промышленной разработки на Python;
— Опыт работы с Apache Spark
— Опыт работы c Postgres, наличие опыта с оптимизационными проблемами
— Опыт работы с Clickhouse (наличие опыта с оптимизационными и инфраструктурами проблемами, понимание внутреннего устройства clickhouse -как работает, как реплицирует, какие есть основные движки и прочее).
— Понимание процессов ci/cd
— Опыт с pytest (желательно иметь в копилке TDD опыт)
— Опыт работы с cloud инфраструктурой (Yandex, aws и тд)

🔹Условия:
— Полная занятость, оформление по ИП, СЗ.
— Возможность работы удаленно, в том числе и за пределами РФ;
— Участие в быстром росте компании, работающей на перспективном AI рынке;
Контакты: @ewafin

⬇️



@SysAdmins_jobs
Data Engineer
#удаленка #middle #senior
Компания: Авиасейлс
🔹Наш стек: Spark, Trino, AWS S3, DeltaLake format, DBT, Kafka, Airbyte, Apache Airflow, DataHub.

— тестирование и сборка производятся на CI сервере (Jenkins). Также присутствует Terraform. Деплой в Kubernetes(EKS в AWS). Настройкой серверов и разворачиванием баз мы не занимаемся. Это делает отдельная команда инфраструктуры.
В нашу дружную команду нужен начинающий дата инженер, который в ближайшей перспективе будет сфокусирован на задачах, связанных с поддержкой работоспособности дата платформы и главного продукта компании

🔹Что нужно будет делать:
— активно участвовать в командном чате: отслеживать запросы, оперативно реагировать на вопросы и задачи в рабочее время;
— мониторить системы и решать возникающие инциденты вместе с дежурными дата инженерами;
— оптимизировать текущие процессы обработки данных;
— модернизировать текущую дата платформу вместе с Core командой дата инженеров.

🔹Что мы ждем от тебя:
— опыт работы инженером данных или Python разработчиком в продуктовой компании от 1 года;
— знание языков программирования: Python/SQL (обязательно), опыт работы с другими языками будет плюсом;
— понимание принципов ETL/ELT процессов и опыт работы с инструментами;
— понимание того, как работают распределенные вычисления;
— опыт работы в нашем стеке (Apache Spark, Apache Airflow, DBT, Trino) будет плюсом;
— cамостоятельность и ответственность, умение коммуницировать с разными командами и людьми.

🔹Как мы работаем:
— в любой точке мира: не привязываемся к локации, платим в долларах, любим путешествовать;
— без бюрократии: удобные процессы здорового человека, горизонтальные и открытые коммуникации, быстрое обсуждение идей и принятие решений;
— компенсируем: ДМС, психотерапию или иностранные языки, занятия спортом и больничный;
— на райском острове: можно работать на Пхукете с видом на океан.
Контакты: https://www.aviasales.ru/about/vacancies/3863353

⬇️



@SysAdmins_jobs
Дата-инженер в Sales Technologies
#удаленка #офис #middle #senior
Компания: Т-Банк
🔹Обязанности
-Разрабатывать ETL-процессы с помощью Apache Airflow, Apache NiFi, Apache Flink
-Разрабатывать и оптимизировать пайплайны обучения и инференса ML-моделей при помощи Airflow
-Разрабатывать и поддерживать потоковую обработку данных — Apache Flink
-Проводить аудит и оптимизировать процессы работы с данными
-Анализировать и подготавливать данные для построения отчетности и обучения ML-моделей: Clickhouse, Apache Superset

🔹Требования
-Умеете работать с данными — SQL
-Знаете принципы построения DWH и стандарты архитектуры
-Знаете архитектуру Greenplum, Hadoop и Clickhouse, умеете оптимизировать запросы в этих системах
-Умеете работать с ETL-инструментами: Apache Airflow, Apache NiFi, Apache Flink
-Знаете Python: Pandas, NumPy
-Умеете мыслить аналитически и применять системный подход
-Будет плюсом опыт работы или желание развиваться в ML

🔹Мы предлагаем
-Работу в офисе или удаленно — по договоренности
-Платформу обучения и развития «Апгрейд». Курсы, тренинги, вебинары и базы знаний. Поддержку менторов и наставников, помощь в поиске точек роста и карьерном развитии
-Комплексную программу заботы о здоровье. Оформим полис ДМС с широким покрытием и страховку от несчастных случаев. Предложим льготные условия страхования для ваших близких
-Возможность работы в аккредитованной ИТ-компании
-Линейку льготных тарифов на продукты Т-Банка
-Частичную компенсацию затрат на спорт
-Well-being-программу, которая помогает улучшить психологическое и физическое здоровье, а также разобраться с юридическими и финансовыми вопросами
-Три дополнительных дня отпуска в год
-Достойную зарплату — обсудим ее на собеседовании
Контакты: https://www.tbank.ru/career/it/dwh/data-engineer-sales-technologies/

@SysAdmins_jobs
Data Engineer
#удаленка #офис #senior #200k
Компания: Автомакон
ЗП: от 250 000 ₽
🔹Ожидания от кандидата
-Уверенный опыт программирования на Python (не менее 2-х лет);
-Уверенные знания SQL и опыт работы с базами данных;
-Опыт работы с Apache Airflow;
-Опыт написания процессов загрузки данных (ETL);
-Оптимизация SQL запросов;
-Понимание принципов работы данными;
-Опыт работы с СlickHouse/GreenPlum;
-Понимания концепций построения хранилищ данных.

🔹Что предстоит делать:
-Извлечение, преобразование, загрузка данных и их обработка (ETL/ELT);
-Формирование отчетов;
-Создание и развитие процессов управления данными и их качеством;
-Работа с высоконагруженными базами.
Контакты:[email protected]

⬇️



@SysAdmins_jobs
Senior Data Engineer
#удаленка #senior #500k
Компания: Точка
ЗП: До 500 000 ₽
🔹Что делать
-Развивать ядро хранилища и дата-платформу в Точке.
-Решать нетиповые дата-задачи продуктовых команд.
-Помогать пользователям оптимизировать запросы и выстраивать ETL-процессы.

🔹Наш стек
Используем Oracle, ClickHouse, Airflow, Pentaho DI, Streamsets, Debezium, Spark и сервисами на Python. В дальнейшем предстоит активно работать с Greenplum.

🔹Ты подойдёшь, если
-Есть опыт работы инженером данных или разработчиком баз данных от 3 лет.
-Умеешь писать код на Python на уровне middle и выше.
-Понимаешь принципы работы одной или нескольких систем управления баз данных: ClickHouse, Oracle, PostgreSQL, Greenplum.
-Можешь загружать данные в хранилище из любых источников: Elasticsearch, REST API или Kafka, а затем преобразовывать их в удобные и быстрые витрины внутри хранилища.
-Часто сталкивался с большими объёмами данных и знаешь, какие проблемы возникают при их обработке.
-Легко находишь общий язык с заказчиками: аналитиками, представителями бизнеса и умеешь просто объяснять сложные вещи.
-Умеешь выстраивать процессы, смотреть на них со стороны и находить то, что можно улучшить или автоматизировать.
Контакты: https://tochka.com/hr/it/senior-data-engineer/

⬇️



@SysAdmins_jobs
Data Engineer Senior\Team Lead
#офис #гибрид #senior #lead
Локация: Москва
Компания: Сбер
🔹Обязанности
участвовать в разработке и тестировании крутого инструмента
взаимодействовать с коллегами: как с разработчиками, так и с DevOPS-инженерами.

🔹Требования
-опыт работы scala-разработчиком/дата-инженером от 3 лет
-знание SQL: понимание планов запроса, внутренней работы SQL-запросов
-опыт работы с Hadoop и Apache Spark
-понимание концепции хранилищ данных (DWH, Data Lake): слои, витрины, агрегаты, Data Quality, полная-инкрементальная загрузки
-знание типов медленно меняющихся измерений
-опыт написания тестов (unit, integration, acceptance)
-опыт работы с git и прочими системами контроля версий
-умение работать в команде
-готовность обучаться новым технологиям
-базовое знание JIRA, Confluence
-понимание основных принципов RESTful API.

🔹Условия
-гибридный/офисный формат работы (опционально)
-годовой бонус и ежегодный пересмотр
-расширенный ДМС с первого дня + стоматология и льготное страхование для семьи
-корпоративный университет Сбера, внутренняя образовательная платформа, участие в IT-конференциях
-офис на Поклонной с видом на набережную, зонами отдыха
-90 дней удаленной работы из любого региона (не применимо для сопровождения)
-ипотека выгоднее до 7% для каждого сотрудника
корпоративная пенсионная программа, подписка СберПрайм+, скидки от партнеров и сервисов группы компаний.
Контакты: https://rabota.sber.ru/search/4380984/

⬇️



@SysAdmins_jobs
Middle/Senior Data Engineer (Sber-AI)
#офис #MIddle #senior
Локация: Москва
Компания: Сбер
🔹Обязанности
-Развивать платформу Графа Знаний для Data Scientists и аналитиков – разрабатывать фичи для пополнения и работы с Графом Знаний
-Участвовать в проектировании и модернизации инфраструктуры
-Поддерживать существующий функционал
-Внедрять процедуры контроля качества данных
-Оптимизировать и автоматизировать существующие процессы
-Настраивать пайплайны для работы моделей DL с данными из Графа Знаний и обогащения Графа Знаний

🔹Требования
Профессиональные навыки :
-Практический опыт работы с Python 3
-Опыт оптимизации SQL запросов, понимание внутреннего устройства БД (GreenPlum, Hadoop)
-Базовый опыт администрирования БД
-Навыки работы с unix-подобными системами, знание базовых команд.
-Базовые навыки DevOps (Docker, Terraform)

Будет плюсом:
-Практический опыт работы со стеком технологий Big Data (особо интересует Spark Kafka) и графовыми БД (Neo4j, ArangoDB)
-Практический опыт участия в проектах по созданию DWH, Data lake, Data management platforms, опыт построения и развития высоконагруженных систем приветствуется
-Опыт работы с NLP-инструментами и LLM на инференсе

🔹Условия
-Конкурентный уровень заработной платы, годовые премии по результатам работы
-Участие в развитии и создании OpenSource продуктов, возможность совмещать работу с написанием научных статей и поездками на конференции
-ДМС, корпоративная пенсионная программа, страхование от несчастных случаев, социальные гарантии
-Комфортный офис Sbergile Home (метро Кутузовская)
Контакты: https://rabota.sber.ru/search/4380438/

⬇️



@SysAdmins_jobs
Data Engineer
#удаленка #senior #200k
Компания: Автомакон
ЗП: от 250 000 ₽
🔹Ожидания от кандидата
-Уверенный опыт программирования на Python (не менее 2-х лет);
-Уверенные знания SQL и опыт работы с базами данных;
-Опыт работы с Apache Airflow;
-Опыт написания процессов загрузки данных (ETL);
-Оптимизация SQL запросов;
-Понимание принципов работы данными;
-Опыт работы с СlickHouse/GreenPlum;
-Понимания концепций построения хранилищ данных.

🔹Что предстоит делать:
-Извлечение, преобразование, загрузка данных и их обработка (ETL/ELT);
-Формирование отчетов;
-Создание и развитие процессов управления данными и их качеством;
-Работа с высоконагруженными базами.
Контакты: [email protected]

⬇️



@SysAdmins_jobs
Data Engineer
#удаленка #senior #200k
Компания: Автомакон
ЗП: от 250 000 ₽
🔷Ожидания от кандидата
-Уверенный опыт программирования на Python (не менее 2-х лет);
-Уверенные знания SQL и опыт работы с базами данных;
-Опыт работы с Apache Airflow;
-Опыт написания процессов загрузки данных (ETL);
-Оптимизация SQL запросов;
-Понимание принципов работы данными;
-Опыт работы с СlickHouse/GreenPlum;
-Понимания концепций построения хранилищ данных.

🔷Условия работы
Что предстоит делать:
-Извлечение, преобразование, загрузка данных и их обработка (ETL/ELT);
-Формирование отчетов;
-Создание и развитие процессов управления данными и их качеством;
-Работа с высоконагруженными базами.
Контакты: [email protected] (mailto:[email protected])

⬇️
(https://t.iss.one/best_itjob)
(https://t.iss.one/)

@SysAdmins_jobs
Senior Big Data Engineer
#удаленка #senior
Компания: Lamoda Tech
🔷Чем предстоит заниматься:
-Проектировать архитектуру модели данных для realtime хранилища рекламной платформы;
-Строить отчетность, показывающую результат и эффективность открутки рекламной кампании в Real-time режиме;
-Обеспечивать качество данных в разных системах, проектировать Data Quality;
-Разрабатывать витрины для продуктовой аналитики рекламы;
-Оптимизировать действующие пайплайны на Spark - мониторить нагрузку на кластер и оптимальность затрачиваемых ресурсов;
-Проектировать хранилища данных на основе Hadoop и Clickhouse, настраивать производительность/мониторинг - думать над тем что и как грузить и в каких партициях;
-Решать задачи, связанные с внедрением облачной инфраструктуры;
-Создавать стабильные отказоустойчивые и масштабируемые аналитические сервисы;
-Анализировать и внедрять инструменты инжиниринга данных.

🔷Ожидания от кандидата
-Опыт работы с Clickhouse;
-Опыт работы со стеком Hadoop (YARN, HDFS, Hive);
-Опыт работы в Spark и Spark Streaming/Flink;
-Опыт в проектировании хранилищ систем near realtime отчетности;
-Понимание инфраструктуры Apache Kafka;
-Владение одним из языков программирования (Java, Scala).

🔷Будет плюсом:
-Опыт сбора и обработки требований;
-Опыт работы с Docker.

🔷Условия работы
-ДМС со стоматологией, телемедициной и программой поддержки ментального здоровья;
-Страхование жизни;
-Ежемесячные промокоды на Lamoda: два по 25%, два по 15% и в день рождения — 40%;
-Программа привилегий и скидок от BestBenefits;
-До 15 дней больничного в год оплачиваем в размере 100% от действующего оклада;
-Бесплатные юридические консультации;
-Дополнительные выходные в случае важных событий;
-Яркие мероприятия и много неформального общения.
-Развитие для каждого:
Опытный наставник для каждого новичка;
Обучение и участие во внешних конференциях;
Разговорный английский клуб и онлайн-библиотека MyBook;
Помогаем развивать личный бренд, выступать на конференциях и писать статьи;
Performance Review дважды в год, чтобы развиваться системно;
Проводим митапы и demo-дни для обмена знаниями;
Погружаем в fashion и каждый сезон знакомим с модными трендами.
Контакты: [email protected] (mailto:[email protected])

⬇️



@SysAdmins_jobs
Data Engineer в Рекламные технологии, Москва
#гибрид #middle #senior
Компания: VK
🔹Задачи
-Поддержка и развитие продукта геотаргетирования рекламы;
-задачи развития продукта единого идентификатора рекламосмотрителя;
-миграция текущих пайплайнов с Hadoop на YTsaurus;
-построение системы контроля качества дата-продуктов;
-построение мониторинга дата продуктов.

🔹Требования
-Отличные знания Python;
-опыт построения сложных ETL-пайплайнов;
-опыт построения data quality процессов;
-опыт построения ML-пайплайнов;
-опыт работы с экосистемой Hadoop или YTsaurus;
-понимание основных принципов и подходов машинного обучения.
Контакты: https://team.vk.company/vacancy/40682/

⬇️



@SysAdmins_jobs
Senior Data Engineer [Membrana Kids]
#удаленка #senior
Компания: МТС
🔷ЧЕМ ПРЕДСТОИТ ЗАНИМАТЬСЯ
-data-mining данных с различных веб площадок и сервисов
-собирать, обрабатывать и анализировать данные
-заниматься организацией data пайплайнов, ETL, ELT
-проектировать data среды для моделей машинного обучения
-настраивать CI/CD, заниматься организацией мониторинга, строить дашборды
-разрабатывать системы извлечение контента, а также по средствам встроенных API
-управлять инфраструктурой, заниматься ресурсным планированием.

🔷Кого мы ищем
-опыт работы с БД: PostgreSQL, PySpark, Hadoop, ClickHouse
-data processing/ETL: Airflow, Kafka Streams
-настройка CI/CD, Tableau/Power BI/Superset, Grafana
-уверенное владение Python
-опыт работы с инструментами для парсинга контента
Будет плюсом: Docker, k8s, liquibase, s3.
Контакты: https://job.mts.ru/vacancy/senior-data-engineer-membrana-kids-502147535515686434

⬇️



@SysAdmins_jobs
Data Engineer
#удаленка #senior #300k
Компания: Brief
ЗП: от 250 000 до 320 000 ₽
В связи с расширением штата, открываем поиск "Data Engineer"

☑️Ожидания от кандидата
-От 2 лет коммерческой разработки;
-От 1 года - разработки систем, которые вышли в промышленную эксплуатацию;
-От 1 год - BigData;
-Уверенные теоретические знания стека технологий и практический опыт;
-Навыки создания и манипуляций с базой данных;
-Умение давать и принимать обратную связь;
-Опыт проведения Code Review;
-Опыт написания программ распределенных вычислений (Spark) и ETL процессов;
-Опыт написания unit тестов;
-Понимание процессов CI/CD Python 3.5+ Spark 2.2+ Hadoop Hive Airflow SQLAlchemy, PostgreSQL PyTest / Unittest Flake8 / PyLint Black Docker Git, GitLab, CI / CD Shell, Linux (реальный опыт, а не теория).

☑️Что делать?
-Разработка программного обеспечения Ценообразование в рамках КД Мах;
-Работа с бизнес требованиями (сбор, формирование требований, анализ), работа в условиях постоянно меняющихся требований;
-Написание программ распределенных вычислений (Spark) и ETL процессов;
-Проведение Code Review;
-Разработка и проектирование архитектуры БД, создание и манипуляции с БД;
-Оптимизации запросов;
-Разработка процессов CI/CD;
-Написание unit тестов.

☑️Условия работы
-Оформление по ТК РФ, самозанятый, ИП;
-Стабильный высокий доход, который обсуждается по итогам собеседования;
-Гибкий график: удаленная работа;
-Сложные и интересные задачи, современный стек технологий;
-Возможность карьерного роста до руководителя направления со своей командой;
-Возможность обучения, посещения выставок.
Контакты: [email protected] (mailto:[email protected])

⬇️



@SysAdmins_jobs
Data Engineer
#удаленкарф #middle #senior #100k
Компания:7RedLines
ЗП: от 120 000 до 140 000₽
🔷Обязанности:
— Разработка хранилищ данных, витрин данных;
— Проектирование, разработка и поддержка ETL-процессов;
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ);
— Интеграция новых источников;
— Работа в команде с системными аналитиками.

🔷Требования:
Обязательно:
— Опыт в языках программирования: SQL, Python;
— Опыт работы с одним или несколькими СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server;
— Опыт использования ETL инструментов: Apache NiFi, Apache Airflow;
Будет плюсом:
— Опыт работы с Hadoop, PySpark;
— Опыт работы с Apache Kafka;
— Опыт работы с Arenadata.
Контакты: @HR7RedLines

⬇️



@SysAdmins_jobs
Data Engineer в Коммуникационные платформы, Москва
#удаленка #гибрид #senior
Компания: VK
🔹Задачи
-Проектировать, реализовывать и оптимизировать сложные ETL-процессы (в том числе разработка DAG для автоматизации)
-Участвовать в проработке и пилотировании нового: Data Quality, развитие собственного ETL-фреймворка, тесные интеграции с аналитическими инструментами
-Работать с данными на каждом этапе их трансформации: от появления информации в конкретном источнике до принятия решений на данных
-Извлекать из исходных данных ценную информацию и скрупулёзно обрабатывать её для последующего анализа
-Реализовывать стабильный расчёт бизнес-метрик вместе с командой аналитиков
-Поддерживать и модифицировать созданные решения, обеспечивать доступность сервиса и корректность данных для принятия решений

🔹Требования
-Уверенно знаете Python на уровне написания собственного фреймворка и SQL на уровне оптимизации запросов
-Умеете проектировать DWH: слои, модели хранения данных, процессы ETL
-Хорошо понимаете принципы работы распределённых систем Hadoop или YTsaurus, ClickHouse
-Использовали Airflow, Luigi или другой оркестратор
-Умеете выбирать технологии для решения конкретных задач
-Понимаете принципы работы инструментов мониторинга и способны настраивать алерты для отслеживания состояния ETL-процессов
-Знаете основные алгоритмы и структуры данных, особенно используемые в работе с большими данными
-Эффективно общаетесь с людьми, находите общий язык с разными специалистами
Контакты: https://team.vk.company/vacancy/41174/

⬇️



@SysAdmins_jobs
Data Engineer в MAX, Москва
#удаленка #гибрид #senior
Компания: VK
🔹Задачи
-Проектировать, реализовывать и оптимизировать сложные ETL-процессы (в том числе разработка DAG для автоматизации)
-Участвовать в проработке и пилотировании нового: Data Quality, развитие собственного ETL-фреймворка, тесные интеграции с аналитическими инструментами
-Работать с данными на каждом этапе их трансформации: от появления информации в конкретном источнике до принятия решений на данных
-Извлекать из исходных данных ценную информацию и скрупулёзно обрабатывать её для последующего анализа
-Реализовывать стабильный расчёт бизнес-метрик вместе с командой аналитиков
-Поддерживать и модифицировать созданные решения, обеспечивать доступность сервиса и корректность данных для принятия решений

🔹Требования
-Уверенно знаете Python на уровне написания собственного фреймворка и SQL на уровне оптимизации запросов
-Умеете проектировать DWH: слои, модели хранения данных, процессы ETL
-Хорошо понимаете принципы работы распределённых систем Hadoop или YTsaurus, ClickHouse
-Использовали Airflow, Luigi или другой оркестратор
-Умеете выбирать технологии для решения конкретных задач
-Понимаете принципы работы инструментов мониторинга и способны настраивать алерты для отслеживания состояния ETL-процессов
-Знаете основные алгоритмы и структуры данных, особенно используемые в работе с большими данными
-Эффективно общаетесь с людьми, находите общий язык с разными специалистами
Контакты: https://team.vk.company/vacancy/41174/

⬇️




@SysAdmins_jobs
Data Engineer в MAX, Москва
#удаленка #гибрид #senior
Компания: VK
🔹Задачи
-Проектировать, реализовывать и оптимизировать сложные ETL-процессы (в том числе разработка DAG для автоматизации)
-Участвовать в проработке и пилотировании нового: Data Quality, развитие собственного ETL-фреймворка, тесные интеграции с аналитическими инструментами
-Работать с данными на каждом этапе их трансформации: от появления информации в конкретном источнике до принятия решений на данных
-Извлекать из исходных данных ценную информацию и скрупулёзно обрабатывать её для последующего анализа
-Реализовывать стабильный расчёт бизнес-метрик вместе с командой аналитиков
-Поддерживать и модифицировать созданные решения, обеспечивать доступность сервиса и корректность данных для принятия решений

🔹Требования
-Уверенно знаете Python на уровне написания собственного фреймворка и SQL на уровне оптимизации запросов
-Умеете проектировать DWH: слои, модели хранения данных, процессы ETL
-Хорошо понимаете принципы работы распределённых систем Hadoop или YTsaurus, ClickHouse
-Использовали Airflow, Luigi или другой оркестратор
-Умеете выбирать технологии для решения конкретных задач
-Понимаете принципы работы инструментов мониторинга и способны настраивать алерты для отслеживания состояния ETL-процессов
-Знаете основные алгоритмы и структуры данных, особенно используемые в работе с большими данными
-Эффективно общаетесь с людьми, находите общий язык с разными специалистами
Контакты: https://team.vk.company/vacancy/41174/

⬇️




@SysAdmins_jobs
#fulltime #вакансия #vacancy #remote #senior #dataengineer
Middle+/ Senior Data Engineer

Формат: удаленно, работа в московском часовом поясе
Занятость: полная
Ставка: $3 000–$4 000
Локация: любая
Гражданство: РФ, РБ, СНГ

Ptolemay - IT аутсорс- и аутстафф- компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов.
Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.

Задачи:
- Мигрировать процессы для аналитики и отчетности.
- Настроить регламентную загрузку данных.
- Работать с общебанковской data-платформой (Data Lake, DWH).
- Разрабатывать end-to-end пайплайны для сбора и обработки данных.
- Выбирать оптимальные форматы хранения и архитектуру интеграции.
- Анализировать и оптимизировать производительность пайплайнов.
- Развивать архитектуру данных и внедрять новые технологии.
- Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.

Требования:
- 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
- Уверенное знание SQL, включая оптимизацию сложных запросов.
- Понимание архитектуры классических и MPP-СУБД.
- Опыт разработки на Python и/или Java, Scala.
- Опыт работы с Apache Airflow.
- Опыт работы с dbt.
- Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
- Владение Apache Spark (Spark SQL, DataFrames).
- Опыт работы в финтехе, знание банковской предметной области.

Будет плюсом:
- Опыт с Kafka, Trino.
- Опыт с Kubernetes, Helm.
- Понимание CI/CD и соответствующих инструментов.

Условия:
- Удалённая работа.
- Фулл-тайм.
- Гибкий график.
- Аутстафф-система.
- Долгосрочный проект (от 6 месяцев).
- Зарплата: $3 000–$4 000 по итогам собеседования.

Буду рада обсудить детали и ознакомиться с резюме: @rinapina_ptolemay


@SysAdmins_jobs
Data Engineer в ВКонтакте, Санкт-Петербург
#удаленка #офис #middle #senior
Компания: VK
🔹Задачи
-участвовать в полном цикле разработки программного обеспечения, включающего модели машинного обучения, в составе проектной кросс-функциональной команды;
-работать над структурой DWH-приложений, заниматься настройкой ETL-пайплайнов и мониторингом качества данных;
-разрабатывать витрины данных для аналитики и построения предиктивных моделей;
-заниматься разработкой архитектуры приложения;
общаться с экспертами бизнес-заказчика.

🔹Требования
-понимаете SQL и можете составить нетривиальный запрос (операторы JOIN, подзапросы и т. д.);
-пишете читабельный код на Python 3-й версии и не боитесь 2-й;
-работали с Bash, Git, Linux;
-разбираетесь в базовых концепциях и архитектуре Hadoop (HDFS, MapReduce, YARN), Spark, Hive;
-знаете о работе ОС, базовых алгоритмах и структурах данных.
Контакты: https://team.vk.company/vacancy/40746/

⬇️




@SysAdmins_jobs