#vacancy #job #dataengineer #engineer #fulltime #remote #python #fintech #sql #scala #AWS
Senior Data Engineer
🫥 Remote or Relocation
🫰 $3.5-5.5k net
Project: launching the first, large-scale e-wallet in Azerbaijan. We aim to create the best-in-class digital payment ecosystem and become number one payment solution in the country. We want to provide our customers with convenient, simple and reliable alternative to cash.
Our company is built on the basis of existing payment terminal business with ~3 mln customers and is also a part of a large holding company in Azerbaijan, with a strong portfolio in financial services.
Role Description:
· You will design and develop data applications in one of languages: Python, Scala, SQL
· Develop, customize and manage data integration tools, databases, warehouses, and analytical systems
· Design, build and maintain scalable data models that are clean, tested, and well documented
· Work closely with product teams and other stakeholders to desing and build data marts providing reliable and accurate data in a fast way
· Handle data pipelines and contribute towards data strategy and its execution
Experience, Competencies and Skills Required:
· At least 2 years of hands-on experience with Python, SQL
· At least 2 years of hands-on experience with Big Data systems like Hadoop, Spark
· Experience building data infrastructure using at least one major cloud provider, preferably AWS
· Strong competencies in algorithms and software architecture
· Knowledge of Terraform is a plus
· Knowledge of Scrum, Agile
· Advanced English, good Russian
👨💻 Communication via Telegram - @minilati
Senior Data Engineer
🫥 Remote or Relocation
🫰 $3.5-5.5k net
Project: launching the first, large-scale e-wallet in Azerbaijan. We aim to create the best-in-class digital payment ecosystem and become number one payment solution in the country. We want to provide our customers with convenient, simple and reliable alternative to cash.
Our company is built on the basis of existing payment terminal business with ~3 mln customers and is also a part of a large holding company in Azerbaijan, with a strong portfolio in financial services.
Role Description:
· You will design and develop data applications in one of languages: Python, Scala, SQL
· Develop, customize and manage data integration tools, databases, warehouses, and analytical systems
· Design, build and maintain scalable data models that are clean, tested, and well documented
· Work closely with product teams and other stakeholders to desing and build data marts providing reliable and accurate data in a fast way
· Handle data pipelines and contribute towards data strategy and its execution
Experience, Competencies and Skills Required:
· At least 2 years of hands-on experience with Python, SQL
· At least 2 years of hands-on experience with Big Data systems like Hadoop, Spark
· Experience building data infrastructure using at least one major cloud provider, preferably AWS
· Strong competencies in algorithms and software architecture
· Knowledge of Terraform is a plus
· Knowledge of Scrum, Agile
· Advanced English, good Russian
👨💻 Communication via Telegram - @minilati
👍4❤1🔥1
#вакансия #scala #dataengineer #remote #работа #удаленка
🔥Вакансия: Data engineer
🚀Компания: КА "Spice IT"
Немного о компании:
- компания на рынке с 2004 года, предоставляет своим клиентам высокоэффективные сервисы по оценке рисков, управлению кредитным портфелем и противодействию мошеничества
- входит в "Реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий.
🪴Проект: Строим data lakehouse на базе hadoop
🌟Задачи:
- Разрабатывать пайплайны загрузки данных из различных источников (РСУБД, NoSQL, files, streaming) в Datalake;
- Реализовать PoC (MVP) с использованием новых инструментов и технологий;
- Реализация распределенных алгоритмов на больших данных;
- Оптимизировать процессы хранения и обработки данных с использованием современных технологии и подходов;
- Продукционализация моделей машинного обучения.
🏢Формат работы: Удаленка (в пределах РФ). При желании можно работать в офисе г. Москва,
💰Вилка: до 305 тыс чистыми (готовы к обсуждению) + бонус (20% годового дохода)
✍🏻Стек, который используем на проекте: Scala, Python, Spark, Golang, - Hadoop, Cassandra, Apache Flink, EFK, PostgreSQL, Kafka, Jira, Confluence, Bamboo (CI/CD), OKD, Kubernetes
🤝Трудоустройство: по ТК РФ
💰Бенефиты: ДМС со стоматологией, льготная ипотека, компенсация фитнеса / обучения / доп. мед. услуг
📌Основные требования:
- Опыт работы с Apache Spark, Apache Spark structured streaming, Flink, Kafka;
- Опыт работы с экосистемой кластера Hadoop (CDP, Arenadata, Hortonworks);
- Опыт работы с Apache Airflow и Apache NiFi;
- Опыт работы с БД: Oracle, Postgre, Greenplum, HBase;
- Опыт разработки на Scala от 2 лет;
- Отличные знания - SQL.
➡️Подробнее: Telegram @IT_HR_Mary
🔥Вакансия: Data engineer
🚀Компания: КА "Spice IT"
Немного о компании:
- компания на рынке с 2004 года, предоставляет своим клиентам высокоэффективные сервисы по оценке рисков, управлению кредитным портфелем и противодействию мошеничества
- входит в "Реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий.
🪴Проект: Строим data lakehouse на базе hadoop
🌟Задачи:
- Разрабатывать пайплайны загрузки данных из различных источников (РСУБД, NoSQL, files, streaming) в Datalake;
- Реализовать PoC (MVP) с использованием новых инструментов и технологий;
- Реализация распределенных алгоритмов на больших данных;
- Оптимизировать процессы хранения и обработки данных с использованием современных технологии и подходов;
- Продукционализация моделей машинного обучения.
🏢Формат работы: Удаленка (в пределах РФ). При желании можно работать в офисе г. Москва,
💰Вилка: до 305 тыс чистыми (готовы к обсуждению) + бонус (20% годового дохода)
✍🏻Стек, который используем на проекте: Scala, Python, Spark, Golang, - Hadoop, Cassandra, Apache Flink, EFK, PostgreSQL, Kafka, Jira, Confluence, Bamboo (CI/CD), OKD, Kubernetes
🤝Трудоустройство: по ТК РФ
💰Бенефиты: ДМС со стоматологией, льготная ипотека, компенсация фитнеса / обучения / доп. мед. услуг
📌Основные требования:
- Опыт работы с Apache Spark, Apache Spark structured streaming, Flink, Kafka;
- Опыт работы с экосистемой кластера Hadoop (CDP, Arenadata, Hortonworks);
- Опыт работы с Apache Airflow и Apache NiFi;
- Опыт работы с БД: Oracle, Postgre, Greenplum, HBase;
- Опыт разработки на Scala от 2 лет;
- Отличные знания - SQL.
➡️Подробнее: Telegram @IT_HR_Mary
❤3👍1