Публикатор: Victoria
#vacancy #job #вакансия #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 6000- 7500 USD gross Position: Unstructured Data DevOps
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
We need a DevOps engineer to assist developers in utilizing AI for processing unstructured data. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of unstructured data on a daily basis, and making this data available for AI processing.
Skills, in priority order (from must-have to nice-to-have), include:
• DevOps that can code: 25% coding, 75% operations
• Python
• Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
• Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
• Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
• Event-based systems - Kafka
• APIs, Layer 3/7 networking (Envoy)
• Application authentication (Okta)
• AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
We offer:
• Work in Poland or remote from another country
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities 📨CV ➡️ @vitumik Vika
@DevOpsSRE_Jobs
#vacancy #job #вакансия #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 6000- 7500 USD gross Position: Unstructured Data DevOps
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
We need a DevOps engineer to assist developers in utilizing AI for processing unstructured data. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of unstructured data on a daily basis, and making this data available for AI processing.
Skills, in priority order (from must-have to nice-to-have), include:
• DevOps that can code: 25% coding, 75% operations
• Python
• Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
• Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
• Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
• Event-based systems - Kafka
• APIs, Layer 3/7 networking (Envoy)
• Application authentication (Okta)
• AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
We offer:
• Work in Poland or remote from another country
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities 📨CV ➡️ @vitumik Vika
@DevOpsSRE_Jobs
Публикатор: Tanya
#vacancy #вакансия #job #fulltime #офис #senior #ML #Data Engineer
Atom grup — продуктовая IT-компания. Специализируемся на продуктах с технологиями АI, NFT и blockchain.
И мы рады пригласить в нашу команду Teсh Lead ML.
Задачи с которыми вы столкнетесь:
Развивитие с нуля инфраструктуры высоконагруженных сервисов;
Курирование команды ML Ops;
Реализация продуктовых задач в четкие задачи машинного обучения;
Предлагать идеи и участвовать в обсуждениях новых решений;
Отвечать за технологические решения в инфраструктурных вопросах;
Технически планировать, анализировать и прорабатывать направления разработки, составлять технологические дорожные карты и формировать стратегии развития;
Мы ждем от вас:
Имеете опыт работы в качестве ML Ops не менее 2 лет.
Имеете опыт вывода моделей продакшн
Имеете опыт работы с высоконагруженными сервисами
Готовы брать инициативу и не боитесь смелых вызовов
Работая в нашей команде, вы получите:
• Вилка от 450 000 до 650 000 рос рубл (возможно и в $)
• Классный офис в Москва-Сити;
• Комфортные условия для работы;
• Рабочий день начало до 11:00, чтобы удобно было добираться до офиса;
• sick days;
• Работа с интересными проектами и возможности профессионального роста;
• Молодой дружный коллектив.
Контакт для связи:
Татьяна, @tatsyanaFL
@DevOpsSRE_Jobs
#vacancy #вакансия #job #fulltime #офис #senior #ML #Data Engineer
Atom grup — продуктовая IT-компания. Специализируемся на продуктах с технологиями АI, NFT и blockchain.
И мы рады пригласить в нашу команду Teсh Lead ML.
Задачи с которыми вы столкнетесь:
Развивитие с нуля инфраструктуры высоконагруженных сервисов;
Курирование команды ML Ops;
Реализация продуктовых задач в четкие задачи машинного обучения;
Предлагать идеи и участвовать в обсуждениях новых решений;
Отвечать за технологические решения в инфраструктурных вопросах;
Технически планировать, анализировать и прорабатывать направления разработки, составлять технологические дорожные карты и формировать стратегии развития;
Мы ждем от вас:
Имеете опыт работы в качестве ML Ops не менее 2 лет.
Имеете опыт вывода моделей продакшн
Имеете опыт работы с высоконагруженными сервисами
Готовы брать инициативу и не боитесь смелых вызовов
Работая в нашей команде, вы получите:
• Вилка от 450 000 до 650 000 рос рубл (возможно и в $)
• Классный офис в Москва-Сити;
• Комфортные условия для работы;
• Рабочий день начало до 11:00, чтобы удобно было добираться до офиса;
• sick days;
• Работа с интересными проектами и возможности профессионального роста;
• Молодой дружный коллектив.
Контакт для связи:
Татьяна, @tatsyanaFL
@DevOpsSRE_Jobs
Публикатор: Victoria
#вакансия #vacancy #job #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/) (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 5000 - 7500 USD gross Position: Unstructured Data DevOps
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
We need a DevOps engineer to assist developers in utilizing AI for processing unstructured data. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of unstructured data on a daily basis, and making this data available for AI processing.
Skills, in priority order (from must-have to nice-to-have), include:
• DevOps that can code: 25% coding, 75% operations
• Python
• Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
• Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
• Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
• Event-based systems - Kafka
• APIs, Layer 3/7 networking (Envoy)
• Application authentication (Okta)
• AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
We offer:
• Work in Poland or remote from another country (time zone UTC +4, Except for Russia and Belarus)
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities 📨CV ➡️ @vitumik Vika
@DevOpsSRE_Jobs
#вакансия #vacancy #job #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/) (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 5000 - 7500 USD gross Position: Unstructured Data DevOps
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
We need a DevOps engineer to assist developers in utilizing AI for processing unstructured data. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of unstructured data on a daily basis, and making this data available for AI processing.
Skills, in priority order (from must-have to nice-to-have), include:
• DevOps that can code: 25% coding, 75% operations
• Python
• Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
• Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
• Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
• Event-based systems - Kafka
• APIs, Layer 3/7 networking (Envoy)
• Application authentication (Okta)
• AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
We offer:
• Work in Poland or remote from another country (time zone UTC +4, Except for Russia and Belarus)
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities 📨CV ➡️ @vitumik Vika
@DevOpsSRE_Jobs
Публикатор: Daria Tikhomirova
#вакансия #data #devops #job #Островок #Ostrovok #удаленка #remote
🔥 Вакансия: Senior Data Infrastructure Engineer / Data DevOps
▫️ Компания: Островок
▫️ Формат: удаленка
▫️Зп: ~300-350К Net (фикс, готовы обсуждать)
🔘Островок (https://ostrovok.ru/) (https://ostrovok.ru/?sid=364eb7a2-57c8-4a09-8ba2-55eb62d5b119)— travel-tech компания, создающая платформы онлайн-бронирования отелей, авиабилетов и других услуг как для индивидуальных путешественников, так и для корпоративных клиентов и тревел-агентств.
📌 На данной позиции у вас будет возможность принимать решения по масштабированию больших аналитических инфраструктур и прокачать свои навыки в автоматизации их развертывания.
📌 Основная задача будет заключаться в построении инфраструктур для дата аналитики. Для этого, нам важен опыт с Linux, Базами Данных, Docker, Ansible и дата инструментами.
▫️ Требования:
- Опыт администрирования любых кластеров баз данных, например postgres/vertica/greenplum/clickhouse;
- Опыт сетапа кластера hadoop/kafka/s3 (minio/ceph)/hdfs/spark/hive и прочий зоопарк;
- Опыт работы с Airflow;
- Gitlab CI: настройка CI/CD пайплайнов для безшовной доставки докер контейнеров с кодом на Python, Go;
- Опыт настройки и поддержки любых кластеров баз данных (postgres/vertica/greenplum/clickhouse);
- Опыт работы с докеризацией: Docker, docker-compose;
- Управление Linux серверами и инфраструктурой и предпочтение это делать с использованием IaС инструментов (Ansiblе, terraform или эквивалент)
- Уровень Английского B1+
🔘 Подробное описание вакансии: https://hh.ru/vacancy/100610766
📌 Что мы предлагаем:
- гибкий график;
- возможность работы удаленно, без привязки к локации;
- в РФ оформляем по ТД / за пределами РФ - по контракту (зп в валюте)
📥 По любым вопросам и откликам - @stleona27
@DevOpsSRE_Jobs
#вакансия #data #devops #job #Островок #Ostrovok #удаленка #remote
🔥 Вакансия: Senior Data Infrastructure Engineer / Data DevOps
▫️ Компания: Островок
▫️ Формат: удаленка
▫️Зп: ~300-350К Net (фикс, готовы обсуждать)
🔘Островок (https://ostrovok.ru/) (https://ostrovok.ru/?sid=364eb7a2-57c8-4a09-8ba2-55eb62d5b119)— travel-tech компания, создающая платформы онлайн-бронирования отелей, авиабилетов и других услуг как для индивидуальных путешественников, так и для корпоративных клиентов и тревел-агентств.
📌 На данной позиции у вас будет возможность принимать решения по масштабированию больших аналитических инфраструктур и прокачать свои навыки в автоматизации их развертывания.
📌 Основная задача будет заключаться в построении инфраструктур для дата аналитики. Для этого, нам важен опыт с Linux, Базами Данных, Docker, Ansible и дата инструментами.
▫️ Требования:
- Опыт администрирования любых кластеров баз данных, например postgres/vertica/greenplum/clickhouse;
- Опыт сетапа кластера hadoop/kafka/s3 (minio/ceph)/hdfs/spark/hive и прочий зоопарк;
- Опыт работы с Airflow;
- Gitlab CI: настройка CI/CD пайплайнов для безшовной доставки докер контейнеров с кодом на Python, Go;
- Опыт настройки и поддержки любых кластеров баз данных (postgres/vertica/greenplum/clickhouse);
- Опыт работы с докеризацией: Docker, docker-compose;
- Управление Linux серверами и инфраструктурой и предпочтение это делать с использованием IaС инструментов (Ansiblе, terraform или эквивалент)
- Уровень Английского B1+
🔘 Подробное описание вакансии: https://hh.ru/vacancy/100610766
📌 Что мы предлагаем:
- гибкий график;
- возможность работы удаленно, без привязки к локации;
- в РФ оформляем по ТД / за пределами РФ - по контракту (зп в валюте)
📥 По любым вопросам и откликам - @stleona27
@DevOpsSRE_Jobs
ostrovok.ru
Ostrovok.ru – бронирование отелей и гостиниц, забронировать отель или гостиницу самостоятельно онлайн
Бронирование гостиниц и отелей — более 2700000 вариантов по всему миру. Круглосуточная поддержка. Сравните цены, фото и условия и забронируйте номер в несколько кликов
Публикатор: Mariia
#вакансия #vacancy #job #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/) (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 4000 - 7500 USD gross
Position: DevInfraOps Engineer + AI
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
Intermediate/Senior DevInfraOps engineer to assist in maintaining the Data Engineering platform, implementing best practices, and enhancing underlying architecture. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of structured (future: unstructured) data on a daily basis, and making this data available for users.
Skills, in priority order (from must-have to nice-to-have), include:
🧷Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
🧷Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
🧷Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
🧷On-Premise Management – proficiency in upgrading and maintaining RHEL 7/8
🧷Cloud Management – proficiency in managing and maintaining EKS in AWS
🧷CI/CD – proficiency in setting up and managing GitLab pipelines
🧷AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
🧷APIs, Layer 3/7 networking (Envoy)
🧷Application authentication (Okta)
🧷Python
We offer:
• Work in Poland or remote from another country (time zone UTC +4, Except for Russia and Belarus)
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities
Детали у 📲 @MariiaDia
@DevOpsSRE_Jobs
#вакансия #vacancy #job #data #devops #relocation #english #poland #remote
🎯Company: FinDev (https://findev.team/) (https://findev.team/)
Location: #remote or #Poland
Employment: fulltime
Payment: 4000 - 7500 USD gross
Position: DevInfraOps Engineer + AI
About us:
FinDev is a small international company created by IT engineers. We are specializing in the development of niche software for international banks and investment funds.
Intermediate/Senior DevInfraOps engineer to assist in maintaining the Data Engineering platform, implementing best practices, and enhancing underlying architecture. This involves establishing a solution for the acquisition, movement, and ingestion of large volumes of structured (future: unstructured) data on a daily basis, and making this data available for users.
Skills, in priority order (from must-have to nice-to-have), include:
🧷Kubernetes (K8s), Airflow/Dagster/Airbyte, Argo Workflows, Databricks
🧷Infrastructure as Code (IaC) - Terraform, Cloud Development Kit (CDK)
🧷Monitoring (Datadog, Splunk, PagerDuty) - managing a production system
🧷On-Premise Management – proficiency in upgrading and maintaining RHEL 7/8
🧷Cloud Management – proficiency in managing and maintaining EKS in AWS
🧷CI/CD – proficiency in setting up and managing GitLab pipelines
🧷AI stack - OpenAI, Claude 3, Pinecone, SageMaker, Bedrock
🧷APIs, Layer 3/7 networking (Envoy)
🧷Application authentication (Okta)
🧷Python
We offer:
• Work in Poland or remote from another country (time zone UTC +4, Except for Russia and Belarus)
• Relocation to Poland with full assistance in visa issue process
• Yearly paid vacation, paid sick leave
• Social and medical insurance
• Friendly international environment
• Training/lessons compensation (professional courses, English)
• Team building events and activities
Детали у 📲 @MariiaDia
@DevOpsSRE_Jobs
Публикатор: Alina
#вакансия #cloud #architect #aws #databriks #data #gcp #azure #remote
Действительно уникальная вакансия:
Ищу для продуктовой компании (на рынке больше 10 лет, клиенты в EU, USA), с офисами в US,Индии, Норвегии *Cloud Arhitect* на крайне амбициозную задачу
Вакансия: Cloud Architect
Компания: Under NDA (нанимаю как КА)
Формат: full-time, remote, contract (b2b)
Локация: Польша, Грузия, Сербия, Чехия, Румыния
Зарплата: от $7000 до $10,000 gross (fixed income. Готовы обсуждать доп плюшки: праздничные дни, отпуск).
Notes: через 1-1,5 года планируется открытие юр лица в европе, так что возможен не только переход на трудовой, но и рост до Leadership команды
Time Overlaps: Ожидаются митинги с командой в GMT-5, GMT+5:30; редкие митинги с CTO (GMT-8)
Кратко: продукт компании - платформа, позволяющая бизнесу оптимизировать свои складские остатки, прогнозирующая спрос покупателей. Начали писать почти 15 лет назад на NET, C#. Относительно недавно добавили AWS EMR и Databricks для обработки данных. Есть задача улучшить архитектуру и определить техическое развитие продукта (включая cloud вендоров)
Описание вакансии:
What You’ll Be Doing
- Design & Scale: Create cloud-native solutions to enhance scalability using tools like Amazon EMR, Databricks, and other big data technologies.
- Governance: Develop best practices for cloud architecture, security, and infrastructure management.
- Mentorship: Lead and mentor a team of engineers, fostering a culture of collaboration and growth.
- Collaboration: Work closely with global teams to drive innovation in supply chain technology.
- Modernization: Help transition legacy systems to a modern tech stack that includes .NET, C#, and various databases
What We’re Looking For
- Education: You have a Bachelor’s or Master’s degree in Computer Science or a related field.
- Experience: 10+ years in cloud architecture, with deep expertise in AWS (a must!**), and familiarity with **GCP or Azure. You’ve also led teams and provided architectural guidance.
- High Availability & Disaster Recovery: You know how to design and implement multi-region deployments, failover strategies, and disaster recovery plans.
- AWS Mastery: You’re well-versed in AWS architecture, services, networking, and security (think IAM, VPC, EKS, **ALB**).
- Cloud Security: You have a solid understanding of cloud security frameworks (like NIST, CIS**) and tools like **IAM policies and VPC configurations.
- Containerization & Orchestration: You’ve got advanced skills in Docker and Kubernetes (both managed services and self-managed clusters).
- Big Data Expertise: You have hands-on experience with Apache Spark, Apache Kafka, and distributed data systems.
- Databricks Expertise: Strong experience with Databricks is a must! You should be comfortable using this tool to handle big data challenges effectively.
- Data Processing Technologies: If you have experience with ETL, SQL, PySpark, Airflow, and data lakes, that’s fantastic!
- CI/CD & IaC: You’re experienced with Terraform, CloudFormation, Ansible, and CI/CD pipelines like GitHub Actions, AWS CodePipeline, and Jenkins.
- Cloud Networking: You know your way around cloud networking, including VPC peering, DNS management, load balancing, and security.
- Coding Skills: You have basic Python skills (advanced is a plus), and some familiarity with Bash, Go, or **PowerShell**for automation.
Контакт: @arunova
Полное описание вакансии, позиции + FAQ по продукту и рекрутмент процессу здесь: https://it-savvystaffing.notion.site/Cloud-Architect-Remote-AWS-Data-1350496704bc4787b2ebc29d227dfa3a
@DevOpsSRE_Jobs
#вакансия #cloud #architect #aws #databriks #data #gcp #azure #remote
Действительно уникальная вакансия:
Ищу для продуктовой компании (на рынке больше 10 лет, клиенты в EU, USA), с офисами в US,Индии, Норвегии *Cloud Arhitect* на крайне амбициозную задачу
Вакансия: Cloud Architect
Компания: Under NDA (нанимаю как КА)
Формат: full-time, remote, contract (b2b)
Локация: Польша, Грузия, Сербия, Чехия, Румыния
Зарплата: от $7000 до $10,000 gross (fixed income. Готовы обсуждать доп плюшки: праздничные дни, отпуск).
Notes: через 1-1,5 года планируется открытие юр лица в европе, так что возможен не только переход на трудовой, но и рост до Leadership команды
Time Overlaps: Ожидаются митинги с командой в GMT-5, GMT+5:30; редкие митинги с CTO (GMT-8)
Кратко: продукт компании - платформа, позволяющая бизнесу оптимизировать свои складские остатки, прогнозирующая спрос покупателей. Начали писать почти 15 лет назад на NET, C#. Относительно недавно добавили AWS EMR и Databricks для обработки данных. Есть задача улучшить архитектуру и определить техическое развитие продукта (включая cloud вендоров)
Описание вакансии:
What You’ll Be Doing
- Design & Scale: Create cloud-native solutions to enhance scalability using tools like Amazon EMR, Databricks, and other big data technologies.
- Governance: Develop best practices for cloud architecture, security, and infrastructure management.
- Mentorship: Lead and mentor a team of engineers, fostering a culture of collaboration and growth.
- Collaboration: Work closely with global teams to drive innovation in supply chain technology.
- Modernization: Help transition legacy systems to a modern tech stack that includes .NET, C#, and various databases
What We’re Looking For
- Education: You have a Bachelor’s or Master’s degree in Computer Science or a related field.
- Experience: 10+ years in cloud architecture, with deep expertise in AWS (a must!**), and familiarity with **GCP or Azure. You’ve also led teams and provided architectural guidance.
- High Availability & Disaster Recovery: You know how to design and implement multi-region deployments, failover strategies, and disaster recovery plans.
- AWS Mastery: You’re well-versed in AWS architecture, services, networking, and security (think IAM, VPC, EKS, **ALB**).
- Cloud Security: You have a solid understanding of cloud security frameworks (like NIST, CIS**) and tools like **IAM policies and VPC configurations.
- Containerization & Orchestration: You’ve got advanced skills in Docker and Kubernetes (both managed services and self-managed clusters).
- Big Data Expertise: You have hands-on experience with Apache Spark, Apache Kafka, and distributed data systems.
- Databricks Expertise: Strong experience with Databricks is a must! You should be comfortable using this tool to handle big data challenges effectively.
- Data Processing Technologies: If you have experience with ETL, SQL, PySpark, Airflow, and data lakes, that’s fantastic!
- CI/CD & IaC: You’re experienced with Terraform, CloudFormation, Ansible, and CI/CD pipelines like GitHub Actions, AWS CodePipeline, and Jenkins.
- Cloud Networking: You know your way around cloud networking, including VPC peering, DNS management, load balancing, and security.
- Coding Skills: You have basic Python skills (advanced is a plus), and some familiarity with Bash, Go, or **PowerShell**for automation.
Контакт: @arunova
Полное описание вакансии, позиции + FAQ по продукту и рекрутмент процессу здесь: https://it-savvystaffing.notion.site/Cloud-Architect-Remote-AWS-Data-1350496704bc4787b2ebc29d227dfa3a
@DevOpsSRE_Jobs
it-savvystaffing on Notion
Cloud / Systems Architect (Remote, AWS, Data) | Notion
About the Company
Публикатор: Natalya Ermolaeva
(https://t.iss.one/)
#вакансия #Data #Engineer #разработчик # ELT #Middle+ #Senior #удаленно #Россия
Компания: Dragon Family https://home.dragon.family
Уровень зп: от 2 000 до 3 500 $ на руки;
Локация: Санкт-Петербург, Россия;
Формат: удаленная работа;
Занятость: полная занятость, 5/2;
Опыт: от 4 лет.
Senior/Middle Data Engineer (ETL)
Требования:
Обязательно:
- 5+ лет опыта в сфере Data Engineering / Big Data
- Опыт настройки и управление оркестрацией ETL/ELT процессов с помощью Apache Airflow (от 2 лет)
- Понимание концепций ETL, OLTP
- Отличное владение Python (от 3 лет)
- Отличное владение SQL
- Опыт работы с: PostgreSQL (обязательно), Redis, Clickhouse (желательно)
- Опыт работы с Linux на уровне не менее уверенного пользователя
- Опыт работы с системами обмена сообщениями (как минимум с какой-то одной из: Kafka, RabbitMQ, Nats)
- Опыт работы с Docker, Gitlab
- Наличие реальных проектов. Опыт «играющего тренера», но не теоретика-управленца
Желательно:
- Node.js/Nest.js/TypeScript и/или Golang (хотя бы какой-то из этих стеков) — будет большим плюсом
- Опыт работы с k8s (на уровне написания/поддержки Helm чартов) — будет большим плюсом
Задачи:
Совместно с аналитиком и командой DEVOPSов организовать корпоративное хранилище на базе колоночной СБУД Яндекс.Кликхауз и затем с помощью специализированного инструментария Apache Airflow организовать экстракцию данных (ETL) из айти инфрастуктуры клиента в наше хранилище
Предлагаем интересный проект, в котором через полгода будем строить свой корпоративный блокчейн на базе Hyperledger Fabric v3, т.е. у нас можно будет приобрести уникальные скиллы
Резюме ожидаю в Тг @naterm1412 (https://t.iss.one/naterm1412)
Всегда на связи,
Наталия
@DevOpsSRE_Jobs
(https://t.iss.one/)
#вакансия #Data #Engineer #разработчик # ELT #Middle+ #Senior #удаленно #Россия
Компания: Dragon Family https://home.dragon.family
Уровень зп: от 2 000 до 3 500 $ на руки;
Локация: Санкт-Петербург, Россия;
Формат: удаленная работа;
Занятость: полная занятость, 5/2;
Опыт: от 4 лет.
Senior/Middle Data Engineer (ETL)
Требования:
Обязательно:
- 5+ лет опыта в сфере Data Engineering / Big Data
- Опыт настройки и управление оркестрацией ETL/ELT процессов с помощью Apache Airflow (от 2 лет)
- Понимание концепций ETL, OLTP
- Отличное владение Python (от 3 лет)
- Отличное владение SQL
- Опыт работы с: PostgreSQL (обязательно), Redis, Clickhouse (желательно)
- Опыт работы с Linux на уровне не менее уверенного пользователя
- Опыт работы с системами обмена сообщениями (как минимум с какой-то одной из: Kafka, RabbitMQ, Nats)
- Опыт работы с Docker, Gitlab
- Наличие реальных проектов. Опыт «играющего тренера», но не теоретика-управленца
Желательно:
- Node.js/Nest.js/TypeScript и/или Golang (хотя бы какой-то из этих стеков) — будет большим плюсом
- Опыт работы с k8s (на уровне написания/поддержки Helm чартов) — будет большим плюсом
Задачи:
Совместно с аналитиком и командой DEVOPSов организовать корпоративное хранилище на базе колоночной СБУД Яндекс.Кликхауз и затем с помощью специализированного инструментария Apache Airflow организовать экстракцию данных (ETL) из айти инфрастуктуры клиента в наше хранилище
Предлагаем интересный проект, в котором через полгода будем строить свой корпоративный блокчейн на базе Hyperledger Fabric v3, т.е. у нас можно будет приобрести уникальные скиллы
Резюме ожидаю в Тг @naterm1412 (https://t.iss.one/naterm1412)
Всегда на связи,
Наталия
@DevOpsSRE_Jobs
Публикатор: Jin Yu ᶠʳᵒᵐ ᵗʰᵉ ᶠᵃᴵᴵ 🥟🥝
Обсуждение:
#Вакансия #удаленно #devops #remote #middle #data
⠀
Вакансия: Инженер эксплуатации сервисов данных (mid+)
Компания: СберЗдоровье
Формат работы: удаленно на территории РФ
Вилка: 250 000 — 340 000 ₽/мес на руки
⠀
СберЗдоровье - аккредитованная IT-компания, крупнейшая в России Digital Health платформа, объединяющая различные сервисы цифровой медицины.
Сервис начал свою работу в 2012 году под брендом DocDoc. Мы помогли миллионам людей получить помощь и продолжаем повышать качество медицинских услуг.
Об IT в цифрах:
-3 бизнес-направления;
- 23+ команды;
- 320+ IT специалистов (devops, manual/auto QA, web/mobile devs, backend devs, аналитики, архитекторы и др.) из 40+ городов.
Стек технологий:
Greenplum, ClickHouse, Trino, Apache Iceberg
Yandex Cloud, SberCloud
Kubernetes, Argo CD
Debezium, Kafka
Dagster/Airflow
Airbyte
В нашей команде тебе предстоит проектировать инфраструктуру, которая станет основой для работы с данными в масштабах всей компании.
Если ты любишь сложные вызовы, хочешь влиять на архитектурные решения и расти в сильной команде экспертов – будем рады познакомиться!
Обязанности:
- Миграция инфраструктуры данных из Yandex Cloud в SberCloud
- Развертывание и поддержка Trino + Iceberg, Kafka Connect, Debezium и тп
- Поддержка и развитие оркестрации (Dagster/Airflow в Kubernetes)
- Автоматизация развертывания сервисов (Argo CD, Docker)
Что важно уметь:
- Опыт работы с платформой данных
- Опыт работы в Kubernetes (развертывание сервисов, troubleshooting)
- Умение работать с IaC-подходами и git-воркфлоу
- Опыт настойки мониторинга и логирования
Будет плюсом:
- Настройка Kafka Connect
- Настройка и оптимизация кастомных метрик для Debezium/Kafka
- Опыт с ML-стеком (DVC, MLflow, SeldonCore, LangChain, n8n, kubeflow)
Что тебе может дать СберЗдоровье:
-Сильную команду профессионалов, увлеченных своим делом;
-Возможность развития в команде ведущей MedTech-компании России.
-Полный рабочий день, удаленный график;
-Если захочется у нас есть уютный офис в БЦ Technopark Plaza с панорамным видом на город;
-Медицинская программа, включающая телемедицинские консультации, очные приёмы в клиниках, психологов, стоматологию, лабораторные и инструментальные диагностики;
-Оплачиваемые курсы английского языка;
-Бесплатные занятия спортом: сквош, футбол, беговой клуб;
-Компенсация спортивного абонемента;
-СберУниверситет и оплата профильного обучения и курсов
Приятное дополнение:
-Всегда поддержим, если ты захочешь посетить профильные конференции, и, тем более, выступить на них.
-Мы общаемся на “ты”, не любим бюрократию и всегда помогаем друг другу.
Контакт для связи: @irina_comm
@DevOpsSRE_Jobs
Обсуждение:
#Вакансия #удаленно #devops #remote #middle #data
⠀
Вакансия: Инженер эксплуатации сервисов данных (mid+)
Компания: СберЗдоровье
Формат работы: удаленно на территории РФ
Вилка: 250 000 — 340 000 ₽/мес на руки
⠀
СберЗдоровье - аккредитованная IT-компания, крупнейшая в России Digital Health платформа, объединяющая различные сервисы цифровой медицины.
Сервис начал свою работу в 2012 году под брендом DocDoc. Мы помогли миллионам людей получить помощь и продолжаем повышать качество медицинских услуг.
Об IT в цифрах:
-3 бизнес-направления;
- 23+ команды;
- 320+ IT специалистов (devops, manual/auto QA, web/mobile devs, backend devs, аналитики, архитекторы и др.) из 40+ городов.
Стек технологий:
Greenplum, ClickHouse, Trino, Apache Iceberg
Yandex Cloud, SberCloud
Kubernetes, Argo CD
Debezium, Kafka
Dagster/Airflow
Airbyte
В нашей команде тебе предстоит проектировать инфраструктуру, которая станет основой для работы с данными в масштабах всей компании.
Если ты любишь сложные вызовы, хочешь влиять на архитектурные решения и расти в сильной команде экспертов – будем рады познакомиться!
Обязанности:
- Миграция инфраструктуры данных из Yandex Cloud в SberCloud
- Развертывание и поддержка Trino + Iceberg, Kafka Connect, Debezium и тп
- Поддержка и развитие оркестрации (Dagster/Airflow в Kubernetes)
- Автоматизация развертывания сервисов (Argo CD, Docker)
Что важно уметь:
- Опыт работы с платформой данных
- Опыт работы в Kubernetes (развертывание сервисов, troubleshooting)
- Умение работать с IaC-подходами и git-воркфлоу
- Опыт настойки мониторинга и логирования
Будет плюсом:
- Настройка Kafka Connect
- Настройка и оптимизация кастомных метрик для Debezium/Kafka
- Опыт с ML-стеком (DVC, MLflow, SeldonCore, LangChain, n8n, kubeflow)
Что тебе может дать СберЗдоровье:
-Сильную команду профессионалов, увлеченных своим делом;
-Возможность развития в команде ведущей MedTech-компании России.
-Полный рабочий день, удаленный график;
-Если захочется у нас есть уютный офис в БЦ Technopark Plaza с панорамным видом на город;
-Медицинская программа, включающая телемедицинские консультации, очные приёмы в клиниках, психологов, стоматологию, лабораторные и инструментальные диагностики;
-Оплачиваемые курсы английского языка;
-Бесплатные занятия спортом: сквош, футбол, беговой клуб;
-Компенсация спортивного абонемента;
-СберУниверситет и оплата профильного обучения и курсов
Приятное дополнение:
-Всегда поддержим, если ты захочешь посетить профильные конференции, и, тем более, выступить на них.
-Мы общаемся на “ты”, не любим бюрократию и всегда помогаем друг другу.
Контакт для связи: @irina_comm
@DevOpsSRE_Jobs