Data Science Jobs
18.4K subscribers
24 photos
415 links
админ - @haarrp

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

РЕЕСТР РКН: clck.ru/3Fmrbd
Download Telegram
#вакансия #vacancy #DataEngineer #MLOps #python #C++ #Senior #AWS #Kubernetes #k8s #PyTorch #Linux #ML #Spark #CICD #ApacheAirflow

Вакансия: MLOps/Data Engineer
Компания: Уже более 10 лет успешно занимаемся высокочастотной алгоритмической торговлей (HFT). Работаем в 7 странах на крупнейших фондовых и криптовалютных биржах от Чикаго до Токио, где наша деятельность охватывает торговлю акциями, облигациями, фьючерсами, опционами, валютой и всеми производными цифровых активов. В цифрах это: 20+ дата-центров, 2000+ торговых стратегий, которые применяем на 3000+ инструментах, где в среднем совершаем 150 млн сделок с оборотом сотни млрд $ в месяц.
Офисы компании расположены в городах Санкт-Петербург, Лимасол (Кипр) и Савона (Италия).
Уровень зп:
400 000 руб net;
Формат: Гибкий график, г. Санкт-Петербург
Занятость: полная занятость, 5/2;
📍Какие задачи предстоит решать:
• Разработка, развитие и поддержка пайплайна для регулярного обучения-валидации-деплоя моделей;
• Поддержка и развитие слоя выгрузки данных из самописного хранилища в Python для обучения моделей (С++ и Python);
• Настраивать необходимую под задачи инфраструктуру (AWS) и заниматься DevOps-поддержкой ML-разработки;
• Помощь в проведении исследовний — внедрение тулов для ML Experiment Tracking;
• Миграция существующих моделей из Python в С++ и оптимизация перфоманса моделей в проде (борьба за 10-ки мкс).

🖇Наши ожидания :
• Питонист уровня анаконда, который умеет в дата-инженерию и MLOps;
• Знание классических алгоритмов и структур данных;
• Опыт написания оберток Python к С++ или встраивания в С++;
• Опыт с PyTorch, AWS, Airflow, Kubernetes и Spark.
Будет преимуществом:
• Знание Linux на продвинутом уровне;
• Интерес к нашей кухне.

🧸Что готовы предложить:
• Отсутствие формализма и бюрократии, широкий спектр нетривиальных задач и возможностей для реализации собственных идей;
• Нет жестких сроков и чрезмерного прессинга сверху - мы не контролируем рабочий процесс, но создаем условия, чтобы каждый был заинтересован в результате;
• Набор бенефитов, поддержку релокации, оплачиваемые командировки в Европейский офис и не только;
• Современное оборудование и ПО в производстве, новое железо и все необходимое для продуктивной работы.
Отправляйте свое CV: @Madam_Sophie
👍6😁1
#vacancy #job #dataengineer #engineer #fulltime #remote #python #fintech #sql #scala #AWS

Senior Data Engineer

🫥 Remote or Relocation

🫰 $3.5-5.5k net

Project: launching the first, large-scale e-wallet in Azerbaijan. We aim to create the best-in-class digital payment ecosystem and become number one payment solution in the country. We want to provide our customers with convenient, simple and reliable alternative to cash.

Our company is built on the basis of existing payment terminal business with ~3 mln customers and is also a part of a large holding company in Azerbaijan, with a strong portfolio in financial services.

Role Description:
· You will design and develop data applications in one of languages: Python, Scala, SQL
· Develop, customize and manage data integration tools, databases, warehouses, and analytical systems
· Design, build and maintain scalable data models that are clean, tested, and well documented
· Work closely with product teams and other stakeholders to desing and build data marts providing reliable and accurate data in a fast way
· Handle data pipelines and contribute towards data strategy and its execution

Experience, Competencies and Skills Required:
· At least 2 years of hands-on experience with Python, SQL
· At least 2 years of hands-on experience with Big Data systems like Hadoop, Spark
· Experience building data infrastructure using at least one major cloud provider, preferably AWS
· Strong competencies in algorithms and software architecture

· Knowledge of Terraform is a plus
· Knowledge of Scrum, Agile
· Advanced English, good Russian

👨‍💻 Communication via Telegram - @minilati
👍41🔥1
#Belgrad #DataEngineer #AWS #Prometheus #Postgres #ElasticSearch #ClickHouse #Python #Greenplum

📌Data Engineer

Practicum
Belgrade, Serbia
$4500-6500

Practicum is a service for anyone looking to master the unit profession. Our team develops, operates, and expands the infrastructure, empowering Practicum to make informed decisions. Practicum is pushing hard into the US and other countries. That's why we're looking for engineers to help our fantastic team quickly grow and reach new data heights.

Our technologies:

AWS, EFbK Stack, Prometheus, GitLab, Lambda, Kafka.
•Postgres, ElasticSearch, ClickHouse, Metabase.
•Python, Golang.

Responsibilities:

•Handle our data processing infrastructure for analytics and user services.
•Design and build displays for data pulled from raw product sources and external APIs.
•Configure streamlined data updates.
•Develop a logical DWH architecture to make life easy for analysts.
•Improve DWH stability and reliability.
•Formulate requirements for new data sources and integrate them into existing aggregate data models.

Qualifications:

•3+ years of experience in data engineering.
•At least 2 years experience in AWS
•Experience working with AWS, Postgres, Greenplum, and ClickHouse.
•Proficiency in or a desire to learn Python / Golang.
•Ability to write clean, optimal code that is easy to maintain and test.
•Habit of covering your code with tests.
•Proven background in developing ETL processes.
•Experience working with relational databases and APIs.
•Experience designing dashboard displays.
•Desire for self-development and studying new technologies and tools.
•Readiness to make decisions and take responsibility.
•Desire and understanding of how to build loaded systems.
•Familiarity with fault tolerance and service scaling.
•Ability to find common ground with colleagues and the team.

Benefits:

•Relocation to Serbia
•Engaging work with the opportunity to influence the process and result
•A strong team to grow with
•Remote work or relocation assistance
•Power compensation
•Discounts from the company's partners

Contact: @vrtrlmv

@datascienceml_jobs
👍31🔥1
#вакансия #удалённо #aws

Вакансия: Senior Data Engineer

Компания: constructor.io (~150 человек)

Финансы: 90-110K$ в год + опционы

Локация: полная удаленка

О нас: Мы делаем headless платформу, которая предоставляет API для поиска, брауз и рекомендации для американского и европейского екоммерса. Среди крупных клиентов - Sephora, Lego, Victoria’s Secret, Kmart, Target, GOAT, American Eagle.
Команда: Data Platform Team — мы занимаемся платформой данных для аналитики и машинного обучения. Эффективно парсим сотни терабайт данных, серваем аналитику в продакшн, строим инфраструктуру для обработки данных, делаем для коллег работу с данными и вычисления удобнее.

Что нужно:
Первый проект: забрать и интегрировать с платформой API для доставки эвентов с клиентов в дата платформу. Здесь нужно будет знать как делать простой бэкенд.

Далее: строить и улучшать дата инфраструктуру — поднимать новые базы, деплоить новые сервисы, работать с ClickHouse, Apache Spark, облачной инфраструктурой в AWS и копаться в самих данных.

Нужно любить не только программировать но и работать с инфраструктурой: CloudFormation конфиги, Jenkins-пайплайны, CDK, …
Нужно знать про форматы данных, разницу между форматами хранения, архитектуру БД и уметь применять это знание для дизайна эффективной инфраструктуры.

Аплаиться сюда: https://apply.workable.com/constructor-1/j/9A39AC2202
Вопросы: @ivanychev
🔥3👍1🍾1
#вакансия #dataengineer #senior #python #airflow #aws

Позиция: Data engineer
Уровень: Senior
Локация: за пределами РФ и РБ, готовность работать по GMT+3
Формат работы : remote
Занятость: full-time, 5/2
ЗП: от 5000 до 8000 usd gross (оформление по b2b контракту)
Контакт: @sobolevavalery

Всем привет! Меня зовут Лера, я работаю в КА Lucky Hunter: https://luckyhunter.io/

Мы находимся в поисках Senior Data Engineer на интересный проект для Travel рынка.

Про продукт 🏄‍♀️
Основной продукт создан на стыке психологии и современных технологий, это умный помощник, который помогает построить персонализированный маршрут путешествий в считанные минуты, используя анализ данных.

В июне 2022 года продукт вышел в релиз на американский рынок, команда получила фидбек, что пользователи хотят маршруты в ЕС, ОАЭ, позднее начали добавлять европейские города. Сейчас планируют покрыть всю Европу, часть Азии, Канаду.

Команда 💫
На сегодняшний день в компании cформирована сильная команда из 43 специалистов (Backend Developers, Frontend Developers, Data Scientists, Business Analyst, QA Engineers, DevOps Engineers, Project Manager, Marketing, Designers, etc).

Команда DS состоит из четырех человек - DS Тимлид, DS общего профиля и два Python разработчика. Из-за стремительного развития продукта коллеги находятся в поиске Senior Data Engineer, которому предстоит "реанимировать" ранее уже запущенные data pipelines, перевести решение в продакшен и переложить на Airflow, а также продолжить дальнейшую реализацию и развитие пайплана с добавлением новых источников и организацией процедуры обновления данных. В качестве единственного DE в команде вы будете принимать все ключевые решения с точки зрения инженерии данных и выбора новых технологий и процедур хранения данных.

С точки зрения технологий на текущий момент это Python, Airflow, SQL, ElasticSearch, AWS (S3), Docker.

Команда работает по скрам канбану.

Детальнее о задачах:

- Разрабатывать и оптимизировать пайплайны, ETL-процедуры;
- Разработка мониторинга и алертинга (Grafana, Prometheus);
- Автоматизация скриптов дата-аналитиков и обработка сырых данных.

Какой опыт и знания коллеги ожидают увидеть: 🔎

- Понимание моделей данных и принципов устройства хранилищ данных;
- Хорошее знание SQL, работа с хранимыми процедурами;
- Опыт работы с базами данных;
- Опыт работы с ElasticSearch, Airflow;
- Опыт коммерческой разработки на Python от 3-х лет;
- Умение работать с production-кодом;
- Знакомство с CI/CD и Docker.

Условия: 📝

- Трудоустройство по B2B контракту с американской или европейской компанией. Заработная плата в USD/Евро;

- Удаленный формат работы. Работа коллег распределена по всему миру, но по времени ориентируются на Центральное европейское время. Основные часы работы с 10 до 19 по GMT+3. Праздничные дни по календарю той страны, в которой проживает сотрудник;

- Оплачиваемый отпуск - 20 дней в году, оплачиваемые больничные дни - 10 дней.

Пишите, буду рада обсудить подробности!
👍3😁1
#vacancy #data #lead #Databricks #AWS #remote #вакансия #удаленно #relocate

Коллеги, привет!
Я в поисках Data Engineering Lead в международную финтех компанию в ЮВА.
Стек: AWS, Databricks, Spark, Terraform, Airflow, Python, Scala
Удаленный формат работы ( или гибрид). Рабочая тайм зона UTC+5/UTC+9 ( и очень важно либо уже находиться там, либо быть готовым к релокации ( поддержка переезда для сотрудника и семьи)

Основные задачи:
- Проектирование и разработка Data Lakes и Data Marts на AWS и Databricks
- Построение и управление ETL-пайплайнами в Airflow/Dagster на Python и Scala
- Автоматизация инфраструктуры с Terraform
- Оптимизация производительности BI-слоев и data pipelines
- Развивитие фреймворков качества данных для надежной аналитики
- Управление командой Data инженеров

Что важно:
- Опыт с Databricks, Spark, Terraform, Airflow, AWS, Python, Scala (как плюс)
- Опыт создания масштабируемых Data решений
- Опыт решения инфраструктурных задач
- Опыт в роли Lead/Head of Data

На все вопросы готова ответить в ЛС @akimova_hr
Data Engineer/ Search Engineer

#вакансия #dataengineer #Elasticsearch #AWS
Location: Remote (outside of Russia)
Work format: Remote, Full-time
Salary range: $25-35 per hour
Company name: CloudSquad
Contacts: @natalia_kurland

Our customer is generative AI company headquartered in San Francisco provides a comprehensive AI platform tailored for enterprise use. In late 2023, the company secured $100 million in Series B funding from leading institutional investors, including a prominent growth equity firm and several other major venture capital groups.

We are looking for an experienced Elasticsearch Engineer to help us scale and optimize search infrastructure across multi- and single-tenant environments. You will be responsible for improving performance isolation, managing large-scale clusters (terabytes of data per tenant), and designing a scalable, resilient Elasticsearch/OpenSearch architecture to meet enterprise requirements.

Hiring specifics:

Candidates must be located outside of Russia
Preferred candidates in or near GMT+1 time zones
Minimum 1 years hands-on experience with Elasticsearch required
Minimum 1 years experience with major cloud platforms (AWS/GCP) required
English proficiency: Upper Intermediate (B2+) or higher required

Key Responsibilities:

Optimize and scale multi-tenant Elasticsearch/OpenSearch deployments
Design and implement sharding strategies for performance isolation
Implement backup, recovery, and cross-cluster replication strategies
Collaborate with platform and application teams on data ingestion and retrieval patterns, automated provisioning

Requirements:

3–5+ years managing Elasticsearch/OpenSearch in production at scale
Deep knowledge of cluster design, indexing strategies, and search performance tuning
Experience with AWS OpenSearch, Elasticsearch Service, and/or Elastic Cloud
Familiarity with Kubernetes-based deployments is a plus

Contacts: @natalia_kurland
🖕43👍2