Data Science Jobs
18.4K subscribers
24 photos
415 links
админ - @haarrp

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

РЕЕСТР РКН: clck.ru/3Fmrbd
Download Telegram
#fulltime #удаленка #вакансия #hadoop #java

Big data администратор данных со знанием Hadoop.
Локация — Москва.
Формат работы — удаленный.
Заработная плата - до 300.000 руб.

⭐️Компания:
-Ведущий разработчик автоматизированных информационных систем, программных комплексов для Минфина РФ, ФНС России, банков, органов государственной и муниципальной власти, муниципальных образований приглашает в команду на вакансию Администратора баз данных на проект Озеро данных.

⭐️Задачи на позиции:
• участвовать в решении архитектурных вопросов по Hadooop;
• решать вопросы сетевых доступов\недоступности серверов;
• осуществлять проактивный мониторинг и обеспечение бесперебойной работы основных сервисов Hadoop;
• готовить проектную документацию.
• участвовать в развертывании релизов Озера Данных;

⭐️Что мы от тебя ждем?
• Unix\Linux (опыт написание скриптов на bash, работа с репозиториями, управление доступами, управление процессами и ресурсами, установка ОС, разбор логов);
Hadoop (опыт установки кластера, настройки сервисов, обновление версий, оптимизация, знание компонентов экосистемы Hadoop что и для чего используется и их особенностей, опыт поиска решения проблем с сервисами);
• понимание принципов развертывания контейнеризованных приложений;
• понимание кода, чтение логов, jvm, принципов ООП);
понимание преимуществ\ограничений между реляционными и NoSQL базами данных, концепции распределенных СУБД;

⭐️ Мы предлагаем:

• Удаленный формат работы;
• полное соблюдение ТК РФ: оплачиваемые отпуска;
• конкурентная заработная плата + премии за эффективную работу;
• пятидневную рабочую неделю (Пн. – Чт. с 09.00 до 18.00, Пт. с 09.00 до 16.45);
• проекты большого масштаба; высоконагруженные сервисы и самые современные технологии;
• сплоченный и профессиональный коллектив;
• профессиональное обучение и сертификацию за счёт компании: мы организуем митапы, хакатоны, конференции, семинары и тренинги: как внутренние, так и внешние;
• партнерские программы от Skyeng и Skillbox;
• доступ к корпоративной библиотеке на платформе Alpina Digital;
• возмещение до 50 % затрат на занятие спортом;
• больничный лист продолжительностью до 7 дней, суммарно за год, выданный сотруднику в связи с его персональной нетрудоспособностью, будет компенсирован Компанией таким образом, чтобы сохранить полную оплату, какая была бы в случае нахождения на работе;
• доплата к отпуску 50% от оклада через 11 месяцев работы в Компании;
• ДМС по окончании испытательного срока.

Пиши сюда, не стесняйся!

@datascienceml_jobs
👍1
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно

🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно РФ
💰ЗП: 200 000-250 000 net

📩Для отклика и по всем вопросам:  
       tg: @Anechkason

🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект:  развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.

🔸Требования:
•  Высшее техническое/экономическое образование
•  Опыт программирования на Java от 2х  лет
•  Опыт программирования и разработки алгоритмов и структур данных
•  Знания принципов построения распределенных систем хранения и обработки данные
•  Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins

🔸Обязанности:
•  Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать  удаленно на территории РФ.

📩 А также пишите: [email protected]
👍7
#вакансия #junior #Greenplum #PostgreSQL #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно #Беларусь

🔸Компания: Bell Integrator
🔸Вакансия: Разработчик Greenplum
🔸Локация: Удаленно РФ/РБ или гибрид/офис
💰ЗП: 150 000-170 000 net

📩Для отклика и по всем вопросам:  
       tg: @Anechkason

🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.

🔸Проект: разработка автоматизированной системы управления мотивацией сотрудников и расчета премии крупного банка РФ.

🔸Требования:
• Опыт работы с Greenplum PostgreSQL от 1 года
• Понимание жизненного цикла разработки программного обеспечения
• Управление требованиями
• Навык проектирования структуры БД и написание SQL запросов

🔸Обязанности:
• Участие в проекте по миграции хранилища данных на основе СУБД Oracle
• Разработка витрин данных с использованием инструментов Hadoop и Greenplum и вывод их в пром в соответствии с банковским релизным процессом
• Оптимизация существующих разработок
• Разработка и поддержка сопроводительной документации и спецификаций данных, базы знаний по вопросам работы с данными.
• Проводить ревью

🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ и Беларуси

📩 А также пишите: [email protected]
👎9👍1💩1
#вакансия #data_engineer #senior #middle+ #Data #fulltime #hadoop #spark

Вакансия: Data Engineer
Компания: FESCO (транспортно-логистическая группа компаний)
Формат работы: удалённый
Вилка: от 200 до 280 тыс.руб на руки + квартальное премирование

Компания занимает лидирующее положение в сфере контейнерных перевозок через Дальний Восток РФ в/из стран Азии, путем 🚚 🚊 ⛴️ ✈️, а также является крупнейшим портовым контейнерным оператором.

📝 О проекте: мы преобразовываем работу с данными и выстраиваем с нуля корпоративную дата-платформу, которая объединит данные всего бизнеса, установит стандарты управления и позволит обеспечить доступ к data-driven решениям всем сотрудникам. При построении платформы мы нацеливаемся на применение гибкой архитектуры (Data lakehouse) и open-source технологий.

Технологический стек: MS SQL, MySQL, Java, Scala, REST, API, REST API, SOAP, Python, PostgreSQL, Hadoop, HDFS, S3, Spark, Airflow

Нам понадобится твоя помощь в:
✔️ Изучении текущей инфраструктуры и оптимизации сбора и обработки данных, поступающих из различных источников
✔️ Проектировании архитектуры хранилища
✔️ Реализации, организации и поддержке объектов на всех слоях хранилища
✔️ Разработке ETL-пайплайнов
✔️ Разработке и доработке интеграционных элементов, коннекторов, внутренних сервисов
✔️ Организации мониторинга работы хранилища и качества данных
✔️ Управлении доступом к данным, разработке и поддержке ролевой модели
✔️ Поддержке аналитиков в вопросах оптимизации и документирования со стороны платформы

Мы ожидаем от тебя:
✔️ Комплексное понимание архитектуры аналитических решений
✔️ Понимание работы различных СУБД (SQL/NoSQL, OLTP/OLAP) и современной IT-инфраструктуры (Infrastructure as code, контейнеризация, облачные решения)
✔️ Понимание особенностей распределенного хранения и обработки данных
✔️ Уверенное знание хотя бы одного языка программирования (Python, Java)
✔️ Углубленное знание SQL
✔️ Понимание подходов к организации процессов разработки (CI/CD, DevOps)
✔️ Понимание принципов data governance, основ управления качеством данных, подхода "данные, как продукт"

Мы предлагаем:
✔️ Возможность полностью удаленного формата работы;
✔️ Официальное оформление, социальный пакет;
✔️ Квартальную премию по результатам работы;
✔️ ДМС, включая стоматологию;
✔️ График работы фулл-тайм, 5/2
✔️ ЗП вилка 200-280 т.р. на руки (без учета премирования).

Подробнее в tg: @AChernykh_Recruiter или по почте [email protected]
😁3🔥2👍1
#вакансия #fulltime #IBS #Москва #РСУБД (#Greenplum OR #Teradata OR #Oracle OR #PostrgeSQL)
#ETL
#SQL (#SQL OR #PL/SQL OR #PL/pgSQL)
#Hadoop (достаточно знакомства)

🧑‍💻 Data engineer (ETL, DWH(КХД))
🔵🔵🔵 IBS (https://ibs.ru)
ЗП от 330 000 gross

Аккредитованная IT-компания, более 30 лет на рынке.

Оформление и работа из любой точки в РФ.

🧿Описание проекта
Наша команда создает информационную платформу для решения аналитических и исследовательских задач в области создания продуктов и услуг на мировых финансовых рынках:
- торговля валютой,
- ценными бумагами,
- производными финансовыми инструментами.

Этот бизнес потребляет и порождает огромное количество данных, которые должны обрабатываться c целью:
- Разработки витрин данных и моделей машинного обучения,
- Подготовки регулярной аналитической и управленческой отчетности,
- Поддержки регулярных бизнес-операций,
- Проведения Ad hoc анализа.

Разрабатываемая нами информационная платформа – высоконагруженное решение, призванное обеспечить достижение всех этих целей.

Наша работа – строить новые потоки данных и строить интерактивные визуализации на их основе для повышения эффективности работы sales подразделений банка. Мы ищем человека, который готов глубоко погрузиться во внутренние бизнес-процессы банка и участвовать в BI и инфраструктурных проектах.

🧿Обязанности
Проектирование и разработка потоков для загрузки данных в хранилище
Проектирование и разработка слоев детальных данных
Проектирование и разработка корпоративной аналитической платформы (ПКАП);
Системная разработка, поддержка и оптимизация ETL-процессов
Поддержка промышленной эксплуатации разработанных решений
Поддержание технической документации в актуальном состоянии

🧿Навыки и умения
Опыт работы с любой промышленной ETL-системой
Опыт работы с популярными РСУБД (Greenplum, Teradata, Oracle, PostrgeSQL)
Знание SQL, PL/SQL или PL/pgSQL
Проактивность, самостоятельность
Желательные:
- Знакомство с экосистемой Hadoop
- Очень большой плюс: опыт промышленной разработки на Python ,
- Опыт работы с CI/CD решениями на базе Jenkins и Bitbucket/Git.
- Опыт работы с Data Vault,
- Знание основ администрирования ОС Linux.

БОНУСЫ И БЕНЕФИТЫ:
❗️Технику предоставляем
❗️ДМС (СОГАЗ) вам и вашим близким скидка - массаж, стоматология, психолог и тд
❗️Онлайн тренировки, скидки на фитнес (Х-fit, Манхеттен, Spirit-Fitness)
❗️Английский от компании или в Skyeng
❗️Удаленный формат работы в РФ
❗️Повышение квалификации, курсы и самая большая электронная библиотека за счет компании

📩Контакты:
Екатерина тг
@shust_ka
👍42
ML инженер в Почту и продукты Mail.ru, Москва

Почта Mail ru — крупнейший и самый популярный почтовый сервис рунета. Ежемесячная аудитория — более 50 миллионов пользователей. Продукт входит в пятёрку мировых сервисов по дневной аудитории и лидирует по установкам на смартфоны в России.

Это не просто почта, а инструмент повышения продуктивности. Здесь можно назначать встречи, планировать дела в календаре, писать заметки, использовать списки шаблонов для планирования, хранить файлы, звонить с видео.

У нас большая команда, но за всю рутину отвечает ML. Наши модели учатся на огромных дата-сетах и умеют группировать входящие, добавлять события из писем в календарь, отделять важное от спама и фишинга, предугадывать, что пользователь хочет написать, а также блокировать взломщиков.

Ищем программиста-исследователя, который присоединится к команде машинного обучения и будет вместе с нами работать над новыми продуктовыми фичами.

Задачи:
- Отвечать за реализацию продуктовых задач с применением машинного обучения;
- генерировать идеи, проверять их и выводить в продакшен;
- следить за трендами ML и реализовывать необходимые в наших продуктах алгоритмы.

Требования:
- Вы разрабатывали приложения на Python/C++ не менее двух лет;
- понимаете основы машинного обучения;
- уверенно знаете теорию вероятностей и математическую статистику;
- знакомы со структурами данных и алгоритмов, в том числе для обработки естественного языка — word embeddings, LSTM, Transformers;
- работали с библиотеками для глубокого обучения — PyTorch, TensorFlow, Keras и другими.

Будет плюсом:
- Опыт разработки LLM (SFT, PEFT) и микросервисных архитектур;
- отличные коммуникативные навыки;
- знание стека технологий Hadoop (Spark, Airflow);
- хорошее знание C++/LUA;
- опыт использования Docker/Kubernetes.

https://t.iss.one/olkony

#вакансия #datascience #ml #engineer #mailru #llm #wordembeddings #LSTM #Transformers #PyTorch #TensorFlow #Keras #hadoop #docker #k8s
👍5😁42🥰1
#Вакансии, #Hadoop, #Python, #Spark, #Airflow #BigData

Компания
: ГК Иннотех + совместительство в ПАО ВТБ
Позиции: 1. Разработчик BigData, 2. Системный аналитик (Витрины данных)
Формат работы: удаленный на территории РФ, по желанию выход в офисы в Москве, СПб и др. городах РФ

В кластер витрин требуются разработчики и аналитики. Работа с витринами Розничного кредитного конвейера ВТБ. Миграции на импортозамещенное хранилище, Arenadata Hadoop, инструменты devops.

Позиция: Разработчик BigData
Специализация: Hadoop, ETL, Python/Spark /контейнеры
Обязанности: Выполнение функциональных обязанностей в рамках реализации проектов ВТБ:
- реализация интеграций в гетерогенной среде с помощью Python/Spark
- ETL
- Работа с Airflow, написание кастомных операторов, формирование дагов
- Оптимизация дагов
- Оптимизация существующего кода
- Базовые знания работы Kerberos
- Разработка и поддержка платформы исполнения моделей.
Требования Опыт реализации интеграции в гетерогенных средах
- Понимание и опыт работы со средствами экосистемы технологий Hadoop;
- Знание Python (Spark)
- Знание Apache Airflow
- Знание Apache Kafka
- Знание Docker
- Опыт решения ETL/data engineering задач
Приветствуется - Приветствуется опыт работы с REST сервисами
- Разработка микросервисов для внутренних инфраструктурных задач;
- Опыт работы с Grafana, разработка мониторинга на Grafana;
- Опыт построения Devops-инфраструктуры:
- знание и опыт администрирования Linux-систем;
- опыт работы с Openshift\Kubernetes;
- понимание концепций построения CI/CD, опыт проектирования и построения CI/CD pipeline, управление процессом сборки и развертывания ПО;
- опыт построения фреймворков с нуля


Позиция: Системный аналитик (Витрины данных)
Специализация Системный анализ
Обязанности - Сбор, анализ, формализация требований
- Подготовка технической документации
- Оценка трудоемкости работ
- Исследование источников данных
- Составление и доработка маппингов
- Построение прототипов витрин согласно бизнес-требованиям
- Проверка качества данных в прототипах
- Постановка задач разработчикам
- Участие в тестировании результатов
Требования - Опыт работы с хранилищами данных (DWH), витринами от одного года – факты, снежинки, звезды и т.д..
- Отличное знание SQL, большим плюсом будет опыт работы с Hadoop (Impala/Hive), Python
- Опыт разработки технической документации.
- Умение структурировать и описывать требования по их автоматизации,
- Умение профилировать источники данных, выявлять закономерности
- Участие в тестировании и в технической приемке разработанного функционала

Обсудить подробнее: @IvanZagrebin
👍21🍌1
#vacancy #SkillStaff #Dataengineer #DWH #Hadoop #remote #РФ

Вакансия: Data engineer
🤦‍♂️ ЗП: 230 - 260k net.
Формат работы: удаленка (только РФ)

Привет, я Таня из компании SkillStaff.
#вместе покоряем вершины 🗻

Наша команда ищет Data инженера на задачи по миграции данных в новое хранилище крупного банка.

↪️ Почему с нами классно?
ДМС, фитнес, повышение квалификации, авиабилеты и многое другое 🏋️‍♀️🏥
Корпоративная культура! Мы любители мероприятий, квестов.
Путешествия. Мы ежегодно устраиваем корпоративные выезды! 💃

➡️ Пиши, если ты:
🔆 Имеешь опыт в роли data инженера от 3-х лет в банках.
🔆 Опыт работы с Hadoop, GreenPlum, S3, Airflow, Spark, Kafka, Debezium, ClickHouse, Superset.
🔆 Опыт работы с хранилищами данных.

За подробностями сюда 👉@kech333
Please open Telegram to view this post
VIEW IN TELEGRAM
🥴6
#вакансия #vacancy #ищу #job #DevOps #middle #senior #remote #удаленно #Hadoop #Hive #Spark

Компания: "InfoTel"
Город: Москва
Должность: DevOps Engineer
Формат работы: Удаленный, неполная занятость
Зарплата: Обсуждается индивидуально

О нас: мы — IT-компания, разрабатывающая озеро данных для небольшой телекоммуникационной организации. Ищем в команду опытного DevOps Engineer уровня Middle+ для усиления проекта.

Обязанности:
Аудит кластера и помощь с документацией;
Доработка открытых решений из экосистемы Hadoop;
Текущая структура кластера:
Hadoop (с HDFS).
Hive (с Tez).

Что мы ждем от кандидата:
Опыт работы с Hadoop, Hive, Tez;
Знание Python, Java, SQL;
Опыт работы с Linux;

Условия работы:
Неполная занятость с гибким графиком;
Удаленный формат;
Конкурентоспособная зарплата —
обсуждается индивидуально.

Если вы амбициозны, любите новые технологии и хотите стать частью нашей команды, отправьте резюме. Мы ищем талантливых специалистов!

Отправьте резюме в Telegram по адресу @KonstantinAnalyst, или в WhatsApp по номеру +7 932 123 53 15.
👍1