SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
494 subscribers
4 photos
137 links
Админ/реклама - @chezarius

Разместить вакансию: https://t.iss.one/it_match_bot
Download Telegram
Data Engineer

Компария: 7RedLines
Зарплата: 120 000 – 140 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Россия
Позиция: #Middle

Компания 7RedLines занимается разработкой и поддержкой решений для работы с данными. Мы ищем Data Engineer для участия в проектировании и развитии хранилищ данных, а также автоматизации ETL-процессов.

Обязанности
— Разработка хранилищ данных и витрин данных
— Проектирование, разработка и поддержка ETL-процессов
— Контроль качества загружаемых данных (ручные и автоматические тесты DQ)
— Интеграция новых источников
— Работа в команде с системными аналитиками

Требования
— Опыт работы 2–3 года в области Data Engineering
— Знание SQL и Python
— Опыт работы с СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server
— Опыт использования ETL-инструментов: Apache NiFi, Apache Airflow
— (Будет плюсом) Опыт работы с Hadoop, PySpark, Apache Kafka, Arenadata

Что компания предлагает
— Официальное оформление по ТК РФ
— Полная занятость с графиком 5/2
— Удаленный формат работы
— Возможность работать с современными технологиями

Контакт для связи: @HR7RedLines

Стек технологий: #SQL #Python #PostgreSQL #Clickhouse #Greenplum #MSQL #ApacheNiFi #ApacheAirflow #Hadoop #PySpark #ApacheKafka #Arenadata
Data Engineer (Middle+/Senior)

Компания: IFellow
Зарплата: от 350 000
Тип занятости: #Гибрид
Локация: #Москва #Санкт-Петербург
Позиция: #Middle #Senior

Обязанности
— Участвовать в проектировании архитектуры фреймворка
— Разрабатывать новый/дорабатывать текущий функционал и тестировать его
— Взаимодействовать с коллегами: как с разработчиками, так и с DevOPS-инженерами
— Оптимизировать и масштабировать системы

Требования
— Уверенное знание SQL
— Уверенное знание языков Scala/Java, Bash
— Опыт работы с базами данных (SQL/NoSQL)
— Понимание концепции хранилищ данных (DWH, Data Lake): слои, витрины, агрегаты, Data Quality, полная-инкрементальная загрузки
— Знание типов медленно меняющихся измерений
— Знание основных компонент инфраструктуры Hadoop, понимание принципов их работы (HDFS, YARN, HIVE, Oozie)
— Уверенное знание архитектуры, принципов работы и API инструментов Apache Spark, Apache Flink, Apache Kafka, Apache Iceberg, Trino, Velox
— Понимание основных принципов RESTful API
— Хорошее понимание архитектуры микросервисов

Дополнительные требования:
— Навыки программирования на Python
— Опыт работы с ClickHouse
— Опыт работы с S3 и Kubernetes
— Опыт менторства

Что компания предлагает
— Гибридный формат работы (3 дня офис, 2 дня дома)

Контакт для связи: @varvara_bash

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/13

Стек технологий: #Java #Scala #SQL #DWH #DataLake #Hadoop #RESTfulAPI #ApacheSpark #ApacheFlink #ApacheKafka #ApacheIceberg #Trino #Velox #Git #Python #ClickHouse #S3 #Kubernetes

#data #вакансия #job #vacancy #москва #спб
Разработчик PostgreSQL

Компания: Start Industries
Зарплата: от 200 тыс.руб до 300 тыс. руб., в зависимости от грейда.
Тип занятости: #Офис
Локация:
Позиция: #Middle #Senior

Мы ищем PostgreSQL-разработчика для крупного проекта. Вас ждет интересная работа в команде профессионалов.

Обязанности
— Анализ и доработка чужого кода
— Оптимизация действующего запроса/функционала, рефакторинг кода
— Разработка и поддержка интеграционных приложений
— Проведение аналитики по задачам
— Участие в командной разработке

Требования
— Высшее техническое образование
— Опыт работы от 4х лет
— Знание языков SQL и Pg/Sql
— Понимание принципов работы PostgreSql
— Умение анализировать и дорабатывать чужой код
— Опыт оптимизации запросов и рефакторинга
— Аналитический склад ума, умение систематизировать процессы

Что компания предлагает
— Интересный проект в команде профессионалов
— Конкурентную заработную плату
— Возможности для профессионального роста

Контакт для связи: @Diana_Zaripova_Recruiter

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/19

Стек технологий: #PostgreSQL #SQL #PgSQL #Java #Git #Jira #Confluence #NoSQL #Hadoop
Spark Data Engineer (Senior) / Автор учебных материалов

Компания: Standard Data
Зарплата: 30 000 – 50 000 руб. за тему (лекция + семинар + ДЗ), 10 000 – 20 000 руб. за вебинар
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Senior

Standard Data проектирует и реализует образовательные решения для крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.

Обязанности
— Разработка учебных материалов: лекции, семинары, ДЗ, проекты по Spark (Structured Streaming, Kafka, оптимизации и др.).
— Проведение онлайн-вебинаров (2 раза в неделю по 2 часа).
— Создание тестов и практических заданий.

Требования
— Опыт работы Data Engineer от 5 лет, включая оптимизацию ETL/высоконагруженных приложений.
— Глубокое знание: Scala 3, Spark, Kafka, Hadoop, Oozie, Yarn.
— Опыт с Spark Structured Streaming (трансформации, агрегации, оконные функции).

Будет плюсом:
— DevOps-навыки (Jenkins).
— Знание Spark MLlib.

Что компания предлагает
— Гибкие ставки (зависит от опыта и результатов собеседования).
— Удаленный формат работы.
— Возможность создать качественный образовательный продукт.

Контакт для связи: t.iss.one/KaterinkaGl

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/21

Стек технологий: #Spark #Scala3 #Kafka #Hadoop #Oozie #Yarn #Jenkins #MLib
Middle+/ Senior Data Engineer

Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior

Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.

Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.

Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.

Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.

Контакт для связи: @rinapina_ptolemay

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/27

Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
🥴1
Data Engineer

Компания: Luna Capital - аккредитованная IT-компания
Зарплата: 230 000 - 250 000 net
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Middle

Команда ищет Data Engineer уровня Middle, который будет развивать и поддерживать аналитическое хранилище данных компании. Много интересных задач: как создание новых компонентов, так и улучшение уже работающих решений. Мы ценим чистый, стабильный код и внимательно относимся к качеству данных - ищем того, кто разделяет этот подход.

Обязанности
— Разработка нового и доработка существующего кода компонентов аналитического хранилища данных
— Создание и описание правил работы с кодом, оформление базы знаний
— Разработка и описание процессов публикации и релизов
— Оптимизация SQL-запросов и структур БД
— Оперативное реагирование на инциденты в зоне ответственности
— Участие в код-ревью

Требования
— Общий опыт работы от 3 лет
— Практический опыт с ELT-процессами
— Владение системами контроля версий (Git, GitLab, Bitbucket)
— Опыт работы с распределёнными базами данных: Hadoop, Greenplum
— Знание SQL (ANSI, PL/SQL) и опыт оптимизации запросов
— Навыки работы с системами ведения документации

Что компания предлагает
— [Преимущество 1, например, гибкий график]
— [Преимущество 2, например, обучение за счет компании]
— [Преимущество 3, например, корпоративные мероприятия]

Контакт для связи: @Me_Polly

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/29

Стек технологий: #Hadoop #Greenplum #SQL #Git #GitLab #Bitbucket
SQL-разработчик (Senior)

Компания: Top Selection
Зарплата: 280.000 - 300.000 гросс
Тип занятости: #Удаленка #Fulltime
Локация: #Любая
Позиция: #Senior

Привет! Меня зовут Александр. Я представляю группу компаний Top Selection.
Мы занимаемся продуктовой разработкой и аутсорсингом IT персонала для рынка России, Европы и США.
В данный момент мы в поисках SQL-разработчика.

🔥Проект: Совершенствование системы автозаказа и пополнения.
Создание оптимального баланса по уровню запасов и их доступности в сети, достигнув улучшения следующих показателей: товарный запас, доступность, интенсификация труда.

Обязанности
— Репликация и кластеризация PostgreSQL
— Сложная нормализация данных
— Написание и оптимизация сложных SQL-запросов для извлечения, преобразования и агрегирования данных в Spark
— Работа с Spark DataFrames
— Подключение и обработка данных из различных источников (HDFS, Hive, JSON, Parquet и др.)
— Оптимизация SQL-запросов для повышения производительности
— Работа с распределенными системами (Hadoop, Spark)

Требования
— Опыт работы с PostgreSQL (репликация, кластеризация)
— Умение выполнять сложную нормализацию данных
— Навык написания и оптимизации сложных SQL-запросов в Spark
— Опыт работы с Spark DataFrames
— Знание различных источников данных (HDFS, Hive, JSON, Parquet и др.)
— Понимание принципов оптимизации SQL-запросов для больших данных
— Опыт работы с распределенными системами (Hadoop, Spark)
— Знание принципов распределенной обработки данных

Что компания предлагает
— Удаленный формат работы
— Оформление по ИП
— Работа над интересным продуктовым проектом
— Возможность работы с международными рынками

Контакт для связи: @AleksandrLuzgin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/33

Стек технологий: #SQL #PostgreSQL #Spark #Hadoop #HDFS #Hive #JSON #Parquet
Data Engineer

Компания: Гарда Технологии
Зарплата: по договоренности
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Россия
Позиция: #Senior

Обязанности
— Проектирование схемы, ETL, тестирование хранилищ данных для продуктов компании
— Настройка и оптимизация конвейеров данных (Airflow, Python, SQL, ClickHouse)
— Разработка и внедрение стратегий резервного копирования
— Мониторинг системы оповещения
— Решение проблем в работе конвейеров, обеспечение качества данных
— Моделирование хранилищ данных и процессов обработки данных

Требования
— Навыки работы и тонкой настройки различных баз данных (SQL, ClickHouse)
— Понимание принципов работы Airflow и Kafka
— Понимание процесса непрерывной интеграции CI/CD

Будет плюсом:
— Понимание архитектуры и процесса обработки данных фреймворком Apache Hadoop
— Знание стандартов и best practice в области хранения данных
— Навыки работы с большим пулом различных баз данных (MSSQL, Oracle, PostgreSQL, ClickHouse, MongoDB, Greenplum, Apache Hive, NoSQL, S3 хранилища)
— Работа с системами виртуализации/контейнеризации

Что компания предлагает
— Работу в аккредитованной ИТ-компании
— Ежеквартальное и годовое премирование сотрудников (после испытательного срока)
— ДМС со стоматологией
— Компенсация расходов на спорт, ежемесячная компенсация питания после трех месяцев работы
— Возможность гибридной или удалённой работы, с гибким началом рабочего дня

Контакт для связи: @nadja_chh

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/41

Стек технологий: #Airflow #Python #SQL #ClickHouse #Kafka #CI/CD #Hadoop #MSSQL #Oracle #PostgreSQL #MongoDB #Greenplum #ApacheHive #NoSQL #S3
Data Engineer

Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior

Крупная финтех-компания, пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.

Обязанности
— Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для их последующей интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов для контроля и поддержания качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования
— Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.

Что компания предлагает
— Релокационный пакет.
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркая корпоративная культура и кафетерий бенефитов.

Контакт для связи: @haas_mari

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/54

Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #ApacheSpark #ApacheFlink #Airbyte
SQL Analyst (Middle+)

Компания: [Название компании]
Зарплата: 280 000–300 000 ₽
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Middle

Банковский проект (инвесты, аналитика). Оформление: ИП / самозанятость.

Обязанности
— Разработка SQL-запросов и аналитических витрин
— Работа с хранилищами данных (PostgreSQL, Oracle, MS SQL, Greenplum, Vertica)
— Участие в ETL процессах (Airflow, Informatica Power Center)
— Построение отчётности и визуализаций (PowerBI, Tableau)
— Работа с Hadoop и большими объёмами данных
— Оптимизация SQL-запросов, построение моделей данных
— Участие в улучшении аналитической инфраструктуры банка

Требования
— 2+ года опыта работы с SQL и DWH
— Опыт построения SQL-запросов и аналитических витрин
— Знание PostgreSQL, Oracle, MS SQL, Greenplum, Vertica
— Опыт работы с ETL (Airflow, Informatica Power Center)
— Навыки работы с Hadoop и большими данными
— Умение работать с BI-инструментами: PowerBI, Tableau
— Умение писать оптимизированный SQL, знание PL/SQL

Что компания предлагает
— Удалённый формат работы (фулл-тайм)
— Проект в банковской сфере
— Возможность работы с современными технологиями

Контакт для связи: @skeldafn (код BD-1005)

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/61

Стек технологий: #PostgreSQL #Oracle #MSSQL #Greenplum #Vertica #Airflow #Informatica #PowerBI #Tableau #Hadoop
Архитектор данных (Data Architect)

Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior

Крупная финтех-компания ищет Архитектора данных.

Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.

Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.

Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/70

Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Data Engineer

Компания: Крупная финтех-компания (не РФ)
Зарплата: Конкурентная заработная плата
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Middle #Senior

Крупная финтех-компания, пионер мобильного банкинга, развивает мультифункциональную платформу, объединяющую финансовые, сервисные и бизнес-решения. Платформой пользуются более 20 млн человек.

Обязанности
— Анализ требований к витринам данных в связке с Data Analysts и Data Scientists.
— Поиск и исследование источников данных для интеграции с Data Lake.
— Разработка ETL/ELT-процессов с использованием PySpark.
— Разработка оркестрации ETL-процессов в Airflow.
— Развитие инструментов контроля качества данных (Data Quality).
— Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования
— Отличные знания SQL (CTE, оконные функции).
— Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
— Знание Python для разработки ETL/ELT пайплайнов.
— Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
— Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
— Опыт написания сервисов для взаимодействия с внешними источниками данных.
— Понимание принципов построения системных интеграций.

Что компания предлагает
— Работу в офисе или гибридный формат.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Фитнес-зал, массажные кресла и спортивные клубы в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/87

Стек технологий: #SQL #Python #PySpark #Airflow #Hadoop #ClickHouse #PostgreSQL #MSQL #ApacheSpark #ApacheFlink #Airbyte #DataLake #DWH
Data инженер

Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior

Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.

Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью

Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD

Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку

Контакт для связи: @aliiS_a

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/95

Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Ведущий разработчик ETL

Компания: Ekleft (финтех)
Зарплата: от 300.000 до 475.000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior #lead #expert

Обязанности
— Проектирование и разработка прикладного программного обеспечения;
— Экспертиза и согласование технических заданий на разработку прикладного программного обеспечения;
— Отладка и тестирование разработанного прикладного программного обеспечения;
— Подготовка технической документации;
— Участие во внедрении прикладного программного обеспечения в промышленную эксплуатацию.

Требования
— Informatica PowerCenter, опыт от 5 лет.
— Знание SQL, Java;
— Опыт работы с СУБД (ORACLE, PostgreSQL, MS SQL Server, Hadoop, MongoDB);
— Приветствуется опыт Kafka, REST, SOAP;
— Приветствуется опыт работы аналитиком;
— Приветствуется теоретическая подготовка в области реляционных баз данных.

Контакт для связи: @AnyaSechkova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/115

Стек технологий: #ETL #InformaticaPowerCenter #SQL #Java #ORACLE #PostgreSQL #MSSQLServer #Hadoop #MongoDB #Kafka #REST #SOAP