SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
490 subscribers
7 photos
135 links
Админ/реклама - @chezarius

Разместить вакансию: https://t.iss.one/it_match_bot
Download Telegram
Data Engineer (Middle+/Senior)

Компания: IFellow
Зарплата: от 350 000
Тип занятости: #Гибрид
Локация: #Москва #Санкт-Петербург
Позиция: #Middle #Senior

Обязанности
— Участвовать в проектировании архитектуры фреймворка
— Разрабатывать новый/дорабатывать текущий функционал и тестировать его
— Взаимодействовать с коллегами: как с разработчиками, так и с DevOPS-инженерами
— Оптимизировать и масштабировать системы

Требования
— Уверенное знание SQL
— Уверенное знание языков Scala/Java, Bash
— Опыт работы с базами данных (SQL/NoSQL)
— Понимание концепции хранилищ данных (DWH, Data Lake): слои, витрины, агрегаты, Data Quality, полная-инкрементальная загрузки
— Знание типов медленно меняющихся измерений
— Знание основных компонент инфраструктуры Hadoop, понимание принципов их работы (HDFS, YARN, HIVE, Oozie)
— Уверенное знание архитектуры, принципов работы и API инструментов Apache Spark, Apache Flink, Apache Kafka, Apache Iceberg, Trino, Velox
— Понимание основных принципов RESTful API
— Хорошее понимание архитектуры микросервисов

Дополнительные требования:
— Навыки программирования на Python
— Опыт работы с ClickHouse
— Опыт работы с S3 и Kubernetes
— Опыт менторства

Что компания предлагает
— Гибридный формат работы (3 дня офис, 2 дня дома)

Контакт для связи: @varvara_bash

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/13

Стек технологий: #Java #Scala #SQL #DWH #DataLake #Hadoop #RESTfulAPI #ApacheSpark #ApacheFlink #ApacheKafka #ApacheIceberg #Trino #Velox #Git #Python #ClickHouse #S3 #Kubernetes

#data #вакансия #job #vacancy #москва #спб
Middle+/ Senior Data Engineer

Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior

Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.

Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.

Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.

Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.

Контакт для связи: @rinapina_ptolemay

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/27

Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
🥴1
Data-engineer

Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle

Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh

Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git

Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C

Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2

Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39

Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
🥴1
Data Engineer/ Search Engineer

Компания: CloudSquad
Зарплата: $25-35 per hour
Тип занятости: #Удаленка #Full-time
Локация: #Remote (outside of Russia)
Позиция: #Middle #Senior

Our customer is a generative AI company headquartered in San Francisco, providing a comprehensive AI platform tailored for enterprise use. In late 2023, the company secured $100 million in Series B funding from leading institutional investors, including a prominent growth equity firm and several other major venture capital groups.

Обязанности
— Optimize and scale multi-tenant Elasticsearch/OpenSearch deployments
— Design and implement sharding strategies for performance isolation
— Implement backup, recovery, and cross-cluster replication strategies
— Collaborate with platform and application teams on data ingestion and retrieval patterns, automated provisioning

Требования
— 3–5+ years managing Elasticsearch/OpenSearch in production at scale
— Deep knowledge of cluster design, indexing strategies, and search performance tuning
— Experience with AWS OpenSearch, Elasticsearch Service, and/or Elastic Cloud
— Familiarity with Kubernetes-based deployments is a plus

Что компания предлагает
— Remote work outside of Russia
— Competitive hourly rate
— Opportunity to work with cutting-edge AI technologies

Контакт для связи: @natalia_kurland

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/62

Стек технологий: #Elasticsearch #AWS #OpenSearch #Kubernetes
Архитектор данных (Data Architect)

Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior

Крупная финтех-компания ищет Архитектора данных.

Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.

Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.

Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/70

Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Data engineer

Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle

Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.

Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).

Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.

Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.

Контакт для связи: @VLT_recruiter

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85

Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
1
Data инженер

Компания: Top Selection
Зарплата: 350-420K
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior

Мы в поиске Data инженера на проектную занятость. Долгосрочный проект с оформлением по ИП.

Обязанности
— Разработка и оптимизация сложных SQL-запросов
— Оркестрация ETL-пайплайнов с помощью Airflow
— Работа с технологиями экосистемы Hadoop (HDFS, YARN, HIVE, Sqoop)
— Разработка и поддержка решений на Apache Spark (Spark DataFrames, Spark SQL)
— Взаимодействие с инструментом dbt
— Работа с банковской предметной областью

Требования
— Опыт работы с SQL на уровне оптимизированных сложных запросов
— Понимание принципов функционирования традиционных СУБД и MPP-баз данных
— Опыт программирования на Python, Java или Scala
— Опыт оркестрации ETL-пайплайнов (Airflow)
— Умение работать с Hadoop (HDFS, YARN, HIVE, Sqoop)
— Владение Apache Spark (Spark DataFrames, Spark SQL)
— Опыт работы с банковской предметной областью
— Желательно: опыт с Kafka, Trino, Kubernetes, Helm, CI/CD

Что компания предлагает
— Долгосрочный проект
— Удаленный формат работы
— Конкурентную ставку

Контакт для связи: @aliiS_a

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/95

Стек технологий: #Python #Trino #dbt #Airflow #Spark #Hadoop #Hive #Postgres #Greenplum #Kubernetes #Gitlab
Архитектор DWH

Компания:
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior

Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области

Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes

Контакт для связи: @fr_rec

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126

Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Разработчик БД

Компания: ДИТ.Интеллект
Тип занятости: #full_time
Уровень: #middle+
Страна: #RU
Локация: #office #hybrid #remote
Зарплата: от 350 RUB до 400 RUB

Ищется .Net разработчик с навыками DBA в ДИТ.Интеллект. ДИТ.Интеллект — внутренний центр экспертизы Департамента информационных технологий города Москвы. Наша ключевая задача — создавать и развивать высоконагруженные и технологичные веб-приложения для автоматизации внутренних бизнес-процессов ДИТ.

Обязанности
- Проектирование, разработка, мониторинг и эксплуатация БД
- Миграции и управление схемой данных
- Поиск узких мест и оптимизация производительности
- Консультирование команды разработки, код-ревью

Требования
- Опыт коммерческой разработки и администрирования реляционных БД от 4 лет
- Глубокие знания SQL, опыт работы с PostgreSQL или SQL Server
- Опыт оптимизации запросов и настройки производительности БД
- Практический опыт проектирования баз данных (нормализация, денормализация)
- Опыт организации и проведения миграций схемы данных
- Умение работать в команде, проводить код-ревью и делиться знаниями
- Высшее техническое образование

Будет плюсом
- Опыт работы с NoSQL-решениями (Redis, Elasticsearch)
- Опыт работы с Entity Framework Core
- Опыт работы в среде Kubernetes и понимание принципов контейнеризации приложений БД
- Навыки настройки мониторинга БД с использованием Prometheus/Grafana
- Знание принципов Data Mesh и/или Domain-Driven Design (DDD) применительно к данным

Дополнительная информация
Баланс рабочих нагрузок DBA/Разработчик - 60/40. Оформление ТК РФ на fulltime. Зарплатная вилка указана на руки.

Контакты
- Telegram: @SceellaNox

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/147

Стек технологий: #postgresql #sql_server #redis #elasticsearch #entity_framework #kubernetes #prometheus #grafana
1