SQL Jobs | Работа | Вакансии | Удалёнка [IT MATCH]
495 subscribers
6 photos
138 links
Админ/реклама - @chezarius

Разместить вакансию: https://t.iss.one/it_match_bot
Download Telegram
Middle Data Engineer

Компания: Aplaut
Зарплата: от 180 000 рублей до 250 000 рублей net
Тип занятости: #Удаленка #Гибрид
Локация: #РФ
Позиция: #Middle

Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.

Обязанности
— Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
— Интегрировать данные из REST API, баз данных, файловых хранилищ.
— Разрабатывать и поддерживать кастомные Meltano taps и targets.
— Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
— Автоматизировать обработку данных с использованием Dagster.
— Оптимизировать производительность data pipelines.
— Обеспечивать контроль качества данных, работать с метриками и мониторингом.

Требования
— Опыт работы Data Engineer от 2 лет.
— Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
— Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
— Опыт работы с dbt.
— Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
— Опыт работы с облачными платформами.
— Опыт работы с Dagster (настройка и оркестрация data pipelines).
— Опыт работы с форматами данных (JSON/Parquet/Avro/CSV).
— Уверенные знания Docker.

Что компания предлагает
— Аккредитованная ИТ компания.
— Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
— Гибкий график работы.
— Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
— Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
— Финансирование обучения для сотрудников и профессиональная литература за счет компании.
— Возможность использовать sick day вместо больничного 5 дней в году.
— Лучшая команда, которая всегда придет на помощь.
— Насыщенная корпоративная жизнь.

Контакт для связи: @Evgenika_hr

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/7

Стек технологий: #Python #Meltano #PostgreSQL #Mongodb #Elasticsearch #Dagster #Docker #dbt #Kafka
Data Engineer

Компания: EMCD
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Любая
Позиция: #Senior

EMCD разрабатывает экосистему, основанную на одном из 10 крупнейших майнинговых пулов мира. Предоставляет криптоинвесторам надежный майнинг-пул, безопасный кошелек, сбережения до 14% через Coinhold и быстрый P2P-обмен. Более 200,000 пользователей. Сайт: emcd.io

Обязанности
— Проектировать масштабируемые дата-решения с использованием современных технологий.
— Разрабатывать пайплайны для загрузки, обработки и хранения данных.
— Автоматизировать и улучшать внутренние процессы на Google Cloud Platform (GCP).
— Работать с аналитиками и data science для обеспечения доступности и документирования данных.

Требования
— 4+ года опыта в data engineering.
— 3+ года работы с SQL и 2+ года с Python.
— 1+ год работы с GCP или AWS.
— Опыт с Airflow, BigQuery, Snowflake, Redshift или аналогичными инструментами.
— Опыт работы с DBT.
— Знание Kafka или Pub/Sub — будет плюсом.

Что компания предлагает
— Удалённая работа из любой точки мира.
— 28 дней отпуска + 12 бонусных дней.
— 100% оплата больничных.
— 100% оплата корпоративного обучения.

Контакт для связи: @AlesyaPS

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/11

Стек технологий: #SQL #Python #GCP #Airflow #BigQuery #DBT #Kafka
Spark Data Engineer (Senior) / Автор учебных материалов

Компания: Standard Data
Зарплата: 30 000 – 50 000 руб. за тему (лекция + семинар + ДЗ), 10 000 – 20 000 руб. за вебинар
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Senior

Standard Data проектирует и реализует образовательные решения для крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.

Обязанности
— Разработка учебных материалов: лекции, семинары, ДЗ, проекты по Spark (Structured Streaming, Kafka, оптимизации и др.).
— Проведение онлайн-вебинаров (2 раза в неделю по 2 часа).
— Создание тестов и практических заданий.

Требования
— Опыт работы Data Engineer от 5 лет, включая оптимизацию ETL/высоконагруженных приложений.
— Глубокое знание: Scala 3, Spark, Kafka, Hadoop, Oozie, Yarn.
— Опыт с Spark Structured Streaming (трансформации, агрегации, оконные функции).

Будет плюсом:
— DevOps-навыки (Jenkins).
— Знание Spark MLlib.

Что компания предлагает
— Гибкие ставки (зависит от опыта и результатов собеседования).
— Удаленный формат работы.
— Возможность создать качественный образовательный продукт.

Контакт для связи: t.iss.one/KaterinkaGl

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/21

Стек технологий: #Spark #Scala3 #Kafka #Hadoop #Oozie #Yarn #Jenkins #MLib
Middle+/ Senior Data Engineer

Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior

Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.

Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.

Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.

Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.

Контакт для связи: @rinapina_ptolemay

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/27

Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
🥴1
Data-инженер (Middle+/Senior)

Компания: debridge.finance
Зарплата: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
Тип занятости: #Удаленка
Локация: #remote
Позиция: #Middle #Senior

Компания debridge.finance ищет опытного Data-инженера для работы с блокчейн-данными и построения масштабируемых ETL-решений.

Обязанности
— Data Pipeline Development: проектирование, разработка и поддержка масштабируемых пайплайнов для обработки больших объемов данных.
— Data Modeling & Warehousing: создание структурированных хранилищ для аналитики и внутренних нужд.
— Blockchain Data Parsing: парсинг и обработка данных из различных блокчейн-сетей (Solana, L1/L2 и др.).
— Query Optimization: оптимизация сложных SQL и NoSQL-запросов.
— API Development: разработка и поддержка API для передачи данных.
— Data Quality Assurance: тестирование и мониторинг целостности данных.
— Incident Resolution: оперативное устранение сбоев в пайплайнах.

Требования
— 3+ года опыта в data-инженерии или backend-разработке.
— Понимание блокчейн-технологий и опыт работы с on-chain данными.
— Профессиональное владение TypeScript.
— Глубокие знания SQL (сложные запросы, оптимизация) и базовый опыт с NoSQL (MongoDB).
— Опыт работы с ETL/ELT и инструментами оркестрации данных.
— Базовые знания аналитики и статистики.

Что компания предлагает
— Удаленную работу с гибким графиком.
— Конкурентную зарплату в зависимости от опыта.
— Работу с современным стеком технологий.
— Возможность участвовать в развитии web3-экосистемы.

Контакт для связи: @zlata_deBridge

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/31

Стек технологий: #TypeScript #SQL #NoSQL #ETL #ClickHouse #PostgreSQL #MongoDB #Kafka
Data-engineer

Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle

Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh

Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git

Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C

Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2

Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39

Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
🥴1
Data Engineer

Компания: Гарда Технологии
Зарплата: по договоренности
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Россия
Позиция: #Senior

Обязанности
— Проектирование схемы, ETL, тестирование хранилищ данных для продуктов компании
— Настройка и оптимизация конвейеров данных (Airflow, Python, SQL, ClickHouse)
— Разработка и внедрение стратегий резервного копирования
— Мониторинг системы оповещения
— Решение проблем в работе конвейеров, обеспечение качества данных
— Моделирование хранилищ данных и процессов обработки данных

Требования
— Навыки работы и тонкой настройки различных баз данных (SQL, ClickHouse)
— Понимание принципов работы Airflow и Kafka
— Понимание процесса непрерывной интеграции CI/CD

Будет плюсом:
— Понимание архитектуры и процесса обработки данных фреймворком Apache Hadoop
— Знание стандартов и best practice в области хранения данных
— Навыки работы с большим пулом различных баз данных (MSSQL, Oracle, PostgreSQL, ClickHouse, MongoDB, Greenplum, Apache Hive, NoSQL, S3 хранилища)
— Работа с системами виртуализации/контейнеризации

Что компания предлагает
— Работу в аккредитованной ИТ-компании
— Ежеквартальное и годовое премирование сотрудников (после испытательного срока)
— ДМС со стоматологией
— Компенсация расходов на спорт, ежемесячная компенсация питания после трех месяцев работы
— Возможность гибридной или удалённой работы, с гибким началом рабочего дня

Контакт для связи: @nadja_chh

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/41

Стек технологий: #Airflow #Python #SQL #ClickHouse #Kafka #CI/CD #Hadoop #MSSQL #Oracle #PostgreSQL #MongoDB #Greenplum #ApacheHive #NoSQL #S3
Инженер (DBA) Cassandra/Kafka

Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior

Компания рассматривает кандидатов только из России.

Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД

Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки

Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов

Контакт для связи: @fr_rec

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/67

Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack

#вакансия #vacancy #удаленно
Архитектор данных (Data Architect)

Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior

Крупная финтех-компания ищет Архитектора данных.

Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.

Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.

Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.

Контакт для связи: @spetrushkin

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/70

Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.

Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.

Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/76

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Data engineer

Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle

Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.

Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).

Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.

Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.

Контакт для связи: @VLT_recruiter

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85

Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
1
Data-инженер

Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior

Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.

Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами

Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации

Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы

Контакт для связи: @islam14_hr

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/97

Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций

Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD

Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/112

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Ведущий разработчик ETL

Компания: Ekleft (финтех)
Зарплата: от 300.000 до 475.000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior #lead #expert

Обязанности
— Проектирование и разработка прикладного программного обеспечения;
— Экспертиза и согласование технических заданий на разработку прикладного программного обеспечения;
— Отладка и тестирование разработанного прикладного программного обеспечения;
— Подготовка технической документации;
— Участие во внедрении прикладного программного обеспечения в промышленную эксплуатацию.

Требования
— Informatica PowerCenter, опыт от 5 лет.
— Знание SQL, Java;
— Опыт работы с СУБД (ORACLE, PostgreSQL, MS SQL Server, Hadoop, MongoDB);
— Приветствуется опыт Kafka, REST, SOAP;
— Приветствуется опыт работы аналитиком;
— Приветствуется теоретическая подготовка в области реляционных баз данных.

Контакт для связи: @AnyaSechkova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/115

Стек технологий: #ETL #InformaticaPowerCenter #SQL #Java #ORACLE #PostgreSQL #MSSQLServer #Hadoop #MongoDB #Kafka #REST #SOAP
Архитектор DWH

Компания:
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior

Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области

Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes

Контакт для связи: @fr_rec

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126

Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Database Administrator

Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior

Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.

Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.

Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.

Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.

Контакт для связи: @kpulikova

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/128

Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Senior Database Administrator

Компания: Brainsome
Зарплата:
Тип занятости: #Офис
Локация: #Limassol
Позиция: #Senior

We are Brainsome, one of top-tier and trendsetting leaders in online customer acquisition, is a trailblazer in digital solutions, exclusively focusing on the US market with cutting-edge technologies and data-driven strategies. We cultivate a dynamic, creative work environment, empowering our team to be at the forefront of global market innovation.

Обязанности
— Database administration, optimization, and ensuring high availability of MySQL, PostgreSQL, and ClickHouse in production
— Monitor database health, performance, and replication; design and implement disaster recovery strategies.
— Collaborate with development and data warehouse teams to align database architecture with application and analytics needs
— Ensure database security, access control, and compliance with data protection policies
— Automate critical operational tasks such as backups, restores, and performance checks.

Требования
— Solid experience with relational databases (PostgreSQL, MySQL), including tuning, replication, clustering, and backups
— Strong expertise in operating ClickHouse in production environments
— Familiarity with Debezium and Kafka for data streaming, CDC (Change Data Capture) is a plus
— Experience with cloud platforms (preferably GCP) for scalable deployments
— Understanding of load balancing and connection pooling (HAProxy, PgBouncer)
— Familiarity with security best practices and disaster recovery approaches
— Experience in a DevOps role would be a strong plus.
— Russian B2+

Что компания предлагает
— Top rate pay
— Medical insurance
— Sports compensation
— Language classes compensation
— Cozy office in the center of Limassol
— Free lunches and snacks at the office
— Flexible working hours
— Senior-level team
— Team buildings and parties

Контакт для связи: @Svetlana_Kirichenko_ITRecruiter

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/141

Стек технологий: #MySQL #PostgreSQL #ClickHouse #Debezium #Kafka #GCP #HAProxy #PgBouncer
Разработчик корпоративного хранилища данных (КХД)

Компания: Абсолют
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #remote
Зарплата: до 285 000 RUB

Вакансия разработчика корпоративного хранилища данных с опытом от 1 года, работа с SQL, T-SQL, построение ETL процессов, создание витрин данных и проектирование архитектурных решений

Обязанности
- Разработка на SQL, T-SQL
- Построение ETL для корпоративного хранилища данных
- Создание витрин данных
- Анализ технических заданий
- Архитектура и проектирование решений для КХД

Требования
- Опыт проектирования КХД (от 1 года)
- Знание T-SQL
- Оптимизация SQL
- Знание GIT
- Опыт с MS SQL Server Management Studio, MS Visual Studio
- Умение разбираться в чужом коде
- Командная работа (Jira, Confluence - базовый уровень)
- Понимание работы с индексами под OLAP
- Ответственность за код: аккуратное оформление, версионирование

Будет плюсом
- Знание концепции CDC, опыт/понимание Kafka и Debezium
- Знакомство с колоночными СУБД (Clickhouse, Starrocks)
- Знакомство с modern data stack (dbt core, dagster, postgres/greenplum, cube.js, superset)
- Желание изучать новые технологии
- Колоночные индексы и партиционирование (SQL Server 2019/2022)

Дополнительная информация
Код вакансии: BD-10287, Оплата: 50 календарных дней, Только гражданство РФ

Контакты
- Telegram: @hrwomenpro

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/158

Стек технологий: #sql #t-sql #etl #git #ms-sql-server #visual-studio #jira #confluence #olap #cdc #kafka #debezium #clickhouse #starrocks #dbt #dagster #postgres #greenplum #cube-js #superset
DBA Clickhouse

Компания: Wildberries и Russ
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #office

Вакансия DBA Clickhouse в международной технологической компании, образованной в результате слияния Wildberries и Russ. Компания активно расширяет собственную инфраструктуру и ищет опытного специалиста для обслуживания кластеров ClickHouse.

Обязанности
- деплой новых кластеров
- обновление
- мониторинг
- переконфигурация
- управление учётными данными пользователей
- развитие внутренних инструментов для обслуживания кластеров
- интеграция новой функциональности
- помощь при отладке проблем и оптимизации производительности
- консультация пользователей

Требования
- релевантный опыт работы по обслуживанию кластеров ClickHouse: установка, настройка, поиск и устранение проблем
- глубокое знание gnu/linux, сетей, инструментов автоматизации (Ansible, Gitlab Ci), инструментов для мониторинга (VictoriaMetrics, Prometheus, Grafana) и прочего актуального стека (k8s, Kafka, Zookeeper)

Что предлагаем
- Обучение и развитие: языковые клубы, собственный корпоративный университет, программы развития управленческих навыков
- Благополучие сотрудников: корпоративный пакет ДМС со стоматологией, корпоративный спорт, консультации психолога
- Множество сообществ: клуб спикеров, футбола, йоги, шахмат
- Забота о семьях: гибкий подход, масштабные проекты для детей сотрудников
- Скидки и партнерские программы: на обучение, страхование, покупки
- Комфортная рабочая среда: бесплатное питание в офисе, современные офисы рядом с метро, корпоративная техника и портал для сотрудников

Дополнительная информация
Компания образована в результате слияния IT-компании Wildberries и оператора наружной рекламы Russ. Активное расширение собственной инфраструктуры.

Контакты
- Telegram: @it_sourcer_mari

⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/186

Стек технологий: #clickhouse #linux #ansible #gitlab #victoriametrics #prometheus #grafana #kubernetes #kafka #zookeeper