Middle Data Engineer
Компания: Aplaut
Зарплата: от 180 000 рублей до 250 000 рублей net
Тип занятости: #Удаленка #Гибрид
Локация: #РФ
Позиция: #Middle
Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.
Обязанности
— Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
— Интегрировать данные из REST API, баз данных, файловых хранилищ.
— Разрабатывать и поддерживать кастомные Meltano taps и targets.
— Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
— Автоматизировать обработку данных с использованием Dagster.
— Оптимизировать производительность data pipelines.
— Обеспечивать контроль качества данных, работать с метриками и мониторингом.
Требования
— Опыт работы Data Engineer от 2 лет.
— Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
— Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
— Опыт работы с dbt.
— Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
— Опыт работы с облачными платформами.
— Опыт работы с Dagster (настройка и оркестрация data pipelines).
— Опыт работы с форматами данных (JSON/Parquet/Avro/CSV).
— Уверенные знания Docker.
Что компания предлагает
— Аккредитованная ИТ компания.
— Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
— Гибкий график работы.
— Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
— Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
— Финансирование обучения для сотрудников и профессиональная литература за счет компании.
— Возможность использовать sick day вместо больничного 5 дней в году.
— Лучшая команда, которая всегда придет на помощь.
— Насыщенная корпоративная жизнь.
Контакт для связи: @Evgenika_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/7
Стек технологий: #Python #Meltano #PostgreSQL #Mongodb #Elasticsearch #Dagster #Docker #dbt #Kafka
Компания: Aplaut
Зарплата: от 180 000 рублей до 250 000 рублей net
Тип занятости: #Удаленка #Гибрид
Локация: #РФ
Позиция: #Middle
Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.
Обязанности
— Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
— Интегрировать данные из REST API, баз данных, файловых хранилищ.
— Разрабатывать и поддерживать кастомные Meltano taps и targets.
— Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
— Автоматизировать обработку данных с использованием Dagster.
— Оптимизировать производительность data pipelines.
— Обеспечивать контроль качества данных, работать с метриками и мониторингом.
Требования
— Опыт работы Data Engineer от 2 лет.
— Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
— Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
— Опыт работы с dbt.
— Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
— Опыт работы с облачными платформами.
— Опыт работы с Dagster (настройка и оркестрация data pipelines).
— Опыт работы с форматами данных (JSON/Parquet/Avro/CSV).
— Уверенные знания Docker.
Что компания предлагает
— Аккредитованная ИТ компания.
— Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
— Гибкий график работы.
— Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
— Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
— Финансирование обучения для сотрудников и профессиональная литература за счет компании.
— Возможность использовать sick day вместо больничного 5 дней в году.
— Лучшая команда, которая всегда придет на помощь.
— Насыщенная корпоративная жизнь.
Контакт для связи: @Evgenika_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/7
Стек технологий: #Python #Meltano #PostgreSQL #Mongodb #Elasticsearch #Dagster #Docker #dbt #Kafka
Data Engineer
Компания: EMCD
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Любая
Позиция: #Senior
EMCD разрабатывает экосистему, основанную на одном из 10 крупнейших майнинговых пулов мира. Предоставляет криптоинвесторам надежный майнинг-пул, безопасный кошелек, сбережения до 14% через Coinhold и быстрый P2P-обмен. Более 200,000 пользователей. Сайт: emcd.io
Обязанности
— Проектировать масштабируемые дата-решения с использованием современных технологий.
— Разрабатывать пайплайны для загрузки, обработки и хранения данных.
— Автоматизировать и улучшать внутренние процессы на Google Cloud Platform (GCP).
— Работать с аналитиками и data science для обеспечения доступности и документирования данных.
Требования
— 4+ года опыта в data engineering.
— 3+ года работы с SQL и 2+ года с Python.
— 1+ год работы с GCP или AWS.
— Опыт с Airflow, BigQuery, Snowflake, Redshift или аналогичными инструментами.
— Опыт работы с DBT.
— Знание Kafka или Pub/Sub — будет плюсом.
Что компания предлагает
— Удалённая работа из любой точки мира.
— 28 дней отпуска + 12 бонусных дней.
— 100% оплата больничных.
— 100% оплата корпоративного обучения.
Контакт для связи: @AlesyaPS
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/11
Стек технологий: #SQL #Python #GCP #Airflow #BigQuery #DBT #Kafka
Компания: EMCD
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #Любая
Позиция: #Senior
EMCD разрабатывает экосистему, основанную на одном из 10 крупнейших майнинговых пулов мира. Предоставляет криптоинвесторам надежный майнинг-пул, безопасный кошелек, сбережения до 14% через Coinhold и быстрый P2P-обмен. Более 200,000 пользователей. Сайт: emcd.io
Обязанности
— Проектировать масштабируемые дата-решения с использованием современных технологий.
— Разрабатывать пайплайны для загрузки, обработки и хранения данных.
— Автоматизировать и улучшать внутренние процессы на Google Cloud Platform (GCP).
— Работать с аналитиками и data science для обеспечения доступности и документирования данных.
Требования
— 4+ года опыта в data engineering.
— 3+ года работы с SQL и 2+ года с Python.
— 1+ год работы с GCP или AWS.
— Опыт с Airflow, BigQuery, Snowflake, Redshift или аналогичными инструментами.
— Опыт работы с DBT.
— Знание Kafka или Pub/Sub — будет плюсом.
Что компания предлагает
— Удалённая работа из любой точки мира.
— 28 дней отпуска + 12 бонусных дней.
— 100% оплата больничных.
— 100% оплата корпоративного обучения.
Контакт для связи: @AlesyaPS
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/11
Стек технологий: #SQL #Python #GCP #Airflow #BigQuery #DBT #Kafka
Spark Data Engineer (Senior) / Автор учебных материалов
Компания: Standard Data
Зарплата: 30 000 – 50 000 руб. за тему (лекция + семинар + ДЗ), 10 000 – 20 000 руб. за вебинар
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Senior
Standard Data проектирует и реализует образовательные решения для крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.
Обязанности
— Разработка учебных материалов: лекции, семинары, ДЗ, проекты по Spark (Structured Streaming, Kafka, оптимизации и др.).
— Проведение онлайн-вебинаров (2 раза в неделю по 2 часа).
— Создание тестов и практических заданий.
Требования
— Опыт работы Data Engineer от 5 лет, включая оптимизацию ETL/высоконагруженных приложений.
— Глубокое знание: Scala 3, Spark, Kafka, Hadoop, Oozie, Yarn.
— Опыт с Spark Structured Streaming (трансформации, агрегации, оконные функции).
Будет плюсом:
— DevOps-навыки (Jenkins).
— Знание Spark MLlib.
Что компания предлагает
— Гибкие ставки (зависит от опыта и результатов собеседования).
— Удаленный формат работы.
— Возможность создать качественный образовательный продукт.
Контакт для связи: t.iss.one/KaterinkaGl
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/21
Стек технологий: #Spark #Scala3 #Kafka #Hadoop #Oozie #Yarn #Jenkins #MLib
Компания: Standard Data
Зарплата: 30 000 – 50 000 руб. за тему (лекция + семинар + ДЗ), 10 000 – 20 000 руб. за вебинар
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Senior
Standard Data проектирует и реализует образовательные решения для крупных компаний в сфере ИИ, дата-инжиниринга и веб-разработки.
Обязанности
— Разработка учебных материалов: лекции, семинары, ДЗ, проекты по Spark (Structured Streaming, Kafka, оптимизации и др.).
— Проведение онлайн-вебинаров (2 раза в неделю по 2 часа).
— Создание тестов и практических заданий.
Требования
— Опыт работы Data Engineer от 5 лет, включая оптимизацию ETL/высоконагруженных приложений.
— Глубокое знание: Scala 3, Spark, Kafka, Hadoop, Oozie, Yarn.
— Опыт с Spark Structured Streaming (трансформации, агрегации, оконные функции).
Будет плюсом:
— DevOps-навыки (Jenkins).
— Знание Spark MLlib.
Что компания предлагает
— Гибкие ставки (зависит от опыта и результатов собеседования).
— Удаленный формат работы.
— Возможность создать качественный образовательный продукт.
Контакт для связи: t.iss.one/KaterinkaGl
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/21
Стек технологий: #Spark #Scala3 #Kafka #Hadoop #Oozie #Yarn #Jenkins #MLib
Middle+/ Senior Data Engineer
Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior
Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.
Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.
Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.
Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.
Контакт для связи: @rinapina_ptolemay
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/27
Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
Компания: Ptolemay
Зарплата: $3 000–$4 000
Тип занятости: #Удаленка #fulltime
Локация: #любая
Позиция: #Middle #Senior
Ptolemay - IT аутсорс- и аутстафф-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Middle+/ Senior Data Engineer с уверенным опытом в финтехе и глубокой экспертизой в построении масштабируемых пайплайнов на аутстафф-проект.
Обязанности
— Мигрировать процессы для аналитики и отчетности.
— Настроить регламентную загрузку данных.
— Работать с общебанковской data-платформой (Data Lake, DWH).
— Разрабатывать end-to-end пайплайны для сбора и обработки данных.
— Выбирать оптимальные форматы хранения и архитектуру интеграции.
— Анализировать и оптимизировать производительность пайплайнов.
— Развивать архитектуру данных и внедрять новые технологии.
— Управлять обновлениями и уязвимостями, восстанавливать сервисы, обрабатывать инциденты.
Требования
— 5+ лет опыта в роли Data Engineer (опыт во время учебы не засчитывается).
— Уверенное знание SQL, включая оптимизацию сложных запросов.
— Понимание архитектуры классических и MPP-СУБД.
— Опыт разработки на Python и/или Java, Scala.
— Опыт работы с Apache Airflow.
— Опыт работы с dbt.
— Опыт с Hadoop-стеком: HDFS, YARN, Hive, Sqoop.
— Владение Apache Spark (Spark SQL, DataFrames).
— Опыт работы в финтехе, знание банковской предметной области.
Что компания предлагает
— Удалённая работа.
— Фулл-тайм.
— Гибкий график.
— Аутстафф-система.
— Долгосрочный проект (от 6 месяцев).
— Зарплата: $3 000–$4 000 по итогам собеседования.
Контакт для связи: @rinapina_ptolemay
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/27
Стек технологий: #SQL #Python #Java #Scala #ApacheAirflow #dbt #Hadoop #HDFS #YARN #Hive #Sqoop #ApacheSpark #Kafka #Trino #Kubernetes #Helm
🥴1
Data-инженер (Middle+/Senior)
Компания: debridge.finance
Зарплата: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
Тип занятости: #Удаленка
Локация: #remote
Позиция: #Middle #Senior
Компания debridge.finance ищет опытного Data-инженера для работы с блокчейн-данными и построения масштабируемых ETL-решений.
Обязанности
— Data Pipeline Development: проектирование, разработка и поддержка масштабируемых пайплайнов для обработки больших объемов данных.
— Data Modeling & Warehousing: создание структурированных хранилищ для аналитики и внутренних нужд.
— Blockchain Data Parsing: парсинг и обработка данных из различных блокчейн-сетей (Solana, L1/L2 и др.).
— Query Optimization: оптимизация сложных SQL и NoSQL-запросов.
— API Development: разработка и поддержка API для передачи данных.
— Data Quality Assurance: тестирование и мониторинг целостности данных.
— Incident Resolution: оперативное устранение сбоев в пайплайнах.
Требования
— 3+ года опыта в data-инженерии или backend-разработке.
— Понимание блокчейн-технологий и опыт работы с on-chain данными.
— Профессиональное владение TypeScript.
— Глубокие знания SQL (сложные запросы, оптимизация) и базовый опыт с NoSQL (MongoDB).
— Опыт работы с ETL/ELT и инструментами оркестрации данных.
— Базовые знания аналитики и статистики.
Что компания предлагает
— Удаленную работу с гибким графиком.
— Конкурентную зарплату в зависимости от опыта.
— Работу с современным стеком технологий.
— Возможность участвовать в развитии web3-экосистемы.
Контакт для связи: @zlata_deBridge
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/31
Стек технологий: #TypeScript #SQL #NoSQL #ETL #ClickHouse #PostgreSQL #MongoDB #Kafka
Компания: debridge.finance
Зарплата: $2000 - $5000 (зависит от грейда и локации, опыта в web3 и с typescript)
Тип занятости: #Удаленка
Локация: #remote
Позиция: #Middle #Senior
Компания debridge.finance ищет опытного Data-инженера для работы с блокчейн-данными и построения масштабируемых ETL-решений.
Обязанности
— Data Pipeline Development: проектирование, разработка и поддержка масштабируемых пайплайнов для обработки больших объемов данных.
— Data Modeling & Warehousing: создание структурированных хранилищ для аналитики и внутренних нужд.
— Blockchain Data Parsing: парсинг и обработка данных из различных блокчейн-сетей (Solana, L1/L2 и др.).
— Query Optimization: оптимизация сложных SQL и NoSQL-запросов.
— API Development: разработка и поддержка API для передачи данных.
— Data Quality Assurance: тестирование и мониторинг целостности данных.
— Incident Resolution: оперативное устранение сбоев в пайплайнах.
Требования
— 3+ года опыта в data-инженерии или backend-разработке.
— Понимание блокчейн-технологий и опыт работы с on-chain данными.
— Профессиональное владение TypeScript.
— Глубокие знания SQL (сложные запросы, оптимизация) и базовый опыт с NoSQL (MongoDB).
— Опыт работы с ETL/ELT и инструментами оркестрации данных.
— Базовые знания аналитики и статистики.
Что компания предлагает
— Удаленную работу с гибким графиком.
— Конкурентную зарплату в зависимости от опыта.
— Работу с современным стеком технологий.
— Возможность участвовать в развитии web3-экосистемы.
Контакт для связи: @zlata_deBridge
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/31
Стек технологий: #TypeScript #SQL #NoSQL #ETL #ClickHouse #PostgreSQL #MongoDB #Kafka
Data-engineer
Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh
Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git
Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C
Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2
Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39
Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh
Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git
Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C
Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2
Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39
Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
🥴1
Data Engineer
Компания: Гарда Технологии
Зарплата: по договоренности
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Россия
Позиция: #Senior
Обязанности
— Проектирование схемы, ETL, тестирование хранилищ данных для продуктов компании
— Настройка и оптимизация конвейеров данных (Airflow, Python, SQL, ClickHouse)
— Разработка и внедрение стратегий резервного копирования
— Мониторинг системы оповещения
— Решение проблем в работе конвейеров, обеспечение качества данных
— Моделирование хранилищ данных и процессов обработки данных
Требования
— Навыки работы и тонкой настройки различных баз данных (SQL, ClickHouse)
— Понимание принципов работы Airflow и Kafka
— Понимание процесса непрерывной интеграции CI/CD
Будет плюсом:
— Понимание архитектуры и процесса обработки данных фреймворком Apache Hadoop
— Знание стандартов и best practice в области хранения данных
— Навыки работы с большим пулом различных баз данных (MSSQL, Oracle, PostgreSQL, ClickHouse, MongoDB, Greenplum, Apache Hive, NoSQL, S3 хранилища)
— Работа с системами виртуализации/контейнеризации
Что компания предлагает
— Работу в аккредитованной ИТ-компании
— Ежеквартальное и годовое премирование сотрудников (после испытательного срока)
— ДМС со стоматологией
— Компенсация расходов на спорт, ежемесячная компенсация питания после трех месяцев работы
— Возможность гибридной или удалённой работы, с гибким началом рабочего дня
Контакт для связи: @nadja_chh
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/41
Стек технологий: #Airflow #Python #SQL #ClickHouse #Kafka #CI/CD #Hadoop #MSSQL #Oracle #PostgreSQL #MongoDB #Greenplum #ApacheHive #NoSQL #S3
Компания: Гарда Технологии
Зарплата: по договоренности
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Россия
Позиция: #Senior
Обязанности
— Проектирование схемы, ETL, тестирование хранилищ данных для продуктов компании
— Настройка и оптимизация конвейеров данных (Airflow, Python, SQL, ClickHouse)
— Разработка и внедрение стратегий резервного копирования
— Мониторинг системы оповещения
— Решение проблем в работе конвейеров, обеспечение качества данных
— Моделирование хранилищ данных и процессов обработки данных
Требования
— Навыки работы и тонкой настройки различных баз данных (SQL, ClickHouse)
— Понимание принципов работы Airflow и Kafka
— Понимание процесса непрерывной интеграции CI/CD
Будет плюсом:
— Понимание архитектуры и процесса обработки данных фреймворком Apache Hadoop
— Знание стандартов и best practice в области хранения данных
— Навыки работы с большим пулом различных баз данных (MSSQL, Oracle, PostgreSQL, ClickHouse, MongoDB, Greenplum, Apache Hive, NoSQL, S3 хранилища)
— Работа с системами виртуализации/контейнеризации
Что компания предлагает
— Работу в аккредитованной ИТ-компании
— Ежеквартальное и годовое премирование сотрудников (после испытательного срока)
— ДМС со стоматологией
— Компенсация расходов на спорт, ежемесячная компенсация питания после трех месяцев работы
— Возможность гибридной или удалённой работы, с гибким началом рабочего дня
Контакт для связи: @nadja_chh
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/41
Стек технологий: #Airflow #Python #SQL #ClickHouse #Kafka #CI/CD #Hadoop #MSSQL #Oracle #PostgreSQL #MongoDB #Greenplum #ApacheHive #NoSQL #S3
Инженер (DBA) Cassandra/Kafka
Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior
Компания рассматривает кандидатов только из России.
Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД
Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки
Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/67
Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack
#вакансия #vacancy #удаленно
Компания: Компания, автоматизирующая документооборот, бухгалтерию и отчетность
Зарплата: обсуждается, соцпакет
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Екатеринбург #Санкт-Петербург #Новосибирск #Ижевск #Самара #Ростов-на-Дону #Казань #Иннополис #Пермь
Позиция: #Junior #Middle #Senior
Компания рассматривает кандидатов только из России.
Обязанности
— Предоставление новых кластеров Cassandra/Kafka командам разработки
— Накопление экспертизы, автоматизация знаний по сопровождению и внедрение их на все кластеры этого вида БД
— Анализ производительности кластеров БД и поиск узких мест, оптимизация и тюнинг запросов, конфигурации
— Мониторинг Cassandra/Kafka компонентов его стека и ОС Linux
— Участие в дизайн-ревью, консультирование проектов в выборе оптимальной для поставленной задачи базы данных
— Работа в команде: обмен опытом, совместное владение и управление знаниями, формирование целей развития группы БД
Требования
— Практический опыт DBA от 2х лет
— Опыт проектирования и сопровождения высоконагруженных кластеров Cassandra/Kafka
— Понимание основ работы нереляционных баз данных
— Знания и опыт работы с ОС Linux (CentOS, Ubuntu, AlmaLinux)
— Опыт автоматизации процессов сопровождения (Ansible, Bash, Python и др.)
— Навык конструктивного общения с командами разработки
Что компания предлагает
— Гибкий формат работы (офис, удаленка, гибрид)
— Соцпакет
— Возможность работы в команде экспертов
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/67
Стек технологий: #Ansible #Python #Git #Cassandra #Kafka #JVM #Jmxtrans #Vector #Filebeat #Diamond #Telegraf #Linux #Teamcity #Bash #Graphite #Grafana #Sentry #GitLabCI #ELK #YouTrack
#вакансия #vacancy #удаленно
Архитектор данных (Data Architect)
Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior
Крупная финтех-компания ищет Архитектора данных.
Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.
Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.
Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/70
Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Компания: FinTech
Зарплата: по договоренности
Тип занятости: #Офис #Гибрид
Локация: #Ташкент
Позиция: #Senior
Крупная финтех-компания ищет Архитектора данных.
Обязанности
— Разработка стратегии доменов данных.
— Проектирование шаблонов логических моделей данных для информационных и функциональных областей.
— Создание корпоративных моделей данных с учетом технических и архитектурных ограничений.
— Доработка и актуализация моделей новых сущностей и атрибутов.
— Разработка правил использования данных в информационных системах.
— Проектирование концептуальной архитектуры и архитектуры решений для контура управления данными.
— Разработка методологий и правил использования данных.
— Инициирование предложений по выделению логических слоев данных.
— Контроль целостности и актуальности моделей данных.
— Поддержка актуальной документации и глоссария.
Требования
— Опыт работы архитектором платформы данных от 3-х лет.
— Опыт в разработке логических моделей данных информационной системы.
— Опыт формирования процессов управления данными, контрактов на данные, а также разработки дата-продуктов.
— Понимание принципов формирования UML-диаграмм классов, потоков данных, последовательностей.
— Понимание и опыт формирования ER-диаграмм.
— Знание Sparx Enterprise Architect или аналогичных CASE-средств проектирования.
— Знание методик и подходов проектирования архитектуры хранилищ данных (on-premise и cloud-native).
— Знание принципов архитектурных паттернов работы ML-Ops конвейера.
— Практический опыт построения системы исполнения моделей машинного обучения.
— Знание принципов построения хранилищ данных (Inmon, Kimball, DataVault и т.п.).
— Глубокие знания в области технологий сбора, хранения и обработки данных (Datalake, DWH, Data Lakehouse, Data Streaming).
— Понимание принципов построения интеграционных процессов.
— Опыт работы с: Object Storage S3, Hadoop, Kubernetes, Spark, Impala, Iceberg, Kafka, MS SQL Server, PostgreSQL, Clickhouse.
— Глубокие знания SQL и Python.
Что компания предлагает
— Работу в офисе в Ташкенте или гибридный формат по договоренности.
— Конкурентную заработную плату.
— Постоянное обучение и профессиональный рост.
— Заботу о здоровье: фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
— Яркую корпоративную культуру и кафетерий бенефитов.
Контакт для связи: @spetrushkin
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/70
Стек технологий: #S3 #Hadoop #Kubernetes #Spark #Impala #Iceberg #Kafka #MSSQLServer #PostgreSQL #Clickhouse #SQL #Python
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/76
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$ (по результатам интервью)
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Middle #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse;
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse;
— Опыт работы с высоконагруженными базами данных;
— Понимание архитектур для построения отказоустойчивых кластеров ClickHouse;
— Опыт резервного копирования и восстановления данных;
— Навыки работы с Grafana, Prometheus, OpenSearch;
— Опыт автоматизации (Bash, Python, Ansible);
— Знание Git и процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к задачам, работа с крупным брендом;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставление необходимой техники;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/76
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Data engineer
Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle
Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.
Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).
Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.
Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.
Контакт для связи: @VLT_recruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85
Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle
Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.
Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).
Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.
Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.
Контакт для связи: @VLT_recruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85
Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
❤1
Data-инженер
Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior
Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.
Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами
Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации
Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы
Контакт для связи: @islam14_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/97
Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
Компания: Не указано
Зарплата: от 300 000 до 350 000 ₽
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Алматы
Позиция: #Senior
Мы строим платформу данных нового поколения с нуля. Наши цели: построить надёжную и масштабируемую архитектуру, внедрить лучшие практики работы с данными, развивать современный DataOps-подход.
Обязанности
— Проектирование и создание масштабируемой платформы данных с нуля
— Разработка хранилища данных на базе ClickHouse
— Построение отказоустойчивых ETL/ELT пайплайнов
— Внедрение процессов Data Quality и Data Observability
— Развитие и внедрение DataOps-подходов
— Менторство, код-ревью, развитие команды
— Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами
Требования
— 5+ лет опыта в Data Engineering
— Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация)
— Отличное знание SQL, Python
— Опыт работы с dbt, Kafka, Kafka Connect, Debezium
— Навыки работы с Airflow или аналогами
— Опыт в CI/CD
— Понимание DataOps, проектирования хранилищ данных
— Навыки командной работы и коммуникации
Что компания предлагает
— Гибкий формат: удалёнка или офис в Алматы
— Современный стек и лучшие практики
— Работа с миллионной аудиторией пользователей
— Возможность видеть реальный результат своей работы
Контакт для связи: @islam14_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/97
Стек технологий: #ClickHouse #PostgreSQL #MySQL #Linux #IaC #Ansible #Prometheus #Grafana #Bash #DevOps #Python #Kafka #Airflow #dbt
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций
Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/112
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse
— Управление оборудованием и инфраструктурой
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций
Требования
— Глубокие знания PostgreSQL и ClickHouse
— Опыт работы с высоконагруженными базами данных
— Установка, настройка, администрирование и миграция серверов БД
— Опыт работы с pgbouncer, HAProxy
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse
— Опыт интеграции ClickHouse по обмену данными с Kafka
— Опыт конфигурации настройки кластеров Kafka
— Опыт резервного копирования и восстановления данных
— Проектирование и настройка мониторинга баз данных и инфраструктуры
— Опыт работы с Grafana, Prometheus, OpenSearch
— Опыт работы с системами управления конфигурациями, например Ansible
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач
— Опыт работы с системами контроля версий (например, Git)
— Понимание процессов CI/CD
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка
— Уютный офис в центре Тбилиси
— Гибкий график (начало рабочего дня с 9 до 12)
— Компенсация спорта и медицинских расходов
— Предоставляем необходимую для работы технику
— Помощь в релокации
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/112
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Ведущий разработчик ETL
Компания: Ekleft (финтех)
Зарплата: от 300.000 до 475.000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior #lead #expert
Обязанности
— Проектирование и разработка прикладного программного обеспечения;
— Экспертиза и согласование технических заданий на разработку прикладного программного обеспечения;
— Отладка и тестирование разработанного прикладного программного обеспечения;
— Подготовка технической документации;
— Участие во внедрении прикладного программного обеспечения в промышленную эксплуатацию.
Требования
— Informatica PowerCenter, опыт от 5 лет.
— Знание SQL, Java;
— Опыт работы с СУБД (ORACLE, PostgreSQL, MS SQL Server, Hadoop, MongoDB);
— Приветствуется опыт Kafka, REST, SOAP;
— Приветствуется опыт работы аналитиком;
— Приветствуется теоретическая подготовка в области реляционных баз данных.
Контакт для связи: @AnyaSechkova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/115
Стек технологий: #ETL #InformaticaPowerCenter #SQL #Java #ORACLE #PostgreSQL #MSSQLServer #Hadoop #MongoDB #Kafka #REST #SOAP
Компания: Ekleft (финтех)
Зарплата: от 300.000 до 475.000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: #Senior #lead #expert
Обязанности
— Проектирование и разработка прикладного программного обеспечения;
— Экспертиза и согласование технических заданий на разработку прикладного программного обеспечения;
— Отладка и тестирование разработанного прикладного программного обеспечения;
— Подготовка технической документации;
— Участие во внедрении прикладного программного обеспечения в промышленную эксплуатацию.
Требования
— Informatica PowerCenter, опыт от 5 лет.
— Знание SQL, Java;
— Опыт работы с СУБД (ORACLE, PostgreSQL, MS SQL Server, Hadoop, MongoDB);
— Приветствуется опыт Kafka, REST, SOAP;
— Приветствуется опыт работы аналитиком;
— Приветствуется теоретическая подготовка в области реляционных баз данных.
Контакт для связи: @AnyaSechkova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/115
Стек технологий: #ETL #InformaticaPowerCenter #SQL #Java #ORACLE #PostgreSQL #MSSQLServer #Hadoop #MongoDB #Kafka #REST #SOAP
Архитектор DWH
Компания: —
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior
Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области
Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126
Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Компания: —
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior
Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области
Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126
Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Database Administrator
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/128
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Компания: Quantum Brains
Зарплата: от 3000$ до 6000$
Тип занятости: #Офис #Гибрид
Локация: #Тбилиси
Позиция: #Senior
Quantum Brains — финтех-команда, где Data Science, ML и глубокий анализ работают вместе для создания реального бизнеса.
Обязанности
— Администрирование и оптимизация PostgreSQL, ClickHouse: управление производительностью серверов и настройка параметров для обеспечения стабильной работы; мониторинг, поддержка и оптимизация механизмов бэкапирования, проверки целостности данных; обеспечение стабильно работы под высокой нагрузкой; настройка мониторингов и алертинга.
— Управление оборудованием и инфраструктурой;
— Взаимодействие с продуктовой и инженерной командами по вопросам проектирования и оптимизации структур данных, выявления инцидентов и их оперативного устранения;
— Автоматизация развертываний, резервного копирования, переноса данных и других рутинных операций.
Требования
— Глубокие знания PostgreSQL и ClickHouse, включая: опыт работы с высоконагруженными базами данных; установка, настройка, администрирование и миграция серверов БД; опыт работы с pgbouncer, HAProxy; оптимизация производительности и конфигурации для высоконагруженных сред; настройка аутентификации и авторизации.
— Понимание различных подходов, архитектур и решений для построения отказоустойчивых и высокопроизводительных кластеров ClickHouse: опыт интеграции ClickHouse по обмену данными с Kafka; опыт конфигурации настройки кластеров Kafka.
— Опыт резервного копирования и восстановления данных;
— Проектирование и настройка мониторинга баз данных и инфраструктуры: опыт работы с Grafana, Prometheus, OpenSearch;
— Опыт работы с системами управления конфигурациями, например Ansible;
— Написание скриптов (Bash, Python или других языков) для автоматизации рутинных задач;
— Опыт работы с системами контроля версий (например, Git): понимание процессов CI/CD.
Что компания предлагает
— Индивидуальный подход к области ответственности и пулу задач, работа с крупным брендом рынка;
— Уютный офис в центре Тбилиси;
— Гибкий график (начало рабочего дня с 9 до 12);
— Компенсация спорта и медицинских расходов;
— Предоставляем необходимую для работу технику;
— Помощь в релокации.
Контакт для связи: @kpulikova
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/128
Стек технологий: #ClickHouse #PostgreSQL #Kafka #Grafana #Prometheus #OpenSearch #Ansible #Python #Bash #Git #pgbouncer #HAProxy
Senior Database Administrator
Компания: Brainsome
Зарплата: —
Тип занятости: #Офис
Локация: #Limassol
Позиция: #Senior
We are Brainsome, one of top-tier and trendsetting leaders in online customer acquisition, is a trailblazer in digital solutions, exclusively focusing on the US market with cutting-edge technologies and data-driven strategies. We cultivate a dynamic, creative work environment, empowering our team to be at the forefront of global market innovation.
Обязанности
— Database administration, optimization, and ensuring high availability of MySQL, PostgreSQL, and ClickHouse in production
— Monitor database health, performance, and replication; design and implement disaster recovery strategies.
— Collaborate with development and data warehouse teams to align database architecture with application and analytics needs
— Ensure database security, access control, and compliance with data protection policies
— Automate critical operational tasks such as backups, restores, and performance checks.
Требования
— Solid experience with relational databases (PostgreSQL, MySQL), including tuning, replication, clustering, and backups
— Strong expertise in operating ClickHouse in production environments
— Familiarity with Debezium and Kafka for data streaming, CDC (Change Data Capture) is a plus
— Experience with cloud platforms (preferably GCP) for scalable deployments
— Understanding of load balancing and connection pooling (HAProxy, PgBouncer)
— Familiarity with security best practices and disaster recovery approaches
— Experience in a DevOps role would be a strong plus.
— Russian B2+
Что компания предлагает
— Top rate pay
— Medical insurance
— Sports compensation
— Language classes compensation
— Cozy office in the center of Limassol
— Free lunches and snacks at the office
— Flexible working hours
— Senior-level team
— Team buildings and parties
Контакт для связи: @Svetlana_Kirichenko_ITRecruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/141
Стек технологий: #MySQL #PostgreSQL #ClickHouse #Debezium #Kafka #GCP #HAProxy #PgBouncer
Компания: Brainsome
Зарплата: —
Тип занятости: #Офис
Локация: #Limassol
Позиция: #Senior
We are Brainsome, one of top-tier and trendsetting leaders in online customer acquisition, is a trailblazer in digital solutions, exclusively focusing on the US market with cutting-edge technologies and data-driven strategies. We cultivate a dynamic, creative work environment, empowering our team to be at the forefront of global market innovation.
Обязанности
— Database administration, optimization, and ensuring high availability of MySQL, PostgreSQL, and ClickHouse in production
— Monitor database health, performance, and replication; design and implement disaster recovery strategies.
— Collaborate with development and data warehouse teams to align database architecture with application and analytics needs
— Ensure database security, access control, and compliance with data protection policies
— Automate critical operational tasks such as backups, restores, and performance checks.
Требования
— Solid experience with relational databases (PostgreSQL, MySQL), including tuning, replication, clustering, and backups
— Strong expertise in operating ClickHouse in production environments
— Familiarity with Debezium and Kafka for data streaming, CDC (Change Data Capture) is a plus
— Experience with cloud platforms (preferably GCP) for scalable deployments
— Understanding of load balancing and connection pooling (HAProxy, PgBouncer)
— Familiarity with security best practices and disaster recovery approaches
— Experience in a DevOps role would be a strong plus.
— Russian B2+
Что компания предлагает
— Top rate pay
— Medical insurance
— Sports compensation
— Language classes compensation
— Cozy office in the center of Limassol
— Free lunches and snacks at the office
— Flexible working hours
— Senior-level team
— Team buildings and parties
Контакт для связи: @Svetlana_Kirichenko_ITRecruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/141
Стек технологий: #MySQL #PostgreSQL #ClickHouse #Debezium #Kafka #GCP #HAProxy #PgBouncer
Разработчик корпоративного хранилища данных (КХД)
Компания: Абсолют
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #remote
Зарплата: до 285 000 RUB
Вакансия разработчика корпоративного хранилища данных с опытом от 1 года, работа с SQL, T-SQL, построение ETL процессов, создание витрин данных и проектирование архитектурных решений
Обязанности
- Разработка на SQL, T-SQL
- Построение ETL для корпоративного хранилища данных
- Создание витрин данных
- Анализ технических заданий
- Архитектура и проектирование решений для КХД
Требования
- Опыт проектирования КХД (от 1 года)
- Знание T-SQL
- Оптимизация SQL
- Знание GIT
- Опыт с MS SQL Server Management Studio, MS Visual Studio
- Умение разбираться в чужом коде
- Командная работа (Jira, Confluence - базовый уровень)
- Понимание работы с индексами под OLAP
- Ответственность за код: аккуратное оформление, версионирование
Будет плюсом
- Знание концепции CDC, опыт/понимание Kafka и Debezium
- Знакомство с колоночными СУБД (Clickhouse, Starrocks)
- Знакомство с modern data stack (dbt core, dagster, postgres/greenplum, cube.js, superset)
- Желание изучать новые технологии
- Колоночные индексы и партиционирование (SQL Server 2019/2022)
Дополнительная информация
Код вакансии: BD-10287, Оплата: 50 календарных дней, Только гражданство РФ
Контакты
- Telegram: @hrwomenpro
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/158
Стек технологий: #sql #t-sql #etl #git #ms-sql-server #visual-studio #jira #confluence #olap #cdc #kafka #debezium #clickhouse #starrocks #dbt #dagster #postgres #greenplum #cube-js #superset
Компания: Абсолют
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #remote
Зарплата: до 285 000 RUB
Вакансия разработчика корпоративного хранилища данных с опытом от 1 года, работа с SQL, T-SQL, построение ETL процессов, создание витрин данных и проектирование архитектурных решений
Обязанности
- Разработка на SQL, T-SQL
- Построение ETL для корпоративного хранилища данных
- Создание витрин данных
- Анализ технических заданий
- Архитектура и проектирование решений для КХД
Требования
- Опыт проектирования КХД (от 1 года)
- Знание T-SQL
- Оптимизация SQL
- Знание GIT
- Опыт с MS SQL Server Management Studio, MS Visual Studio
- Умение разбираться в чужом коде
- Командная работа (Jira, Confluence - базовый уровень)
- Понимание работы с индексами под OLAP
- Ответственность за код: аккуратное оформление, версионирование
Будет плюсом
- Знание концепции CDC, опыт/понимание Kafka и Debezium
- Знакомство с колоночными СУБД (Clickhouse, Starrocks)
- Знакомство с modern data stack (dbt core, dagster, postgres/greenplum, cube.js, superset)
- Желание изучать новые технологии
- Колоночные индексы и партиционирование (SQL Server 2019/2022)
Дополнительная информация
Код вакансии: BD-10287, Оплата: 50 календарных дней, Только гражданство РФ
Контакты
- Telegram: @hrwomenpro
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/158
Стек технологий: #sql #t-sql #etl #git #ms-sql-server #visual-studio #jira #confluence #olap #cdc #kafka #debezium #clickhouse #starrocks #dbt #dagster #postgres #greenplum #cube-js #superset
DBA Clickhouse
Компания: Wildberries и Russ
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #office
Вакансия DBA Clickhouse в международной технологической компании, образованной в результате слияния Wildberries и Russ. Компания активно расширяет собственную инфраструктуру и ищет опытного специалиста для обслуживания кластеров ClickHouse.
Обязанности
- деплой новых кластеров
- обновление
- мониторинг
- переконфигурация
- управление учётными данными пользователей
- развитие внутренних инструментов для обслуживания кластеров
- интеграция новой функциональности
- помощь при отладке проблем и оптимизации производительности
- консультация пользователей
Требования
- релевантный опыт работы по обслуживанию кластеров ClickHouse: установка, настройка, поиск и устранение проблем
- глубокое знание gnu/linux, сетей, инструментов автоматизации (Ansible, Gitlab Ci), инструментов для мониторинга (VictoriaMetrics, Prometheus, Grafana) и прочего актуального стека (k8s, Kafka, Zookeeper)
Что предлагаем
- Обучение и развитие: языковые клубы, собственный корпоративный университет, программы развития управленческих навыков
- Благополучие сотрудников: корпоративный пакет ДМС со стоматологией, корпоративный спорт, консультации психолога
- Множество сообществ: клуб спикеров, футбола, йоги, шахмат
- Забота о семьях: гибкий подход, масштабные проекты для детей сотрудников
- Скидки и партнерские программы: на обучение, страхование, покупки
- Комфортная рабочая среда: бесплатное питание в офисе, современные офисы рядом с метро, корпоративная техника и портал для сотрудников
Дополнительная информация
Компания образована в результате слияния IT-компании Wildberries и оператора наружной рекламы Russ. Активное расширение собственной инфраструктуры.
Контакты
- Telegram: @it_sourcer_mari
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/186
Стек технологий: #clickhouse #linux #ansible #gitlab #victoriametrics #prometheus #grafana #kubernetes #kafka #zookeeper
Компания: Wildberries и Russ
Тип занятости: #full_time
Уровень: #middle #senior
Страна: #RU
Локация: #office
Вакансия DBA Clickhouse в международной технологической компании, образованной в результате слияния Wildberries и Russ. Компания активно расширяет собственную инфраструктуру и ищет опытного специалиста для обслуживания кластеров ClickHouse.
Обязанности
- деплой новых кластеров
- обновление
- мониторинг
- переконфигурация
- управление учётными данными пользователей
- развитие внутренних инструментов для обслуживания кластеров
- интеграция новой функциональности
- помощь при отладке проблем и оптимизации производительности
- консультация пользователей
Требования
- релевантный опыт работы по обслуживанию кластеров ClickHouse: установка, настройка, поиск и устранение проблем
- глубокое знание gnu/linux, сетей, инструментов автоматизации (Ansible, Gitlab Ci), инструментов для мониторинга (VictoriaMetrics, Prometheus, Grafana) и прочего актуального стека (k8s, Kafka, Zookeeper)
Что предлагаем
- Обучение и развитие: языковые клубы, собственный корпоративный университет, программы развития управленческих навыков
- Благополучие сотрудников: корпоративный пакет ДМС со стоматологией, корпоративный спорт, консультации психолога
- Множество сообществ: клуб спикеров, футбола, йоги, шахмат
- Забота о семьях: гибкий подход, масштабные проекты для детей сотрудников
- Скидки и партнерские программы: на обучение, страхование, покупки
- Комфортная рабочая среда: бесплатное питание в офисе, современные офисы рядом с метро, корпоративная техника и портал для сотрудников
Дополнительная информация
Компания образована в результате слияния IT-компании Wildberries и оператора наружной рекламы Russ. Активное расширение собственной инфраструктуры.
Контакты
- Telegram: @it_sourcer_mari
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/186
Стек технологий: #clickhouse #linux #ansible #gitlab #victoriametrics #prometheus #grafana #kubernetes #kafka #zookeeper