Middle Data Engineer
Компания: Aplaut
Зарплата: от 180 000 рублей до 250 000 рублей net
Тип занятости: #Удаленка #Гибрид
Локация: #РФ
Позиция: #Middle
Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.
Обязанности
— Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
— Интегрировать данные из REST API, баз данных, файловых хранилищ.
— Разрабатывать и поддерживать кастомные Meltano taps и targets.
— Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
— Автоматизировать обработку данных с использованием Dagster.
— Оптимизировать производительность data pipelines.
— Обеспечивать контроль качества данных, работать с метриками и мониторингом.
Требования
— Опыт работы Data Engineer от 2 лет.
— Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
— Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
— Опыт работы с dbt.
— Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
— Опыт работы с облачными платформами.
— Опыт работы с Dagster (настройка и оркестрация data pipelines).
— Опыт работы с форматами данных (JSON/Parquet/Avro/CSV).
— Уверенные знания Docker.
Что компания предлагает
— Аккредитованная ИТ компания.
— Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
— Гибкий график работы.
— Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
— Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
— Финансирование обучения для сотрудников и профессиональная литература за счет компании.
— Возможность использовать sick day вместо больничного 5 дней в году.
— Лучшая команда, которая всегда придет на помощь.
— Насыщенная корпоративная жизнь.
Контакт для связи: @Evgenika_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/7
Стек технологий: #Python #Meltano #PostgreSQL #Mongodb #Elasticsearch #Dagster #Docker #dbt #Kafka
Компания: Aplaut
Зарплата: от 180 000 рублей до 250 000 рублей net
Тип занятости: #Удаленка #Гибрид
Локация: #РФ
Позиция: #Middle
Привет! :) Меня зовут Евгения и я HR бизнес-партнер в компании Aplaut. Мы - продуктовая MarTech компания для eCommerce, лидер на Российском рынке среди сервисов по управлению UGC. Наши клиенты входят в топ-100 отечественного eCommerce: Спортмастер, Лемана Про (Леруа Мерлен), Эльдорадо, Ситилинк и т.д.
Обязанности
— Разрабатывать, оптимизировать и поддерживать ETL/ELT-процессы на базе Meltano.
— Интегрировать данные из REST API, баз данных, файловых хранилищ.
— Разрабатывать и поддерживать кастомные Meltano taps и targets.
— Работать с PostgreSQL, Mongodb, Elasticsearch и другими хранилищами.
— Автоматизировать обработку данных с использованием Dagster.
— Оптимизировать производительность data pipelines.
— Обеспечивать контроль качества данных, работать с метриками и мониторингом.
Требования
— Опыт работы Data Engineer от 2 лет.
— Уверенные знания Python и его экосистемы для работы с данными (pandas, SQLAlchemy, requests).
— Опыт работы с Meltano (настройка, разработка кастомных taps/targets, интеграция).
— Опыт работы с dbt.
— Знание SQL и реляционных баз данных (PostgreSQL, MySQL).
— Опыт работы с облачными платформами.
— Опыт работы с Dagster (настройка и оркестрация data pipelines).
— Опыт работы с форматами данных (JSON/Parquet/Avro/CSV).
— Уверенные знания Docker.
Что компания предлагает
— Аккредитованная ИТ компания.
— Официальное оформление по ТК с первого дня, есть возможность оформления как самозанятый.
— Гибкий график работы.
— Удаленный формат работы для сотрудников из регионов и гибрид для сотрудников из Москвы.
— Уютный лофт-офис в 5 минутах пешком от метро Электрозаводская.
— Финансирование обучения для сотрудников и профессиональная литература за счет компании.
— Возможность использовать sick day вместо больничного 5 дней в году.
— Лучшая команда, которая всегда придет на помощь.
— Насыщенная корпоративная жизнь.
Контакт для связи: @Evgenika_hr
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/7
Стек технологий: #Python #Meltano #PostgreSQL #Mongodb #Elasticsearch #Dagster #Docker #dbt #Kafka
Data Engineer
Компания: Selectel
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #СанктПетербург #Москва
Позиция: #Middle
Мы — продуктовая IT-компания, предоставляем клиентам инфраструктурные решения: свое облако, платформенные сервисы в облаке, а также выделенные серверы — у нас 6 собственных дата-центров.
Обязанности
— Взаимодействие с владельцами данных по вопросам сбора и качества данных, проведение системного анализа источников
— Разработка и поддержка пайплайнов загрузки данных на Python с использованием DAG’ов Airflow
— Разработка dbt-моделей по ключевым бизнес-процессам по схеме «звезда», создание витрин данных
— Автоматизация процессов, настройка CI/CD пайплайнов, мониторинга и алёртинга
— Участие в развитии процессов Data Quality, Data Catalog и Data Lineage, а также инфраструктуры платформы данных
— Взаимодействие с BI разработчиками и аналитиками
Требования
— Опыт работы с реляционными (PostgreSQL) и аналитическими (ClickHouse) базами данных
— Опыт разработки на Python, особенно в сфере написания ELT пайплайнов и разработки DAG’ов Airflow
— Уверенное знание SQL и опыт оптимизации запросов
— Понимание принципов построения DWH
— Базовые знания Linux, Docker, Git, CI/CD
Что компания предлагает
— Гибкий график работы
— Развитие профессиональных навыков
— Работа в стабильной продуктовой компании с собственной инфраструктурой
Контакт для связи: @apolinque
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/15
Стек технологий: #Python #Airflow #PostgreSQL #ClickHouse #SQL #DWH #Linux #Docker #Git #CICD
Компания: Selectel
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #СанктПетербург #Москва
Позиция: #Middle
Мы — продуктовая IT-компания, предоставляем клиентам инфраструктурные решения: свое облако, платформенные сервисы в облаке, а также выделенные серверы — у нас 6 собственных дата-центров.
Обязанности
— Взаимодействие с владельцами данных по вопросам сбора и качества данных, проведение системного анализа источников
— Разработка и поддержка пайплайнов загрузки данных на Python с использованием DAG’ов Airflow
— Разработка dbt-моделей по ключевым бизнес-процессам по схеме «звезда», создание витрин данных
— Автоматизация процессов, настройка CI/CD пайплайнов, мониторинга и алёртинга
— Участие в развитии процессов Data Quality, Data Catalog и Data Lineage, а также инфраструктуры платформы данных
— Взаимодействие с BI разработчиками и аналитиками
Требования
— Опыт работы с реляционными (PostgreSQL) и аналитическими (ClickHouse) базами данных
— Опыт разработки на Python, особенно в сфере написания ELT пайплайнов и разработки DAG’ов Airflow
— Уверенное знание SQL и опыт оптимизации запросов
— Понимание принципов построения DWH
— Базовые знания Linux, Docker, Git, CI/CD
Что компания предлагает
— Гибкий график работы
— Развитие профессиональных навыков
— Работа в стабильной продуктовой компании с собственной инфраструктурой
Контакт для связи: @apolinque
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/15
Стек технологий: #Python #Airflow #PostgreSQL #ClickHouse #SQL #DWH #Linux #Docker #Git #CICD
Senior Data Engineer (аналитик данных)
Компания: todai
Зарплата: 300-500k GROSS
Тип занятости: #Удаленка
Локация: #Senior
Позиция: #Senior
Компания todai ищет опытного Senior Data Engineer для работы с современными хранилищами данных и построения аналитических решений.
Обязанности
— Проектирование и построение хранилищ
— Разработка и развитие витрин данных
— Оптимизация хранения и обработки данных (индексы, партиционирование, производительность запросов)
— Проектирование и поддержка ETL/ELT пайплайнов
— Работа с Airflow для оркестрации пайплайнов
— Написание кастомных обработок данных на Python
— Обеспечение качества данных: тестирование, мониторинг, алертинг
— Поддержка и развитие текущей дата-инфраструктуры
— Проектирование архитектуры хранения данных под новые потребности бизнеса
Требования
— 4+ лет опыта в роли Data Engineer или аналогичной
— Отличные знания Python (типизация, пайплайны)
— Отличный уровень SQL (сложные запросы, индексы, оптимизация)
— Опыт проектирования и оптимизации баз данных (индексы, партиционирование)
— Опыт построения аналитических витрин данных
— Обязательный опыт работы с Airflow
— Опыт работы с современными хранилищами данных (BigQuery, Snowflake, Redshift, ClickHouse)
— Английский язык на уровне Intermediate+
Что компания предлагает
— Доступ к современным технологиям и большим объемам данных
— Влияние на архитектуру и процессы
— Минимум митингов, максимум дела
— Возможность расти в сторону архитектуры данных или технического лидерства
Контакт для связи: @goshatirov
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/23
Стек технологий: #SQL #Python #ETL #ClickHouse #Docker #BI #НСИ
Компания: todai
Зарплата: 300-500k GROSS
Тип занятости: #Удаленка
Локация: #Senior
Позиция: #Senior
Компания todai ищет опытного Senior Data Engineer для работы с современными хранилищами данных и построения аналитических решений.
Обязанности
— Проектирование и построение хранилищ
— Разработка и развитие витрин данных
— Оптимизация хранения и обработки данных (индексы, партиционирование, производительность запросов)
— Проектирование и поддержка ETL/ELT пайплайнов
— Работа с Airflow для оркестрации пайплайнов
— Написание кастомных обработок данных на Python
— Обеспечение качества данных: тестирование, мониторинг, алертинг
— Поддержка и развитие текущей дата-инфраструктуры
— Проектирование архитектуры хранения данных под новые потребности бизнеса
Требования
— 4+ лет опыта в роли Data Engineer или аналогичной
— Отличные знания Python (типизация, пайплайны)
— Отличный уровень SQL (сложные запросы, индексы, оптимизация)
— Опыт проектирования и оптимизации баз данных (индексы, партиционирование)
— Опыт построения аналитических витрин данных
— Обязательный опыт работы с Airflow
— Опыт работы с современными хранилищами данных (BigQuery, Snowflake, Redshift, ClickHouse)
— Английский язык на уровне Intermediate+
Что компания предлагает
— Доступ к современным технологиям и большим объемам данных
— Влияние на архитектуру и процессы
— Минимум митингов, максимум дела
— Возможность расти в сторону архитектуры данных или технического лидерства
Контакт для связи: @goshatirov
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/23
Стек технологий: #SQL #Python #ETL #ClickHouse #Docker #BI #НСИ
Senior Data Engineer / DWH Architect
Компания: Хантфлоу
Зарплата: 300-400 тыс. руб.
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва
Позиция: #Senior
Хантфлоу — компания в области HRTech, предоставляющая передовые решения для автоматизации рекрутинга. Наш продукт помогает компаниям эффективно закрывать вакансии, сокращая время на поиск и отбор кандидатов.
Обязанности
— Построение архитектуры DWH
— Проектирование и реализация процессов загрузки данных из множества OLTP PostgreSQL-инстансов в DWH
— Разработка и поддержка ETL/ELT пайплайнов
— Интеграция дополнительных источников данных
— Настройка и автоматизация мониторинга
Требования
— Опыт работы DE 3+ года
— Продвинутое владение SQL
— Знание технологий: Python, Git, Docker, Airflow
— Опыт построения ETL/ELT пайплайнов
— Опыт настройки мониторинга
Что компания предлагает
— Рабочий MacBook Pro
— Обучение за счет компании
— Расширенная программа ДМС (после испытательного срока)
— Компенсация интернета или проезда
— 12 дней «без больничного» в год
Контакт для связи: [email protected], @meacca (Telegram)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/37
Стек технологий: #Python #PostgreSQL #Clickhouse #Git #Docker #Airflow #dbt
Компания: Хантфлоу
Зарплата: 300-400 тыс. руб.
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва
Позиция: #Senior
Хантфлоу — компания в области HRTech, предоставляющая передовые решения для автоматизации рекрутинга. Наш продукт помогает компаниям эффективно закрывать вакансии, сокращая время на поиск и отбор кандидатов.
Обязанности
— Построение архитектуры DWH
— Проектирование и реализация процессов загрузки данных из множества OLTP PostgreSQL-инстансов в DWH
— Разработка и поддержка ETL/ELT пайплайнов
— Интеграция дополнительных источников данных
— Настройка и автоматизация мониторинга
Требования
— Опыт работы DE 3+ года
— Продвинутое владение SQL
— Знание технологий: Python, Git, Docker, Airflow
— Опыт построения ETL/ELT пайплайнов
— Опыт настройки мониторинга
Что компания предлагает
— Рабочий MacBook Pro
— Обучение за счет компании
— Расширенная программа ДМС (после испытательного срока)
— Компенсация интернета или проезда
— 12 дней «без больничного» в год
Контакт для связи: [email protected], @meacca (Telegram)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/37
Стек технологий: #Python #PostgreSQL #Clickhouse #Git #Docker #Airflow #dbt
Data-engineer
Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh
Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git
Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C
Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2
Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39
Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
Компания: 7RedLines
Зарплата: 130 000 – 160 000 ₽ на руки
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Обязанности
— Миграция старой логики ХД и разработка нового ХД с целью организации более структурированного хранения данных по слоям
— Миграция логики BI-отчетности
— Внедрение подхода data mesh
Требования
— Опыт разработки в MSSQL Server (обязательно)
— Опыт разработки в Report Designer (обязательно)
— Глубокое знание SQL и опыт работы с реляционными СУБД (MSSQL, PostgreSQL)
— Опыт программирования на T-SQL и PLpgSQL
— Базовые навыки работы в cmd и bash
— Знание Python 3.* и модулей для работы с данными
— Опыт создания потоков данных на Apache Airflow и Kafka
— Понимание подходов к разработке корпоративных хранилищ данных
— Опыт разработки витрин для BI-приложений
— Знание основ безопасности данных (персональные данные, шифрование, доступы)
— Понимание принципов DevOps (CI/CD, Docker, Kubernetes)
— Навыки работы с git
Будет плюсом:
— Знание NoSQL систем
— Опыт с SSIS и SSRS
— Понимание подходов Data Governance и Data Mesh
— Организация хранилищ данных для ML систем
— Опыт в построении real-time и near real-time data-решений
— Работа с BI-системами QlikSense и FineBI
— Опыт интеграции и получения данных из 1C
Что компания предлагает
— Оформление по ТК РФ
— Удаленный формат работы
— График 5/2
Контакт для связи:
Тг: @HR7RedLines
Эл.почта: [email protected]
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/39
Стек технологий: #MSSQL #PostgreSQL #Python #Airflow #Kafka #Docker #Kubernetes #Git #T-SQL #PLpgSQL
🥴1
Data Engineer (Senior)
Компания: Российская сеть розничных магазинов
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #РФ #РБ
Позиция: #Senior
Разработка и поддержка инфраструктуры данных для крупной розничной сети. Проект продолжительностью 3 месяца с возможностью продления.
Обязанности
— Миграция из Managed Service в собственные Kubernetes
— Разработка модулей и скриптов данных для пилота
— Разработка скриптов для повышения качества данных
— Разработка CI/CD конвейеров (1 DevOps/1 DE)
— Разработка модулей для Alluxio (0,5 DevOps)
— I&D. Разработка модулей для поддержки промышленной системы (0,5 DevOps)
— Разработка модулей межсервисного шифрования (0,5 DevOps)
— Разработка общего метахранилища (0,5 DevOps)
— I&D. Разработка мониторинга сервисов и инфраструктуры (0,5 DevOps)
Требования
— Опыт работы с Apache (Spark, Hive, Airflow)
— Знание Yandex Cloud
— Владение Python и SQL
— Опыт работы с Linux и Docker
— Понимание streaming-технологий
Что компания предлагает
— Удаленный формат работы
— Возможность продления проекта
— Участие в масштабных задачах по обработке данных
Контакт для связи: @grosssoft1600, +7 999 689 1600 (Екатерина, IT-recruiter)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/47
Стек технологий: #Apache #Spark #Hive #Airflow #YandexCloud #Python #SQL #Linux #Docker #Streaming
Компания: Российская сеть розничных магазинов
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: #РФ #РБ
Позиция: #Senior
Разработка и поддержка инфраструктуры данных для крупной розничной сети. Проект продолжительностью 3 месяца с возможностью продления.
Обязанности
— Миграция из Managed Service в собственные Kubernetes
— Разработка модулей и скриптов данных для пилота
— Разработка скриптов для повышения качества данных
— Разработка CI/CD конвейеров (1 DevOps/1 DE)
— Разработка модулей для Alluxio (0,5 DevOps)
— I&D. Разработка модулей для поддержки промышленной системы (0,5 DevOps)
— Разработка модулей межсервисного шифрования (0,5 DevOps)
— Разработка общего метахранилища (0,5 DevOps)
— I&D. Разработка мониторинга сервисов и инфраструктуры (0,5 DevOps)
Требования
— Опыт работы с Apache (Spark, Hive, Airflow)
— Знание Yandex Cloud
— Владение Python и SQL
— Опыт работы с Linux и Docker
— Понимание streaming-технологий
Что компания предлагает
— Удаленный формат работы
— Возможность продления проекта
— Участие в масштабных задачах по обработке данных
Контакт для связи: @grosssoft1600, +7 999 689 1600 (Екатерина, IT-recruiter)
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/47
Стек технологий: #Apache #Spark #Hive #Airflow #YandexCloud #Python #SQL #Linux #Docker #Streaming
Data Engineer
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Компания: ГК Рост
Зарплата: по договоренности
Тип занятости: #Гибрид
Локация: #Москва
Позиция: #Middle #Senior
Лидер российского рынка овощей защищенного грунта. Численность сотрудников холдинга – более 12,500 человек.
Обязанности
— Анализ систем источников данных для ETL/ELT процессов (Api, DB, JSON, CSV...)
— Разработка и поддержка ETL/ELT процессов из различных источников (Airflow)
— Сбор, анализ и формализация требований к разрабатываемым решениям (модели данных, витрины данных для аналитики)
— Разработка и поддержка моделей и витрин данных (DBT)
— Обеспечение качества данных (чистота, точность, целостность, полнота)
— Формирование технической документации (ELT/ETL процессы и алгоритмы)
— Улучшение архитектуры данных, внедрение новых технологий обработки и хранения
— Описание объектов данных в дата-каталоге, поддержка актуального состояния
Требования
— Опыт проектирования, разработки и запуска ETL процессов (Airflow)
— Опыт проектирования и разработки баз данных OLTP, OLAP (MS SQL)
— Знание SQL (сложные запросы, оконные функции, оптимизация), Python
— Навыки работы с GitLab, настройка CI/CD пайплайнов
— Понимание работы BI-инструментов (Power BI)
Что компания предлагает
— Официальное оформление в ООО "УК ""РОСТ"
— График работы: 40 часов в неделю (гибридный формат)
— Комфортабельное рабочее место, корпоративная мобильная связь
— Добровольное медицинское страхование
— Конкурентоспособная заработная плата
— Обучение и развитие за счет компании
— Отпуск 28 календарных дней
— Офис: м. Киевская, БЦ "Атлантик"
Контакт для связи: @AlexandraKononenko
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/48
Стек технологий: #MSSQL #SSAS #PowerBI #Airflow #DBT #GitLab #Docker #Linux #SQL #Python
Database Administrator
Компания: 12Go (Travelier Group)
Зарплата: US$4.000-5.000 gross per month
Тип занятости: #Удаленка
Локация: #Удаленная
Позиция: #Middle #Senior
12Go is a leading transportation booking platform in Asia, serving millions of travelers. We build technology that makes travel accessible worldwide.
Обязанности
— Ensure 99.9% uptime for 5+ TB clusters
— Configure HA solutions (Patroni, HAProxy)
— Deep query and schema optimization
— Implement backup/disaster recovery strategies
— Automate processes (Terraform, Ansible)
— Optimize cloud costs (AWS)
— Collaborate with dev teams on DB architecture
Требования
— 3+ years with MariaDB/MySQL in production
— 1+ year with ClickHouse/DynamoDB/OpenSearch
— Expert knowledge of replication and sharding
— Experience setting up monitoring (Prometheus/Grafana)
— Hands-on IaC skills (Terraform/Ansible)
— English Upper-Intermediate+
Что компания предлагает
— 100% remote work with flexible hours
— Annual team retreat in Thailand
— Learning budget
— Modern tech environment
— Career growth opportunities
Контакт для связи: tg @technicalAES
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/57
Стек технологий: #MariaDB #ClickHouse #MongoDB #DynamoDB #OpenSearch #Terraform #Ansible #Docker #Prometheus #Grafana
Компания: 12Go (Travelier Group)
Зарплата: US$4.000-5.000 gross per month
Тип занятости: #Удаленка
Локация: #Удаленная
Позиция: #Middle #Senior
12Go is a leading transportation booking platform in Asia, serving millions of travelers. We build technology that makes travel accessible worldwide.
Обязанности
— Ensure 99.9% uptime for 5+ TB clusters
— Configure HA solutions (Patroni, HAProxy)
— Deep query and schema optimization
— Implement backup/disaster recovery strategies
— Automate processes (Terraform, Ansible)
— Optimize cloud costs (AWS)
— Collaborate with dev teams on DB architecture
Требования
— 3+ years with MariaDB/MySQL in production
— 1+ year with ClickHouse/DynamoDB/OpenSearch
— Expert knowledge of replication and sharding
— Experience setting up monitoring (Prometheus/Grafana)
— Hands-on IaC skills (Terraform/Ansible)
— English Upper-Intermediate+
Что компания предлагает
— 100% remote work with flexible hours
— Annual team retreat in Thailand
— Learning budget
— Modern tech environment
— Career growth opportunities
Контакт для связи: tg @technicalAES
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/57
Стек технологий: #MariaDB #ClickHouse #MongoDB #DynamoDB #OpenSearch #Terraform #Ansible #Docker #Prometheus #Grafana
IT Operations Engineer DBA
Компания: Unipesa
Зарплата: 3000-4000 usd
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Мы компания-разработчик FinTech решений Unipesa, специализируемся на разработке B2B2C для платежных сервисов.
Обязанности
— проектирование компонентов ИТ-инфраструктуры хостов, контейнеров Docker, баз данных и т.д.
— управление базами данных (MySQL)
— администрирование хостов Linux
— внедрение мониторинга и ведения журналов служб (Grafana, Prometheus, Graylog)
— обеспечение бесперебойной работы систем
Требования
— опыт работы на позиции IT-инженера или DevOps от 3-5 лет
— опыт управления базами данных MySQL и анализа производительности
— знание следующих технологий: ОС Linux, базы данных, скриптовые языки, виртуализация, сети, облачные технологии (AWS или Hetzner)
— широкий кругозор в сфере современных технологий и способность быстро осваивать новые технологии
— разработка на одном из скриптовых языков (Powershell, Bash, Python и т. д.)
— опыт работы с технологией контейнеризации (Docker)
Что компания предлагает
— удаленный формат работы
— сервисный договор с иностранной компанией
Контакт для связи: @Liska1008
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/64
Стек технологий: #MySQL #Linux #Docker #Grafana #Prometheus #Graylog #AWS #Hetzner #Bash #Python #Powershell
Компания: Unipesa
Зарплата: 3000-4000 usd
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle
Мы компания-разработчик FinTech решений Unipesa, специализируемся на разработке B2B2C для платежных сервисов.
Обязанности
— проектирование компонентов ИТ-инфраструктуры хостов, контейнеров Docker, баз данных и т.д.
— управление базами данных (MySQL)
— администрирование хостов Linux
— внедрение мониторинга и ведения журналов служб (Grafana, Prometheus, Graylog)
— обеспечение бесперебойной работы систем
Требования
— опыт работы на позиции IT-инженера или DevOps от 3-5 лет
— опыт управления базами данных MySQL и анализа производительности
— знание следующих технологий: ОС Linux, базы данных, скриптовые языки, виртуализация, сети, облачные технологии (AWS или Hetzner)
— широкий кругозор в сфере современных технологий и способность быстро осваивать новые технологии
— разработка на одном из скриптовых языков (Powershell, Bash, Python и т. д.)
— опыт работы с технологией контейнеризации (Docker)
Что компания предлагает
— удаленный формат работы
— сервисный договор с иностранной компанией
Контакт для связи: @Liska1008
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/64
Стек технологий: #MySQL #Linux #Docker #Grafana #Prometheus #Graylog #AWS #Hetzner #Bash #Python #Powershell
Data engineer
Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle
Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.
Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).
Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.
Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.
Контакт для связи: @VLT_recruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85
Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
Компания: Excdev
Зарплата: от 230 до 270 тысяч рублей на руки
Тип занятости: #Удаленка
Локация: #Любой_город
Позиция: #Middle
Возможность работать из любой точки мира. Динамичная работа в команде профессионалов.
Обязанности
— Разработка и поддержка ETL/ELT процессов (Airflow, автоматизация загрузки данных, оптимизация).
— Работа с базами данных (ClickHouse, PostgreSQL): проектирование, оптимизация запросов, настройка репликации.
— Витринизация данных и подготовка аналитики (Tableau, OLAP-структуры).
— Интеграция и работа с API (Kafka/RabbitMQ, стриминговая обработка).
— Автоматизация и DevOps-практики (Docker/Kubernetes, CI/CD, мониторинг).
— Взаимодействие с аналитиками и бизнес-командами (сбор требований, дизайн моделей данных).
— Обеспечение качества и безопасности данных (валидация, ролевая модель, тестирование).
Требования
— Высшее образование в IT, математике или смежных областях.
— Опыт работы с ETL/ELT (Apache Airflow) от 2 лет.
— Уверенные знания SQL, опыт с ClickHouse и PostgreSQL.
— Опыт разработки BI-решений (Tableau).
— Знание API-интеграции и Kafka/RabbitMQ.
— Опыт работы с Docker/Kubernetes и DevOps-практиками.
— Коммуникативные навыки, ответственность, внимание к деталям.
Что компания предлагает
— Удаленный формат работы из любой точки мира.
— Гибкий график (5/2, 10:00–19:00 МСК).
— Работа в профессиональной команде.
Контакт для связи: @VLT_recruiter
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/85
Стек технологий: #Airflow #ClickHouse #PostgreSQL #Tableau #Kafka #RabbitMQ #Docker #Kubernetes #SQL
❤1
Database Administrator
Компания: Innovative People
Зарплата: от 250 000 до 345 000₽
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle #Senior
Разработка сервиса доставки контента на стриминг. Команда эксплуатации, группа DBA (2 чел.), также много взаимодействия с DevOps, мониторингом.
Обязанности
— Обеспечение высокой доступности и масштабируемости баз данных;
— Обновление СУБД;
— Оптимизация производительности БД, troubleshooting для работы в облаке (IaaS/PaaS);
— Подготовка метрик для мониторинга/алертинга для команды мониторинга, реагирование при сложных внештатных ситуациях;
— Подготовка политик резервного копирования, автоматизация восстановления из резервных копий и последующей проверки;
— Следование политикам информационной безопасности для БД.
Требования
— Опыт работы администратором БД от 3-х лет;
— Опыт работы с СУБД PostgreSQL;
— Знания Linux на уровне администратора;
— Навыки автоматизации развертывания, управления, резервного копирования и других задач;
— Навыки настройки репликации (синхронная, асинхронная, каскадная).
Что компания предлагает
— Оформление в аккредитованную IT-компанию по ТК РФ;
— ДМС уже со второй недели: стоматология, вызов врача или скорой, полис для выезда за границу и скидка 15% для подключения родственников;
— Удаленный формат работы;
— Современную технику для комфортной работы;
— Возможность участвовать в профильных конференциях, а также проходить курсы повышения квалификации;
— Клуб разговорного английского - встречаемся 2 раза в неделю с коллегами и преподавателем;
— Классный корпоративный мерч - каждый год добавляем что-то новое;
— Индивидуальные предложения от наших партнеров.
Контакт для связи: @eliz_INP
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/99
Стек технологий: #PostgreSQL #Linux #Ansible #Terraform #Git #Docker #ClickHouse #MongoDB
Компания: Innovative People
Зарплата: от 250 000 до 345 000₽
Тип занятости: #Удаленка
Локация: #Удаленно
Позиция: #Middle #Senior
Разработка сервиса доставки контента на стриминг. Команда эксплуатации, группа DBA (2 чел.), также много взаимодействия с DevOps, мониторингом.
Обязанности
— Обеспечение высокой доступности и масштабируемости баз данных;
— Обновление СУБД;
— Оптимизация производительности БД, troubleshooting для работы в облаке (IaaS/PaaS);
— Подготовка метрик для мониторинга/алертинга для команды мониторинга, реагирование при сложных внештатных ситуациях;
— Подготовка политик резервного копирования, автоматизация восстановления из резервных копий и последующей проверки;
— Следование политикам информационной безопасности для БД.
Требования
— Опыт работы администратором БД от 3-х лет;
— Опыт работы с СУБД PostgreSQL;
— Знания Linux на уровне администратора;
— Навыки автоматизации развертывания, управления, резервного копирования и других задач;
— Навыки настройки репликации (синхронная, асинхронная, каскадная).
Что компания предлагает
— Оформление в аккредитованную IT-компанию по ТК РФ;
— ДМС уже со второй недели: стоматология, вызов врача или скорой, полис для выезда за границу и скидка 15% для подключения родственников;
— Удаленный формат работы;
— Современную технику для комфортной работы;
— Возможность участвовать в профильных конференциях, а также проходить курсы повышения квалификации;
— Клуб разговорного английского - встречаемся 2 раза в неделю с коллегами и преподавателем;
— Классный корпоративный мерч - каждый год добавляем что-то новое;
— Индивидуальные предложения от наших партнеров.
Контакт для связи: @eliz_INP
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/99
Стек технологий: #PostgreSQL #Linux #Ansible #Terraform #Git #Docker #ClickHouse #MongoDB
Архитектор DWH
Компания: —
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior
Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области
Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126
Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Компания: —
Зарплата: обсуждается индивидуально
Тип занятости: #Удаленка #Офис #Гибрид
Локация: #Москва #Питер #Сочи #Екатеринбург #Ростов-на-Дону
Позиция: #Senior
Обязанности
— Построение архитектуры DWH / Data Lake/ LakeHouse для высоконагруженных сервисов и больших хранилищ (500 тб+): ClickHouse (MergeTree), S3 Data Lake, Kafka, Airflow (ETL/ELT), etc
— Выбор форматов хранения: Parquet, ORC, Avro, JSON, таблицы MergeTree, Replicated, ReplacingMergeTree etc
— Участие в проектировании схем витрин под требования BI/DS/etc
— Проектирование слоёв: RAW → STG → ODS → DM → Marts
— Формирование архитектур ETL/ELT процессов с использованием Airflow / Spark
— Организация потоковой передачи данных из прод-сервисов (Kafka)
— Настройка data quality checks и алертинга
— Формирование CI/CD пайплайнов для данных (git + tests + deploy)
— Архитектурный надзор команд, валидация предлагаемых изменений, подготовка рекомендаций со стороны архитектуры
— Документирование решений и применяемых подходов
— Консультирование команд по стандартам, регламентам и архитектурным особенностям
— Участие в формировании, защите и реализации Data-стратегии функциональной области
Требования
— Опыт работы Lead Data Engineer /Архитектор DWH / DataOps от 3х лет
— Знание ClickHouse на уровне архитектора (MergeTree / Replacing / Collapsing)
— Понимание архитектуры DataLake / LakeHouse
— Опыт построения пайплайнов: batch, micro-batch, stream
— Опыт работы с Airflow или аналогами
— Знание SQL уровня проектирования витрин и оптимизации
— Опыт настройки каталога данных: DataHub, OpenMetadata
— Опыт управления метаданными, версионированием схем
— Опыт с облачной инфраструктурой
— Хорошие знания *nix
— Знание технологий: Docker, Kubernetes
Контакт для связи: @fr_rec
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/126
Стек технологий: #ClickHouse #S3 #DataLake #Kafka #Airflow #Spark #Parquet #ORC #Avro #JSON #Docker #Kubernetes #DataHub #OpenMetadata #Git
Системный/бизнес аналитик
Компания: Else (ITFactory)
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: —
Позиция: #Senior
Else (ITFactory) ищет грамотного системного/бизнес аналитика. Мы - аккредитованная IT-компания с 8-летним опытом в разработке веб и мобильных решений. Наши клиенты - топы рынка: ВГТРК, Мегафон, Газпром, ELIS, Якитория, Победа вкуса и многие другие.
Обязанности
— сбор, анализ и формализация бизнес-требований, проведение интервью с заказчиками
— выстраивание коммуникации с заказчиком по задачам
— составление проектной, технической, пользовательской документации
— разработка функционально-технических требований: Use Case, User Story, ТЗ
— участие в планировании спринтов в процессах гибкой разработки, в оценке трудоемкости задач
— описание бизнес-процессов
— участие в качестве тех .эксперта в pre-sale и предпроектных исследованиях
Требования
— знание методологий системного анализа, понимание моделей и процессов разработки
— умение структурировать информацию и аргументировать свою точку зрения
— умение грамотно формулировать бизнес-требования
— знание нотаций моделирования (например UML, BPMN, EPC, ER)
— знание технологического стека: GoogleDocs, SQL
— анализ документации API
— умение описывать структуры запросов и ответов посредством XSD и JSON-схем
— опыт в создании высоконагруженных порталов (маркет-плейсы, интернет-магазины, мобильные приложения, интранет-сервисы)
— умение работать с трекинговыми системами (Jira, Confluence)
— опыт интеграции с различными сервисами
Что компания предлагает
— Участие в проектах разной направленности
— Дружный коллектив с атмосферой взаимопомощи
— Конкурентную оплату труда, обсуждаем при встрече
— Гибкий рабочий график, удаленная работа
Контакт для связи: @arina_else
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/127
Стек технологий: #GoogleDocs #SQL #Jira #Confluence #Docker #UML #BPMN #EPC #ER #XSD #JSON
Компания: Else (ITFactory)
Зарплата: по договоренности
Тип занятости: #Удаленка
Локация: —
Позиция: #Senior
Else (ITFactory) ищет грамотного системного/бизнес аналитика. Мы - аккредитованная IT-компания с 8-летним опытом в разработке веб и мобильных решений. Наши клиенты - топы рынка: ВГТРК, Мегафон, Газпром, ELIS, Якитория, Победа вкуса и многие другие.
Обязанности
— сбор, анализ и формализация бизнес-требований, проведение интервью с заказчиками
— выстраивание коммуникации с заказчиком по задачам
— составление проектной, технической, пользовательской документации
— разработка функционально-технических требований: Use Case, User Story, ТЗ
— участие в планировании спринтов в процессах гибкой разработки, в оценке трудоемкости задач
— описание бизнес-процессов
— участие в качестве тех .эксперта в pre-sale и предпроектных исследованиях
Требования
— знание методологий системного анализа, понимание моделей и процессов разработки
— умение структурировать информацию и аргументировать свою точку зрения
— умение грамотно формулировать бизнес-требования
— знание нотаций моделирования (например UML, BPMN, EPC, ER)
— знание технологического стека: GoogleDocs, SQL
— анализ документации API
— умение описывать структуры запросов и ответов посредством XSD и JSON-схем
— опыт в создании высоконагруженных порталов (маркет-плейсы, интернет-магазины, мобильные приложения, интранет-сервисы)
— умение работать с трекинговыми системами (Jira, Confluence)
— опыт интеграции с различными сервисами
Что компания предлагает
— Участие в проектах разной направленности
— Дружный коллектив с атмосферой взаимопомощи
— Конкурентную оплату труда, обсуждаем при встрече
— Гибкий рабочий график, удаленная работа
Контакт для связи: @arina_else
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/127
Стек технологий: #GoogleDocs #SQL #Jira #Confluence #Docker #UML #BPMN #EPC #ER #XSD #JSON
PostgreSQL Developer
Компания: AIT.LAB
Зарплата: 250 000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: —
AIT.LAB — это не просто работодатель, а сообщество более 500 технологических специалистов, где комфорт, развитие и стабильность становятся частью повседневной работы. Мы — резиденты «Сколково», сотрудничаем с 30+ крупными компаниями в финтехе и инвестициях и предлагаем проекты, которые соответствуют вашему стеку, интересам и ритму жизни.
Обязанности
— Разработка и внедрение сервиса расчётов.
Требования
— Опыт PostgreSQL разработки: 5+ лет. Работа с legacy-системами (100k+ строк кода).
— Анализ чужого кода: разбор сложного, неструктурированного кода, выявление узких мест, рефакторинг без нарушения функционала.
— Unit-тестирование: продвинутые навыки, pgTAP (обязательно), Piggly (или аналоги).
— PostgreSQL: PL/pgSQL, индексация, партиционирование, триггеры, оптимизация запросов.
— GitLab: ветвление, merge, CI/CD.
— Docker: контейнеризация, docker-compose.
— Оптимизация SQL для больших объёмов данных.
— Интеграция тестов в CI/CD GitLab.
— Знание клиринговых систем (желательно).
— Работа в сжатые сроки: планирование, приоритизация.
Что компания предлагает
—
Контакт для связи: @vbrester
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/139
Стек технологий: #PostgreSQL #PL/pgSQL #GitLab #Docker #pgTAP #Piggly
Компания: AIT.LAB
Зарплата: 250 000 на руки
Тип занятости: #Удаленка
Локация: #РФ
Позиция: —
AIT.LAB — это не просто работодатель, а сообщество более 500 технологических специалистов, где комфорт, развитие и стабильность становятся частью повседневной работы. Мы — резиденты «Сколково», сотрудничаем с 30+ крупными компаниями в финтехе и инвестициях и предлагаем проекты, которые соответствуют вашему стеку, интересам и ритму жизни.
Обязанности
— Разработка и внедрение сервиса расчётов.
Требования
— Опыт PostgreSQL разработки: 5+ лет. Работа с legacy-системами (100k+ строк кода).
— Анализ чужого кода: разбор сложного, неструктурированного кода, выявление узких мест, рефакторинг без нарушения функционала.
— Unit-тестирование: продвинутые навыки, pgTAP (обязательно), Piggly (или аналоги).
— PostgreSQL: PL/pgSQL, индексация, партиционирование, триггеры, оптимизация запросов.
— GitLab: ветвление, merge, CI/CD.
— Docker: контейнеризация, docker-compose.
— Оптимизация SQL для больших объёмов данных.
— Интеграция тестов в CI/CD GitLab.
— Знание клиринговых систем (желательно).
— Работа в сжатые сроки: планирование, приоритизация.
Что компания предлагает
—
Контакт для связи: @vbrester
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/139
Стек технологий: #PostgreSQL #PL/pgSQL #GitLab #Docker #pgTAP #Piggly
❤1
DBA / Администратор баз данных
Компания: fabrique
Тип занятости: #full_time
Уровень: #middle #middle+
Страна: #RU
Локация: #office #hybrid #remote
Мы автоматизируем бизнес-процессы крупных заказчиков, создавая удобные и выверенные сервисы. В работе множество сложных, в том числе высоконагруженных, проектов, широкий спектр интересных задач.
Обязанности
- Конвертация типов и ограничений, переписывание триггеров/процедур на PL/pgSQL
- Замена Oracle-специфичных запросов в сервисах (вставки через DUAL, SEQ.nextval, delete-синтаксис без FROM, иерархические запросы)
- Производительность и диагностика: профайлинг запросов, построение индексов, работа с большими таблицами
- Администрирование и проектирование БД
Требования
- 3+ года опыта в администрировании и проектировании БД в продакшене
- Опыт работы с Oracle (12c/19c): PL/SQL, последовательности, триггеры, планы выполнения, индексация
- Глубокая экспертиза PostgreSQL: архитектура/конфиг, PL/pgSQL, транзакции/изоляции, индексация, статистика, autovacuum, репликация
- Практический опыт миграций Oracle → PostgreSQL
- Опыт работы с ora2pg, Data Pump/SQLLoader, опыт построения повторяемых миграций
- Опыт zero-downtime миграций, logical replication, cutover с минимальным простоем
- Linux, bash, бэкапы/восстановление
Будет плюсом
- Опыт в CI/CD, Docker, Testcontainers для интеграционных тестов БД
- Мониторинг/обсервабилити (Prometheus/Grafana, pganalyze и т.п.)
Дополнительная информация
Студия автоматизации бизнес-процессов для крупных заказчиков, работа с высоконагруженными проектами
Контакты
- Telegram: @shakhzodra
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/192
Стек технологий: #oracle #postgresql #plsql #plpgsql #ora2pg #linux #bash #docker #prometheus #grafana
Компания: fabrique
Тип занятости: #full_time
Уровень: #middle #middle+
Страна: #RU
Локация: #office #hybrid #remote
Мы автоматизируем бизнес-процессы крупных заказчиков, создавая удобные и выверенные сервисы. В работе множество сложных, в том числе высоконагруженных, проектов, широкий спектр интересных задач.
Обязанности
- Конвертация типов и ограничений, переписывание триггеров/процедур на PL/pgSQL
- Замена Oracle-специфичных запросов в сервисах (вставки через DUAL, SEQ.nextval, delete-синтаксис без FROM, иерархические запросы)
- Производительность и диагностика: профайлинг запросов, построение индексов, работа с большими таблицами
- Администрирование и проектирование БД
Требования
- 3+ года опыта в администрировании и проектировании БД в продакшене
- Опыт работы с Oracle (12c/19c): PL/SQL, последовательности, триггеры, планы выполнения, индексация
- Глубокая экспертиза PostgreSQL: архитектура/конфиг, PL/pgSQL, транзакции/изоляции, индексация, статистика, autovacuum, репликация
- Практический опыт миграций Oracle → PostgreSQL
- Опыт работы с ora2pg, Data Pump/SQLLoader, опыт построения повторяемых миграций
- Опыт zero-downtime миграций, logical replication, cutover с минимальным простоем
- Linux, bash, бэкапы/восстановление
Будет плюсом
- Опыт в CI/CD, Docker, Testcontainers для интеграционных тестов БД
- Мониторинг/обсервабилити (Prometheus/Grafana, pganalyze и т.п.)
Дополнительная информация
Студия автоматизации бизнес-процессов для крупных заказчиков, работа с высоконагруженными проектами
Контакты
- Telegram: @shakhzodra
⚠️ Для удобства указывайте ссылку на вакансию
Ссылка: https://t.iss.one/it_match_sql/192
Стек технологий: #oracle #postgresql #plsql #plpgsql #ora2pg #linux #bash #docker #prometheus #grafana
🔥1