Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы
Вакансия: Data-инженер
Дата: 19 августа
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / офис в Алматы
Тип занятости: полный рабочий день
Описание
Мы строим платформу данных нового поколения с нуля и ищем опытного Data Engineer, который станет ключевым участником этого процесса.
Наши цели:
построить надёжную и масштабируемую архитектуру,
внедрить лучшие практики работы с данными,
развивать современный DataOps-подход.
Если хотите влиять на архитектуру и процессы — присоединяйтесь!
Чем предстоит заниматься:
Проектирование и создание масштабируемой платформы данных с нуля;
Разработка хранилища данных на базе ClickHouse;
Построение отказоустойчивых ETL/ELT пайплайнов;
Внедрение процессов Data Quality и Data Observability;
Развитие и внедрение DataOps-подходов;
Менторство, код-ревью, развитие команды;
Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами.
Требования:
5+ лет опыта в Data Engineering;
Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация);
Отличное знание SQL, Python;
Опыт работы с dbt, Kafka, Kafka Connect, Debezium;
Навыки работы с Airflow или аналогами;
Опыт в CI/CD;
Понимание DataOps, проектирования хранилищ данных;
Навыки командной работы и коммуникации.
Будет плюсом: опыт с Docker, Kubernetes.
Мы предлагаем:
Гибкий формат: удалёнка или офис в Алматы;
Современный стек и лучшие практики;
Работа с миллионной аудиторией пользователей;
Возможность видеть реальный результат своей работы.
Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt
Контакты: @islam14_hr
@DevOpsSRE_Jobs
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы
Вакансия: Data-инженер
Дата: 19 августа
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / офис в Алматы
Тип занятости: полный рабочий день
Описание
Мы строим платформу данных нового поколения с нуля и ищем опытного Data Engineer, который станет ключевым участником этого процесса.
Наши цели:
построить надёжную и масштабируемую архитектуру,
внедрить лучшие практики работы с данными,
развивать современный DataOps-подход.
Если хотите влиять на архитектуру и процессы — присоединяйтесь!
Чем предстоит заниматься:
Проектирование и создание масштабируемой платформы данных с нуля;
Разработка хранилища данных на базе ClickHouse;
Построение отказоустойчивых ETL/ELT пайплайнов;
Внедрение процессов Data Quality и Data Observability;
Развитие и внедрение DataOps-подходов;
Менторство, код-ревью, развитие команды;
Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами.
Требования:
5+ лет опыта в Data Engineering;
Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация);
Отличное знание SQL, Python;
Опыт работы с dbt, Kafka, Kafka Connect, Debezium;
Навыки работы с Airflow или аналогами;
Опыт в CI/CD;
Понимание DataOps, проектирования хранилищ данных;
Навыки командной работы и коммуникации.
Будет плюсом: опыт с Docker, Kubernetes.
Мы предлагаем:
Гибкий формат: удалёнка или офис в Алматы;
Современный стек и лучшие практики;
Работа с миллионной аудиторией пользователей;
Возможность видеть реальный результат своей работы.
Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt
Контакты: @islam14_hr
@DevOpsSRE_Jobs
Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы
Data-инженер
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / гибрид /офис в Алматы
Тип занятости: полный рабочий день
Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt
Описание вакансии
Мы строим платформу данных нового поколения с нуля - и ищем опытного Data Engineer, который станет ключевым участником этого процесса. У нас амбициозные цели: обеспечить надежную и масштабируемую архитектуру, построить лучшие в отрасли практики работы с данными, и внедрить современный DataOps-подход.
Если вы готовы влиять на архитектуру и процессы - присоединяйтесь.
Чем предстоит заниматься:
• Участвовать в проектировании и создании масштабируемой платформы данных с нуля.
• Разрабатывать надежное и высокопроизводительное хранилище данных на базе ClickHouse.
• Строить гибкие и отказоустойчивые ETL/ELT пайплайны.
• Выстраивать процессы Data Quality и обеспечивать Data Observability.
• Активно развивать и внедрять DataOps-подходы.
• Проводить менторство, код-ревью, участвовать в техническом развитии команды.
• Сотрудничать с системными аналитиками, разработчиками, DevOps-инженерами, принимая участие в архитектурных решениях
Что мы ожидаем:
• 5+ лет опыта в области Data Engineering.
• Экспертиза в ClickHouse (глубокое понимание архитектуры, шардинг, репликация и оптимизация).
• Отличное знание SQL, Python, опыт написания production-ready кода.
• Практический опыт работы с dbt, Kafka, Kafka Connect, Debezium.
• Уверенные навыки работы с Airflow или аналогами.
• Опыт работы с CI/CD.
• Знание и практическое применение принципов Data Observability.
• Понимание DataOps-процессов.
• Понимание методологий проектирования хранилищ данных.
• Отличные навыки коммуникации и умение работать в команде.
• Будет плюсом опыт работы с Docker, Kubernetes.
Что мы предлагаем:
• Гибкий формат работы: удаленно или в современном офисе в Алматы.
• Работа с современным стеком и возможность внедрять лучшие практики.
• Работа с миллионной аудиторией пользователей и большим разнообразием данных.
• Возможность внедрять лучшие индустриальные практики и видеть реальный результат своей работы.
Контакты: @islam14_hr
@DevOpsSRE_Jobs
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы
Data-инженер
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / гибрид /офис в Алматы
Тип занятости: полный рабочий день
Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt
Описание вакансии
Мы строим платформу данных нового поколения с нуля - и ищем опытного Data Engineer, который станет ключевым участником этого процесса. У нас амбициозные цели: обеспечить надежную и масштабируемую архитектуру, построить лучшие в отрасли практики работы с данными, и внедрить современный DataOps-подход.
Если вы готовы влиять на архитектуру и процессы - присоединяйтесь.
Чем предстоит заниматься:
• Участвовать в проектировании и создании масштабируемой платформы данных с нуля.
• Разрабатывать надежное и высокопроизводительное хранилище данных на базе ClickHouse.
• Строить гибкие и отказоустойчивые ETL/ELT пайплайны.
• Выстраивать процессы Data Quality и обеспечивать Data Observability.
• Активно развивать и внедрять DataOps-подходы.
• Проводить менторство, код-ревью, участвовать в техническом развитии команды.
• Сотрудничать с системными аналитиками, разработчиками, DevOps-инженерами, принимая участие в архитектурных решениях
Что мы ожидаем:
• 5+ лет опыта в области Data Engineering.
• Экспертиза в ClickHouse (глубокое понимание архитектуры, шардинг, репликация и оптимизация).
• Отличное знание SQL, Python, опыт написания production-ready кода.
• Практический опыт работы с dbt, Kafka, Kafka Connect, Debezium.
• Уверенные навыки работы с Airflow или аналогами.
• Опыт работы с CI/CD.
• Знание и практическое применение принципов Data Observability.
• Понимание DataOps-процессов.
• Понимание методологий проектирования хранилищ данных.
• Отличные навыки коммуникации и умение работать в команде.
• Будет плюсом опыт работы с Docker, Kubernetes.
Что мы предлагаем:
• Гибкий формат работы: удаленно или в современном офисе в Алматы.
• Работа с современным стеком и возможность внедрять лучшие практики.
• Работа с миллионной аудиторией пользователей и большим разнообразием данных.
• Возможность внедрять лучшие индустриальные практики и видеть реальный результат своей работы.
Контакты: @islam14_hr
@DevOpsSRE_Jobs
Публикатор: Алина Оленич
Обсуждение:
#вакансия #MLOps #MachineLearning #Python #DataScience #AI #Backend #Hadoop #PySpark #Airflow #Kubernetes #PostgreSQL #FastAPI #Career #ITJobs #Tech #MLSystemDesign #RAG #LLM #MLPlatform #BankingJobs #PythonDev #DataEngineering #TechCareers
MLOps (банк)
Стрим занимается разработкой моделей машинного обучения для сегментов малого, среднего и крупного бизнеса. Разработка ведется «под ключ»: сбор и подготовка данных, построение моделей и их внедрение в PROD.
Компания: Selecty (КА)
Зарплата: 200 000 – 310 000 ₽ на руки (зависит от грейда)
Формат: только ТК РФ (совместительство в банке)
\Стек технологий:
Python, Jupyter Hub, Git, Apache Airflow, Hadoop, PySpark, aiohttp, FastAPI, PostgreSQL, S3, Jenkins, Kubernetes
Библиотеки для ML:
Sklearn, XGBoost/LGBM/CatBoost, PyTorch/TensorFlow, NLTK, OpenCV, LLM и другие
Обязанности:
Проектирование и реализация ML-решений для промышленного применения
Адаптация моделей под инфраструктуру и оптимизация для повышения производительности (inference)
Выстраивание MLOps и CI/CD процессов
Развитие инструментов ML-платформы
Участие в системном анализе и обсуждении требований заказчика
Исследование и внедрение решений для управления жизненным циклом ML-моделей
Развертывание ПО на тестовых и продуктивных средах
Требования:
Обязательное высшее образование
Отсутствие открытых ИП в сфере ИТ
Обязательное наличие военного билета или приписного
Опыт backend-разработки на Python, включая асинхронное программирование
Опыт работы с реляционными базами данных
Понимание принципов работы web: HTTP, REST
Уверенное владение инструментами: Git, менеджеры зависимостей, линтеры, type-checker
Понимание CI/CD, опыт работы с Docker и Kubernetes
Будет плюсом:
Опыт работы с Hadoop, PySpark, Airflow
Опыт работы с очередями, S3, Redis, Celery
Опыт проектирования отказоустойчивых и масштабируемых систем
Знание и применение принципов System Design и ML System Design
Опыт работы с Large Language Models, RAG-сервисами, агентами
Условия
Оформление по ТК РФ (совместительство в банке)
ДМС (включая стоматологию)
Компенсация фитнеса
Скидки на обучение английскому языку (Skyeng)
Индексация заработной платы
Современная техника для работы
IT-аккредитация компании
Откликнуться - @alinarood
@DevOpsSRE_Jobs
Обсуждение:
#вакансия #MLOps #MachineLearning #Python #DataScience #AI #Backend #Hadoop #PySpark #Airflow #Kubernetes #PostgreSQL #FastAPI #Career #ITJobs #Tech #MLSystemDesign #RAG #LLM #MLPlatform #BankingJobs #PythonDev #DataEngineering #TechCareers
MLOps (банк)
Стрим занимается разработкой моделей машинного обучения для сегментов малого, среднего и крупного бизнеса. Разработка ведется «под ключ»: сбор и подготовка данных, построение моделей и их внедрение в PROD.
Компания: Selecty (КА)
Зарплата: 200 000 – 310 000 ₽ на руки (зависит от грейда)
Формат: только ТК РФ (совместительство в банке)
\Стек технологий:
Python, Jupyter Hub, Git, Apache Airflow, Hadoop, PySpark, aiohttp, FastAPI, PostgreSQL, S3, Jenkins, Kubernetes
Библиотеки для ML:
Sklearn, XGBoost/LGBM/CatBoost, PyTorch/TensorFlow, NLTK, OpenCV, LLM и другие
Обязанности:
Проектирование и реализация ML-решений для промышленного применения
Адаптация моделей под инфраструктуру и оптимизация для повышения производительности (inference)
Выстраивание MLOps и CI/CD процессов
Развитие инструментов ML-платформы
Участие в системном анализе и обсуждении требований заказчика
Исследование и внедрение решений для управления жизненным циклом ML-моделей
Развертывание ПО на тестовых и продуктивных средах
Требования:
Обязательное высшее образование
Отсутствие открытых ИП в сфере ИТ
Обязательное наличие военного билета или приписного
Опыт backend-разработки на Python, включая асинхронное программирование
Опыт работы с реляционными базами данных
Понимание принципов работы web: HTTP, REST
Уверенное владение инструментами: Git, менеджеры зависимостей, линтеры, type-checker
Понимание CI/CD, опыт работы с Docker и Kubernetes
Будет плюсом:
Опыт работы с Hadoop, PySpark, Airflow
Опыт работы с очередями, S3, Redis, Celery
Опыт проектирования отказоустойчивых и масштабируемых систем
Знание и применение принципов System Design и ML System Design
Опыт работы с Large Language Models, RAG-сервисами, агентами
Условия
Оформление по ТК РФ (совместительство в банке)
ДМС (включая стоматологию)
Компенсация фитнеса
Скидки на обучение английскому языку (Skyeng)
Индексация заработной платы
Современная техника для работы
IT-аккредитация компании
Откликнуться - @alinarood
@DevOpsSRE_Jobs