DevOps/SRE_Jobs
2.78K subscribers
7 photos
3.4K links
Обсуждаем вакансии и все с ними связанное.

Оформить и предложить вакансию можно тут: @cyberJohnny
Реклама - @cyberJohnny
Download Telegram
Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы

Вакансия: Data-инженер
Дата: 19 августа
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / офис в Алматы
Тип занятости: полный рабочий день

Описание

Мы строим платформу данных нового поколения с нуля и ищем опытного Data Engineer, который станет ключевым участником этого процесса.

Наши цели:

построить надёжную и масштабируемую архитектуру,

внедрить лучшие практики работы с данными,

развивать современный DataOps-подход.

Если хотите влиять на архитектуру и процессы — присоединяйтесь!

Чем предстоит заниматься:

Проектирование и создание масштабируемой платформы данных с нуля;

Разработка хранилища данных на базе ClickHouse;

Построение отказоустойчивых ETL/ELT пайплайнов;

Внедрение процессов Data Quality и Data Observability;

Развитие и внедрение DataOps-подходов;

Менторство, код-ревью, развитие команды;

Участие в архитектурных решениях вместе с аналитиками, разработчиками и DevOps-инженерами.

Требования:

5+ лет опыта в Data Engineering;

Экспертиза в ClickHouse (архитектура, шардинг, репликация, оптимизация);

Отличное знание SQL, Python;

Опыт работы с dbt, Kafka, Kafka Connect, Debezium;

Навыки работы с Airflow или аналогами;

Опыт в CI/CD;

Понимание DataOps, проектирования хранилищ данных;

Навыки командной работы и коммуникации.

Будет плюсом: опыт с Docker, Kubernetes.

Мы предлагаем:

Гибкий формат: удалёнка или офис в Алматы;

Современный стек и лучшие практики;

Работа с миллионной аудиторией пользователей;

Возможность видеть реальный результат своей работы.

Ключевые технологии:

ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt

Контакты: @islam14_hr


@DevOpsSRE_Jobs
Публикатор: Ислам
Обсуждение:
#вакансия #работа #ITjobs #DataEngineer #DataEngineering #ETL #ClickHouse #Python #SQL #Kafka #Airflow #DevOps #Удаленка #Алматы

Data-инженер
Зарплата: от 300 000 до 350 000 ₽
Локация: можно удалённо / гибрид /офис в Алматы
Тип занятости: полный рабочий день

Ключевые технологии:
ClickHouse • PostgreSQL • MySQL • Linux • IaC • Ansible • Prometheus • Grafana • Bash • DevOps • Python • Kafka • Airflow • dbt

Описание вакансии
Мы строим платформу данных нового поколения с нуля - и ищем опытного Data Engineer, который станет ключевым участником этого процесса. У нас амбициозные цели: обеспечить надежную и масштабируемую архитектуру, построить лучшие в отрасли практики работы с данными, и внедрить современный DataOps-подход.
Если вы готовы влиять на архитектуру и процессы - присоединяйтесь.

Чем предстоит заниматься:
• Участвовать в проектировании и создании масштабируемой платформы данных с нуля.
• Разрабатывать надежное и высокопроизводительное хранилище данных на базе ClickHouse.
• Строить гибкие и отказоустойчивые ETL/ELT пайплайны.
• Выстраивать процессы Data Quality и обеспечивать Data Observability.
• Активно развивать и внедрять DataOps-подходы.
• Проводить менторство, код-ревью, участвовать в техническом развитии команды.
• Сотрудничать с системными аналитиками, разработчиками, DevOps-инженерами, принимая участие в архитектурных решениях

Что мы ожидаем:
• 5+ лет опыта в области Data Engineering.
• Экспертиза в ClickHouse (глубокое понимание архитектуры, шардинг, репликация и оптимизация).
• Отличное знание SQL, Python, опыт написания production-ready кода.
• Практический опыт работы с dbt, Kafka, Kafka Connect, Debezium.
• Уверенные навыки работы с Airflow или аналогами.
• Опыт работы с CI/CD.
• Знание и практическое применение принципов Data Observability.
• Понимание DataOps-процессов.
• Понимание методологий проектирования хранилищ данных.
• Отличные навыки коммуникации и умение работать в команде.
• Будет плюсом опыт работы с Docker, Kubernetes.

Что мы предлагаем:
• Гибкий формат работы: удаленно или в современном офисе в Алматы.
• Работа с современным стеком и возможность внедрять лучшие практики.
• Работа с миллионной аудиторией пользователей и большим разнообразием данных.
• Возможность внедрять лучшие индустриальные практики и видеть реальный результат своей работы.

Контакты: @islam14_hr


@DevOpsSRE_Jobs
Публикатор: Алина Оленич
Обсуждение:
#вакансия #MLOps #MachineLearning #Python #DataScience #AI #Backend #Hadoop #PySpark #Airflow #Kubernetes #PostgreSQL #FastAPI #Career #ITJobs #Tech #MLSystemDesign #RAG #LLM #MLPlatform #BankingJobs #PythonDev #DataEngineering #TechCareers

MLOps (банк)
Стрим занимается разработкой моделей машинного обучения для сегментов малого, среднего и крупного бизнеса. Разработка ведется «под ключ»: сбор и подготовка данных, построение моделей и их внедрение в PROD.

Компания: Selecty (КА)
Зарплата: 200 000 – 310 000 ₽ на руки (зависит от грейда)
Формат: только ТК РФ (совместительство в банке)

\Стек технологий:
Python, Jupyter Hub, Git, Apache Airflow, Hadoop, PySpark, aiohttp, FastAPI, PostgreSQL, S3, Jenkins, Kubernetes
Библиотеки для ML:
Sklearn, XGBoost/LGBM/CatBoost, PyTorch/TensorFlow, NLTK, OpenCV, LLM и другие

Обязанности:

Проектирование и реализация ML-решений для промышленного применения
Адаптация моделей под инфраструктуру и оптимизация для повышения производительности (inference)
Выстраивание MLOps и CI/CD процессов
Развитие инструментов ML-платформы
Участие в системном анализе и обсуждении требований заказчика
Исследование и внедрение решений для управления жизненным циклом ML-моделей
Развертывание ПО на тестовых и продуктивных средах

Требования:
Обязательное высшее образование
Отсутствие открытых ИП в сфере ИТ
Обязательное наличие военного билета или приписного
Опыт backend-разработки на Python, включая асинхронное программирование
Опыт работы с реляционными базами данных
Понимание принципов работы web: HTTP, REST
Уверенное владение инструментами: Git, менеджеры зависимостей, линтеры, type-checker
Понимание CI/CD, опыт работы с Docker и Kubernetes

Будет плюсом:

Опыт работы с Hadoop, PySpark, Airflow
Опыт работы с очередями, S3, Redis, Celery
Опыт проектирования отказоустойчивых и масштабируемых систем
Знание и применение принципов System Design и ML System Design
Опыт работы с Large Language Models, RAG-сервисами, агентами

Условия

Оформление по ТК РФ (совместительство в банке)
ДМС (включая стоматологию)
Компенсация фитнеса
Скидки на обучение английскому языку (Skyeng)
Индексация заработной платы
Современная техника для работы
IT-аккредитация компании

Откликнуться - @alinarood

@DevOpsSRE_Jobs