#вакансия #job #DE #data_engineer #remote #fulltime #relocation
Вакансия: Data Engineer (Senior/ TL);
Локация: Ереван, Армения
Формат работы: гибрид;
ЗП: от 5000$ на руки и выше в зависимости от вашего уровня +бонусы;
Контакт: @olga_chr
Привет! В крупную международную FMCG компанию, лидера рынка, ищем Senior/Lead Data Engineer. Мы - одно из самых крупных представительств в мире, активно развивающее R&D лабораторию, чтобы делать жизнь наших потребителей лучше. Приглашаем вас присоединиться к нашей команде специалистов в Армении. В рамках интеграции данных продукта, вы будете разрабатывать решения для баз данных, техническое проектирование, архитектуру и осуществлять поддержку для реализации разработки корпоративных баз данных.
Условия:
- Гибридный график работы, гибкое начало дня;
- ЗП по результатам собеседования, премии за эффективную работу и результат;
- Релокационный пакет: оплата перелета, оплата жилья на время поисков, помощь с поиском садика/школы для детей;
- Нестандартные задачи, которые требуют креатива и новых подходов;
- Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
- Комфортный офис со всем необходимым;
- Возможность обучения и участия в жизни IT-сообщества: большой выбор курсов в нашем корпоративном университете, посещение митапов, конференций;
- Корпоративные льготы: ДМС, большой выбор внутренних спортивных секций, скидки у партнеров.
Стек: SQL, Python, Scala, Spark, AWS, Airflow, Hadoop, Snowflake, Docker, Git, Jenkins.
Обязанности:
• Разработка и внедрение программных решений;
• Определение структурных требований к базе данных путем анализа клиентских процессов, приложений;
• Разработка решений для баз данных путем создания и моделирования предлагаемой системы;
• Планирование и проведение проектов, связанных с базами данных /программным обеспечением, от концепции до эффективных решений для конечных пользователей;
• Работа над проектами по разработке аналитики данных, требующих внешнего сотрудничества для предоставления необходимых услуг и продуктов в соответствии со сроками и уровнями качества, необходимыми для разработки RRP;
• Разработка, внедрение и управление средами быстрого прототипирования, обеспечивающими оперативную интеграцию и последующий анализ новых требуемых наборов данных.
Эта позиция для вас, если у вас есть:
• Коммерческий опыт работы в роли инженера данных от 3 лет;
• Высшее образование в области компьютерных наук, обработки данных или компьютерной инженерии;
• Хорошее понимание жизненного цикла систем и программного обеспечения;
• Опыт в разработке точных технических рекомендаций, альтернатив и улучшений;
• Уверенное владение английским языком.
Присылайте ваше CV и вопросы в телеграм @olga_chr
@datascienceml_jobs
Вакансия: Data Engineer (Senior/ TL);
Локация: Ереван, Армения
Формат работы: гибрид;
ЗП: от 5000$ на руки и выше в зависимости от вашего уровня +бонусы;
Контакт: @olga_chr
Привет! В крупную международную FMCG компанию, лидера рынка, ищем Senior/Lead Data Engineer. Мы - одно из самых крупных представительств в мире, активно развивающее R&D лабораторию, чтобы делать жизнь наших потребителей лучше. Приглашаем вас присоединиться к нашей команде специалистов в Армении. В рамках интеграции данных продукта, вы будете разрабатывать решения для баз данных, техническое проектирование, архитектуру и осуществлять поддержку для реализации разработки корпоративных баз данных.
Условия:
- Гибридный график работы, гибкое начало дня;
- ЗП по результатам собеседования, премии за эффективную работу и результат;
- Релокационный пакет: оплата перелета, оплата жилья на время поисков, помощь с поиском садика/школы для детей;
- Нестандартные задачи, которые требуют креатива и новых подходов;
- Современный стек и гибкие методологии разработки, работа в команде высококлассных профессионалов из разных технологических областей;
- Комфортный офис со всем необходимым;
- Возможность обучения и участия в жизни IT-сообщества: большой выбор курсов в нашем корпоративном университете, посещение митапов, конференций;
- Корпоративные льготы: ДМС, большой выбор внутренних спортивных секций, скидки у партнеров.
Стек: SQL, Python, Scala, Spark, AWS, Airflow, Hadoop, Snowflake, Docker, Git, Jenkins.
Обязанности:
• Разработка и внедрение программных решений;
• Определение структурных требований к базе данных путем анализа клиентских процессов, приложений;
• Разработка решений для баз данных путем создания и моделирования предлагаемой системы;
• Планирование и проведение проектов, связанных с базами данных /программным обеспечением, от концепции до эффективных решений для конечных пользователей;
• Работа над проектами по разработке аналитики данных, требующих внешнего сотрудничества для предоставления необходимых услуг и продуктов в соответствии со сроками и уровнями качества, необходимыми для разработки RRP;
• Разработка, внедрение и управление средами быстрого прототипирования, обеспечивающими оперативную интеграцию и последующий анализ новых требуемых наборов данных.
Эта позиция для вас, если у вас есть:
• Коммерческий опыт работы в роли инженера данных от 3 лет;
• Высшее образование в области компьютерных наук, обработки данных или компьютерной инженерии;
• Хорошее понимание жизненного цикла систем и программного обеспечения;
• Опыт в разработке точных технических рекомендаций, альтернатив и улучшений;
• Уверенное владение английским языком.
Присылайте ваше CV и вопросы в телеграм @olga_chr
@datascienceml_jobs
👍1
#remote #DQ #вакансия #data_engineer
Вакансия: Аналитик качества данных | DQ аналитик
Формат: Удаленка, гибрид (на выбор)
Занятость: remote, full-time
Компания: МКБ
Контакт: @Uola333
Приглашаем поучасвовать в выстраивании процессов и процедур управления качеством даных в одном из самых крупных банков РФ. Мы разработали стратегию Data Governance и ищем единомышленников, которые помогут нам ее реализовать )
Стек: Oracle, ClickHouse, Hadoop (в планах), Grafana, Python, Vertica
📌Основные задачи:
• Выставление требований по качеству данных к корпоративному-хранилищу данных (КХД), ETL-процедурам и системам-источникам;
• Разработка и внедрение процедур контроля качества данных (ручные и автоматические DQ тесты: SQL, Python);
• Разработка и внедрение дашбордов по качеству данных.
📌Мы ожидаем:
• Опыт работы на позициях Data Steward, DQ-аналитик, Аналитик по качеству данных и тп.
• Знание одного или нескольких фрейворков DQ (DMBOK);
• Хорошие знание SQL;
• Знание Python (pandas, numpy, функции, процедуры);
• Плюсом будет знакомство с Vertica, ClickHouse;
• Плюсом будет наличие навыков описания потоков данных между системами, опыт в построении DWH, знание основных подходов по проектированию моделей данных.
📌 Условия:
• Удаленный или гибридный формат работы (на Ваш выбор);
• Оклад + ежеквартальные премии;
• Удобная техника для работы
• Обучение и посещение профильных конференций;
• ДМС и бонусы от партнеров.
Контакт: @Uola333
@datascienceml_jobs
Вакансия: Аналитик качества данных | DQ аналитик
Формат: Удаленка, гибрид (на выбор)
Занятость: remote, full-time
Компания: МКБ
Контакт: @Uola333
Приглашаем поучасвовать в выстраивании процессов и процедур управления качеством даных в одном из самых крупных банков РФ. Мы разработали стратегию Data Governance и ищем единомышленников, которые помогут нам ее реализовать )
Стек: Oracle, ClickHouse, Hadoop (в планах), Grafana, Python, Vertica
📌Основные задачи:
• Выставление требований по качеству данных к корпоративному-хранилищу данных (КХД), ETL-процедурам и системам-источникам;
• Разработка и внедрение процедур контроля качества данных (ручные и автоматические DQ тесты: SQL, Python);
• Разработка и внедрение дашбордов по качеству данных.
📌Мы ожидаем:
• Опыт работы на позициях Data Steward, DQ-аналитик, Аналитик по качеству данных и тп.
• Знание одного или нескольких фрейворков DQ (DMBOK);
• Хорошие знание SQL;
• Знание Python (pandas, numpy, функции, процедуры);
• Плюсом будет знакомство с Vertica, ClickHouse;
• Плюсом будет наличие навыков описания потоков данных между системами, опыт в построении DWH, знание основных подходов по проектированию моделей данных.
📌 Условия:
• Удаленный или гибридный формат работы (на Ваш выбор);
• Оклад + ежеквартальные премии;
• Удобная техника для работы
• Обучение и посещение профильных конференций;
• ДМС и бонусы от партнеров.
Контакт: @Uola333
@datascienceml_jobs
❤1👍1🔥1
#вакансия #ETL #Data_Engineer #Java #Hadoop #Big_data #Bell_Integrator #Россия #Удаленно
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно РФ
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
🔸Компания: Bell Integrator
🔸Вакансия: ETL|DE разработчик
🔸Локация: Удаленно РФ
💰ЗП: 200 000-250 000 net
📩Для отклика и по всем вопросам:
tg: @Anechkason
🔊Bell Integrator – один из ведущих системных интеграторов страны. Мы являемся аккредитованной ИТ-компанией. Входим в состав ГК Softline. Активно реализуем проекты по всей России, среди наших заказчиков – крупнейшие системообразующие финансовые, телеком и ритейл компании страны.
🔸Проект: развитие платформы больших данных.
Сейчас нам нужен Разработчик ЕТL на создание аналитических платформ и data-продуктов для разных направлений корпоративно-инвестиционного бизнеса Банка.
🔸Требования:
• Высшее техническое/экономическое образование
• Опыт программирования на Java от 2х лет
• Опыт программирования и разработки алгоритмов и структур данных
• Знания принципов построения распределенных систем хранения и обработки данные
• Опыт работы с openshift/kubernetes
Желательно:
•Наличие практического опыта работы 1-3 года с Hadoop (Hive, Impala, sqoop, oozie,HDFS, YARN), понимание парадигмы map-reduce и алгоритмов работы Spark
•Пониманиеконцепции cloud-native вычислений
•Опыт работы с ETL-инструментами (Informatica BDM, ODI, Pentaho) и BI-средствами
•Опытработы с реляционными СУБД (Oracle, MS/SQL), навыки оптимизации запросов
•Опыт работы с NoSQL базам данных (HBase, Cassandra)
•Опытработы с Unix shell
•Jenkins
🔸Обязанности:
• Проектирование и разработка java приложения и openshift/Kubernetes конфигураций для запуска ETL инструмента в облачной инфраструктуре
🔸Условия:
•Возможность профессионального и карьерного роста в компании;
•Опыт работы в распределенной команде профессионалов;
•Возможность работать удаленно на территории РФ.
📩 А также пишите: [email protected]
👍7
#вакансия #Data #middle #senior #data_engineer #remote
💻Вакансия: Data engineer
💚Компания: Superjob.ru — IT-сервис по поиску работы и подбору сотрудников с высокой зарплатой.
🔗Технологии: Python, SQL,Linux, ClickHouse, Docker, Jenkins, Airflow, Dagster, Kafkа, Debezium, Flask.
📌Занятость: Москва, полная занятость, 5/2; офис, гибрид, удаленно ( на выбор)
💰ЗП вилка до 350 000 нетт
Салют!
Меня зовут София, я HR BP в SuperJob, сейчас в поисках в нашу команду Data engineer.
💸💰Условия:
- Заработная плата до 350 000 нетт
- Гибкий график работы
- Возможность работать удаленно (в том числе из-за границы)
- Работу в одном из самых быстрорастущих рынков - HRTech.
- ДМС после прохождения испытательного срока.
- Современный офис в 10 минутах пешей прогулки от станций метро Пушкинская/Маяковская/Чеховская/Новослободская.
- Оплату проезда общественным транспортом.
💻Общий пул задач:
- Работать с DWH, проектировать схемы для хранения данных.
- Загружать данные из различных источников (как внутренних БД, так и внешних аналитических/маркетинговых платформ и т.д.) в DWH.
- Разрабатывать, поддерживать и оптимизировать витрины данных.
- Участвовать в организации CI/CD и мониторинга процессов обработки данных.
- Искать ошибки и аномалии в данных, управлять качеством данных, автоматизировать проверку качества данных.
📌Для нас важно:
- Уверенное знание SQL (аналитические функции, CTE, оптимизация запросов под Clickhouse и организация хранения данных в Clickhouse).
- Хорошее знание Python (основные типы данных, основы ООП, основы алгоритмизации и взаимодействия с API).
- Неудержимое желание обучаться и прокачиваться с нашей всевозможной поддержкой.
📌Будет плюсом опыт работы с:
- Большими объёмами данных.
- ClickHouse cluster.
- Linux, Docker, Jenkins/Airflow/Dagster.
- CDC в Clickhouse через Kafka+Debezium.
- Flask, SqlAlchemy.
Готова ответь на вопросы и пообщаться с вами💚
🤝Написать в telegram @ya_so_dmi
💻Вакансия: Data engineer
💚Компания: Superjob.ru — IT-сервис по поиску работы и подбору сотрудников с высокой зарплатой.
🔗Технологии: Python, SQL,Linux, ClickHouse, Docker, Jenkins, Airflow, Dagster, Kafkа, Debezium, Flask.
📌Занятость: Москва, полная занятость, 5/2; офис, гибрид, удаленно ( на выбор)
💰ЗП вилка до 350 000 нетт
Салют!
Меня зовут София, я HR BP в SuperJob, сейчас в поисках в нашу команду Data engineer.
💸💰Условия:
- Заработная плата до 350 000 нетт
- Гибкий график работы
- Возможность работать удаленно (в том числе из-за границы)
- Работу в одном из самых быстрорастущих рынков - HRTech.
- ДМС после прохождения испытательного срока.
- Современный офис в 10 минутах пешей прогулки от станций метро Пушкинская/Маяковская/Чеховская/Новослободская.
- Оплату проезда общественным транспортом.
💻Общий пул задач:
- Работать с DWH, проектировать схемы для хранения данных.
- Загружать данные из различных источников (как внутренних БД, так и внешних аналитических/маркетинговых платформ и т.д.) в DWH.
- Разрабатывать, поддерживать и оптимизировать витрины данных.
- Участвовать в организации CI/CD и мониторинга процессов обработки данных.
- Искать ошибки и аномалии в данных, управлять качеством данных, автоматизировать проверку качества данных.
📌Для нас важно:
- Уверенное знание SQL (аналитические функции, CTE, оптимизация запросов под Clickhouse и организация хранения данных в Clickhouse).
- Хорошее знание Python (основные типы данных, основы ООП, основы алгоритмизации и взаимодействия с API).
- Неудержимое желание обучаться и прокачиваться с нашей всевозможной поддержкой.
📌Будет плюсом опыт работы с:
- Большими объёмами данных.
- ClickHouse cluster.
- Linux, Docker, Jenkins/Airflow/Dagster.
- CDC в Clickhouse через Kafka+Debezium.
- Flask, SqlAlchemy.
Готова ответь на вопросы и пообщаться с вами💚
🤝Написать в telegram @ya_so_dmi
👍3
#вакансия #data_engineer #senior #middle+ #Data #fulltime #hadoop #spark
Вакансия: Data Engineer
Компания: FESCO (транспортно-логистическая группа компаний)
Формат работы: удалённый
Вилка: от 200 до 280 тыс.руб на руки + квартальное премирование
Компания занимает лидирующее положение в сфере контейнерных перевозок через Дальний Восток РФ в/из стран Азии, путем 🚚 🚊 ⛴️ ✈️, а также является крупнейшим портовым контейнерным оператором.
📝 О проекте: мы преобразовываем работу с данными и выстраиваем с нуля корпоративную дата-платформу, которая объединит данные всего бизнеса, установит стандарты управления и позволит обеспечить доступ к data-driven решениям всем сотрудникам. При построении платформы мы нацеливаемся на применение гибкой архитектуры (Data lakehouse) и open-source технологий.
Технологический стек: MS SQL, MySQL, Java, Scala, REST, API, REST API, SOAP, Python, PostgreSQL, Hadoop, HDFS, S3, Spark, Airflow
Нам понадобится твоя помощь в:
✔️ Изучении текущей инфраструктуры и оптимизации сбора и обработки данных, поступающих из различных источников
✔️ Проектировании архитектуры хранилища
✔️ Реализации, организации и поддержке объектов на всех слоях хранилища
✔️ Разработке ETL-пайплайнов
✔️ Разработке и доработке интеграционных элементов, коннекторов, внутренних сервисов
✔️ Организации мониторинга работы хранилища и качества данных
✔️ Управлении доступом к данным, разработке и поддержке ролевой модели
✔️ Поддержке аналитиков в вопросах оптимизации и документирования со стороны платформы
Мы ожидаем от тебя:
✔️ Комплексное понимание архитектуры аналитических решений
✔️ Понимание работы различных СУБД (SQL/NoSQL, OLTP/OLAP) и современной IT-инфраструктуры (Infrastructure as code, контейнеризация, облачные решения)
✔️ Понимание особенностей распределенного хранения и обработки данных
✔️ Уверенное знание хотя бы одного языка программирования (Python, Java)
✔️ Углубленное знание SQL
✔️ Понимание подходов к организации процессов разработки (CI/CD, DevOps)
✔️ Понимание принципов data governance, основ управления качеством данных, подхода "данные, как продукт"
Мы предлагаем:
✔️ Возможность полностью удаленного формата работы;
✔️ Официальное оформление, социальный пакет;
✔️ Квартальную премию по результатам работы;
✔️ ДМС, включая стоматологию;
✔️ График работы фулл-тайм, 5/2
✔️ ЗП вилка 200-280 т.р. на руки (без учета премирования).
Подробнее в tg: @AChernykh_Recruiter или по почте [email protected]
Вакансия: Data Engineer
Компания: FESCO (транспортно-логистическая группа компаний)
Формат работы: удалённый
Вилка: от 200 до 280 тыс.руб на руки + квартальное премирование
Компания занимает лидирующее положение в сфере контейнерных перевозок через Дальний Восток РФ в/из стран Азии, путем 🚚 🚊 ⛴️ ✈️, а также является крупнейшим портовым контейнерным оператором.
📝 О проекте: мы преобразовываем работу с данными и выстраиваем с нуля корпоративную дата-платформу, которая объединит данные всего бизнеса, установит стандарты управления и позволит обеспечить доступ к data-driven решениям всем сотрудникам. При построении платформы мы нацеливаемся на применение гибкой архитектуры (Data lakehouse) и open-source технологий.
Технологический стек: MS SQL, MySQL, Java, Scala, REST, API, REST API, SOAP, Python, PostgreSQL, Hadoop, HDFS, S3, Spark, Airflow
Нам понадобится твоя помощь в:
✔️ Изучении текущей инфраструктуры и оптимизации сбора и обработки данных, поступающих из различных источников
✔️ Проектировании архитектуры хранилища
✔️ Реализации, организации и поддержке объектов на всех слоях хранилища
✔️ Разработке ETL-пайплайнов
✔️ Разработке и доработке интеграционных элементов, коннекторов, внутренних сервисов
✔️ Организации мониторинга работы хранилища и качества данных
✔️ Управлении доступом к данным, разработке и поддержке ролевой модели
✔️ Поддержке аналитиков в вопросах оптимизации и документирования со стороны платформы
Мы ожидаем от тебя:
✔️ Комплексное понимание архитектуры аналитических решений
✔️ Понимание работы различных СУБД (SQL/NoSQL, OLTP/OLAP) и современной IT-инфраструктуры (Infrastructure as code, контейнеризация, облачные решения)
✔️ Понимание особенностей распределенного хранения и обработки данных
✔️ Уверенное знание хотя бы одного языка программирования (Python, Java)
✔️ Углубленное знание SQL
✔️ Понимание подходов к организации процессов разработки (CI/CD, DevOps)
✔️ Понимание принципов data governance, основ управления качеством данных, подхода "данные, как продукт"
Мы предлагаем:
✔️ Возможность полностью удаленного формата работы;
✔️ Официальное оформление, социальный пакет;
✔️ Квартальную премию по результатам работы;
✔️ ДМС, включая стоматологию;
✔️ График работы фулл-тайм, 5/2
✔️ ЗП вилка 200-280 т.р. на руки (без учета премирования).
Подробнее в tg: @AChernykh_Recruiter или по почте [email protected]
😁3🔥2👍1
#vacancy #вакансия #Cyprus #Кипр #data_engineer
Вакансия: Data Engineer
Компания: продуктовая финтех компания IBIT LTD
Локация: Лимасол, Кипр
Занятость: полная
Формат: офис, гибкий график
Трудоустройство: официальное
Для чего:
Администрирование и развитие хранилища данных (Clickhouse) c точки зрения данных при поддержке Devops-ов, поддержка текущих ETL процессов, самостоятельная организация новых ETL процессов по запросу.
Чего мы ждем:
- Опыт в роли Data Analyst или Data Engineer не менее года;
- Знание SQL, Python, Linux, Git;
- Опыт извлечение данных с помощью API и парсинга;
- Высокая скорость изучения документации API различных сервисов. В том числе, если они не полные или не совсем понятные.
Мы помогаем кандидатам, не находящимся на Кипре с релокацией, оформляем документы для вас и членов семьи, предоставляем жилье на 3 недели и релоцируем даже ваших питомцев :)
Контакт: Александра @leksdmiv. Буду рада ответить на ваши вопросы!
Вакансия: Data Engineer
Компания: продуктовая финтех компания IBIT LTD
Локация: Лимасол, Кипр
Занятость: полная
Формат: офис, гибкий график
Трудоустройство: официальное
Для чего:
Администрирование и развитие хранилища данных (Clickhouse) c точки зрения данных при поддержке Devops-ов, поддержка текущих ETL процессов, самостоятельная организация новых ETL процессов по запросу.
Чего мы ждем:
- Опыт в роли Data Analyst или Data Engineer не менее года;
- Знание SQL, Python, Linux, Git;
- Опыт извлечение данных с помощью API и парсинга;
- Высокая скорость изучения документации API различных сервисов. В том числе, если они не полные или не совсем понятные.
Мы помогаем кандидатам, не находящимся на Кипре с релокацией, оформляем документы для вас и членов семьи, предоставляем жилье на 3 недели и релоцируем даже ваших питомцев :)
Контакт: Александра @leksdmiv. Буду рада ответить на ваши вопросы!
#vacancy #вакансия #data #dataengineer #data_engineer #clickhouse #удаленка #remote
Вакансия: Senior Data Engineer
Компания: CCS
Локация: РФ, Кипр, заграница
Занятость: Полная
Формат: удаленка/офис/гибрид
Труд-во: в штат
ЗП: от 300к руб на руки
Меня зовут Алина, я рекрутер компании CCS. Мы продуктовая IT компания, занимаемся разработкой и поддержкой высоконагруженных проектов в спортивной и развлекательной тематике. Сейчас находимся в поиске Senior Data Engineer.
Требования:
-Глубокое знание ClickHouse
-От 5 лет работы в области Data Engineering/Architecture
-Опыт работы с Event Sourcing Projections будет плюсом
-Понимание принципов архитектуры OLAP систем
-Будет плюсом знание и опыт работы с данными в KAFKA (KSQLDB) и коннекторы к ClickHouse
-Желателен опыт с языками программирования (Go или Python)
Чем предстоит заниматься:
-Создание DWH на основе ClickHouse
-Построение комплексных отчетов в ClickHouse в том числе на основе Event Sourced Data
-Оптимизация скорости построения отчетов ClickHouse с учетом поступления данных от 7000 RPS
В перспективе:
-Внедрение Superset как BI для DWH на ClickHouse
-Организация аутентификации и авторизации Superset на основе существующего IDP решения
Условия:
-Белая зп, которая зависит от зарплатных ожиданий кандидатов и итогов тех интервью
-Удаленка/офис/гибрид на выбор
-Возможность работать из заграницы
-Гибкое начало рабочего дня
-Годовой бонус (13-я ЗП)
-Реферальная программа за успешную рекомендацию кандидата
-Компенсация курсов английского языка
-Компенсация спортзала, йоги, танцев, бассейн
-Поездки на ИТ-конференции, митапы, учебные курсы за счет компании
Контакт для связи:
@alinka_recruiter
Вакансия: Senior Data Engineer
Компания: CCS
Локация: РФ, Кипр, заграница
Занятость: Полная
Формат: удаленка/офис/гибрид
Труд-во: в штат
ЗП: от 300к руб на руки
Меня зовут Алина, я рекрутер компании CCS. Мы продуктовая IT компания, занимаемся разработкой и поддержкой высоконагруженных проектов в спортивной и развлекательной тематике. Сейчас находимся в поиске Senior Data Engineer.
Требования:
-Глубокое знание ClickHouse
-От 5 лет работы в области Data Engineering/Architecture
-Опыт работы с Event Sourcing Projections будет плюсом
-Понимание принципов архитектуры OLAP систем
-Будет плюсом знание и опыт работы с данными в KAFKA (KSQLDB) и коннекторы к ClickHouse
-Желателен опыт с языками программирования (Go или Python)
Чем предстоит заниматься:
-Создание DWH на основе ClickHouse
-Построение комплексных отчетов в ClickHouse в том числе на основе Event Sourced Data
-Оптимизация скорости построения отчетов ClickHouse с учетом поступления данных от 7000 RPS
В перспективе:
-Внедрение Superset как BI для DWH на ClickHouse
-Организация аутентификации и авторизации Superset на основе существующего IDP решения
Условия:
-Белая зп, которая зависит от зарплатных ожиданий кандидатов и итогов тех интервью
-Удаленка/офис/гибрид на выбор
-Возможность работать из заграницы
-Гибкое начало рабочего дня
-Годовой бонус (13-я ЗП)
-Реферальная программа за успешную рекомендацию кандидата
-Компенсация курсов английского языка
-Компенсация спортзала, йоги, танцев, бассейн
-Поездки на ИТ-конференции, митапы, учебные курсы за счет компании
Контакт для связи:
@alinka_recruiter
👍1
#вакансия #Data Engineer #job #DE
- Вакансия: Data Engineer (Big Data)
- Формат: удалённо на территории РФ
- ЗП: до 230 net
- Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
- Вакансия: Data Engineer (Big Data)
- Формат: удалённо на территории РФ
- ЗП: до 230 net
- Занятость: полная
еАптека – сервис для покупки лекарств и товаров для здоровья.
Наша команда разрабатывает, эксплуатирует и расширяет инфраструктуру Data Lake/Data Driven, позволяя Компании принимать обоснованные аналитические и технологические решения для высоконагруженных технологических процессов.
Чем предстоит заниматься:
- Управлять и настраивать инфраструктуру обработки данных для ML, аналитики и обслуживания пользователей;
- Разрабатывать процессы и интерфейсы обработки данных, полученных из исходных источников продукта (MSSQL, MySQL, PostgreSQL), S3 и API, обработка событий из Kafka;
- Настройка, оптимизация, обновление и контроль качества данных;
- Подготовка и настройка окружений для DS.
Наши технологии и необходимый опыт работы:
YC, S3, Spark, Kafka, Airflow, Debezium, Airbyte, Prometheus, Grafana, GitLab.
- Python на уровне middle+ или senior (будет плюсом Scala, Golang);
- k8s на уровне пользователя (будет преимуществом);
- Опыт обработки высоконагруженных потоков данных от 3х лет.
Что мы предлагаем:
- Работа в аккредитованной ИТ компании;
- График работы 5/2, с гибким началом рабочего дня с 8:00 - 10:00;
- Трудоустройство по ТК РФ;
- ДМС со стоматологией;
- Пополняемая коллекция профессиональной литературы, оплата посещения профильных конференций, системное обучение и Виртуальная и виртуальная школа Сбербанка;
- Современная техника;
- Корпоративные мероприятия и тимбилдинги.
📩 Контакт: @Uliana_eApteka
👍3❤1🥴1
#data_engineer #удаленка #вакансия #Fulltime #Remote
В поиске Data инженера в компанию Wildberries - один из самых крупных и известных маркетплейсов, который создают более 2-х тысяч IT-специалистов
Проект: разработка нового продукта для складской работы (WMS)
Вилка: от 250 000 руб. на руки
Чем нужно заниматься:
- Проектирование структур хранилищ данных (DWH);
- Создание и доработка ETL процессов загрузки, трансформации данных и формирования витрин (ETL);
- Разработка и модернизация процедур контроля качества данных хранилища, анализ и мониторинг консистентности данных (DQ);
- Проектирование и построение витрин данных для BI систем;
- Тестирование реализованного функционала;
- Участие в подготовке технических заданий.
Наши ожидания от кандидата:
- Опыт разработки SQL-запросов для СУБД PostgreSQL (включая CTE и аналитические функции);
- Опыт написания хранимых процедур, триггеров, функций;
- Знание и понимание основных подходов моделирования хранилищ ;
- Опыт написания витрин;
- Понимание основных методов доступа к данным и способов соединения данных;
- Умение оптимизировать запросы;
- Обязательно опыт работы с ClickHouse, Kafka/data streaming, Debezium, Hadoop, Spark;
- Опыт работы с Apache airflow и построение DAGов;
- Опыт работы с языком программирования Python;
- Готовность писать документацию к своим разработкам.
Будет плюсом:
- Умение работать с Greenplum, K8s.
Мы предлагаем:
- Гибкое начало рабочего дня;
- Сложные и интересные проекты (также участие в проектах с нуля);
- 100% удаленный формат работы (из любой точки мира) или вы можете выбрать гибридный график (по желанию);
- Оформление по ТК РФ в IT компанию с первого дня (также предоставляем другие виды оформления - ИП, ГПХ);
- Современный стек, нет бюрократии и тайм-трекеров;
- И другие «плюшки»: партнерские программы по обучению и фитнесу, корпоративное питание для сотрудников в офисе.
Откликайтесь, буду рада рассказать подробнее)
Пишите в лс: @anastasiazamashkina
В поиске Data инженера в компанию Wildberries - один из самых крупных и известных маркетплейсов, который создают более 2-х тысяч IT-специалистов
Проект: разработка нового продукта для складской работы (WMS)
Вилка: от 250 000 руб. на руки
Чем нужно заниматься:
- Проектирование структур хранилищ данных (DWH);
- Создание и доработка ETL процессов загрузки, трансформации данных и формирования витрин (ETL);
- Разработка и модернизация процедур контроля качества данных хранилища, анализ и мониторинг консистентности данных (DQ);
- Проектирование и построение витрин данных для BI систем;
- Тестирование реализованного функционала;
- Участие в подготовке технических заданий.
Наши ожидания от кандидата:
- Опыт разработки SQL-запросов для СУБД PostgreSQL (включая CTE и аналитические функции);
- Опыт написания хранимых процедур, триггеров, функций;
- Знание и понимание основных подходов моделирования хранилищ ;
- Опыт написания витрин;
- Понимание основных методов доступа к данным и способов соединения данных;
- Умение оптимизировать запросы;
- Обязательно опыт работы с ClickHouse, Kafka/data streaming, Debezium, Hadoop, Spark;
- Опыт работы с Apache airflow и построение DAGов;
- Опыт работы с языком программирования Python;
- Готовность писать документацию к своим разработкам.
Будет плюсом:
- Умение работать с Greenplum, K8s.
Мы предлагаем:
- Гибкое начало рабочего дня;
- Сложные и интересные проекты (также участие в проектах с нуля);
- 100% удаленный формат работы (из любой точки мира) или вы можете выбрать гибридный график (по желанию);
- Оформление по ТК РФ в IT компанию с первого дня (также предоставляем другие виды оформления - ИП, ГПХ);
- Современный стек, нет бюрократии и тайм-трекеров;
- И другие «плюшки»: партнерские программы по обучению и фитнесу, корпоративное питание для сотрудников в офисе.
Откликайтесь, буду рада рассказать подробнее)
Пишите в лс: @anastasiazamashkina
👍2
#вакансия #Data Engineer #Data Analyst
Data Engineer/Data Analyst
✅Компания "Neoflex"
создает ИТ-платформы для цифровой трансформации бизнеса;
являемся аккредитованной IT компанией.
✅Вилка зп: От 200.000 до 345.000 руб.;
✅Локация: Гибрид/офис (Москва, Санкт-Петербург, Нижний Новгород, Воронеж, Пенза, Саратов, Самара, Краснодар) или полная удалёнка с территории РФ;
✅Занятость: Полная 5/2;
✅Условия: Оформление по ТК РФ;
✅Вам предстоит:
•Участие в проекте по разработке DWH в Greenplum по методологии Data Vault;
•Взаимодействие с бизнес-подразделениями и ИТ-командами для определения потребностей использования данных хранилища, с целью развития модели хранилища;
•Проектирование и описание модели данных детальных слоев корпоративного хранилища;
•Разработка стандартов проектирования детальных слоев хранилища, загрузки, хранения и доступа к данным, контроль за соблюдением стандартов;
•Анализ и декомпозиция задач в сложных проектах по развитию хранилища, оценка трудозатрат, сроков и рисков. Проработка концептов загрузки данных в хранилище;
•Согласование алгоритмов и маппингов, подготовленных командами, обеспечивающими загрузку данных в хранилище;
•Контроль целостности и консистентности модели, контроль качества функционала загрузки данных в хранилища. Участие в приемо-сдаточных испытаниях;
•Анализ и выявление корневых причин возникновения ошибок, разработка концепций и мероприятий по их устранению;
•Экспертная поддержка бизнес-пользователей, потребителей данных, аналитиков и разработчиков ИТ команд, обеспечивающих загрузку данных. Консультирование по ассортименту данных в хранилище и особенностям использования данных.
✅Мы ожидаем что у Вас есть:
•Уверенное знание SQL и опыт работы с СУБД (PostgreSQL, GreenPlum);
•Опыт проектирования логических и физических моделей хранилищ данных (Data Vault) или участие в проектах по автоматизации отчетности на базе хранилища данных;
•Знание архитектуры хранилища данных и методов моделирования данных;
•Опыт работы с ETL - оркестратором (Airflow);
•Знание основ банковского бухгалтерского учета (будет плюсом);
•Опыт работы c гибкими проектными методологиями (agile, scrum, kanban).
✅Мы предлагаем:
•Работа в аккредитованной IT компании;
•Официальное трудоустройство по ТК РФ;
•Амбициозные задачи и проекты;
•Неограниченные возможности профессионального и карьерного роста;
•Работа в команде профессионалов и просто хороших людей, которые всегда готовы помочь и поддержать;
•Подключение к программе ДМС (включает стоматологию, обследования, лечение заболеваний и т.д.);
•Предоставление корпоративной техники;
•Корпоративное обучение и развитие (портал обучения и развития с удаленным доступом 24/7; собственный Центр развития компетенций);
•Оплата внешнего обучения и профильных курсов;
•Насыщенная корпоративная жизнь: яркие корпоративы, праздники для детей сотрудников, спортивные мероприятия и т.д.
📮Жду резюме в личные сообщения ❤️:
Telegram @Liubov_Neoflex (Любовь)
Data Engineer/Data Analyst
✅Компания "Neoflex"
создает ИТ-платформы для цифровой трансформации бизнеса;
являемся аккредитованной IT компанией.
✅Вилка зп: От 200.000 до 345.000 руб.;
✅Локация: Гибрид/офис (Москва, Санкт-Петербург, Нижний Новгород, Воронеж, Пенза, Саратов, Самара, Краснодар) или полная удалёнка с территории РФ;
✅Занятость: Полная 5/2;
✅Условия: Оформление по ТК РФ;
✅Вам предстоит:
•Участие в проекте по разработке DWH в Greenplum по методологии Data Vault;
•Взаимодействие с бизнес-подразделениями и ИТ-командами для определения потребностей использования данных хранилища, с целью развития модели хранилища;
•Проектирование и описание модели данных детальных слоев корпоративного хранилища;
•Разработка стандартов проектирования детальных слоев хранилища, загрузки, хранения и доступа к данным, контроль за соблюдением стандартов;
•Анализ и декомпозиция задач в сложных проектах по развитию хранилища, оценка трудозатрат, сроков и рисков. Проработка концептов загрузки данных в хранилище;
•Согласование алгоритмов и маппингов, подготовленных командами, обеспечивающими загрузку данных в хранилище;
•Контроль целостности и консистентности модели, контроль качества функционала загрузки данных в хранилища. Участие в приемо-сдаточных испытаниях;
•Анализ и выявление корневых причин возникновения ошибок, разработка концепций и мероприятий по их устранению;
•Экспертная поддержка бизнес-пользователей, потребителей данных, аналитиков и разработчиков ИТ команд, обеспечивающих загрузку данных. Консультирование по ассортименту данных в хранилище и особенностям использования данных.
✅Мы ожидаем что у Вас есть:
•Уверенное знание SQL и опыт работы с СУБД (PostgreSQL, GreenPlum);
•Опыт проектирования логических и физических моделей хранилищ данных (Data Vault) или участие в проектах по автоматизации отчетности на базе хранилища данных;
•Знание архитектуры хранилища данных и методов моделирования данных;
•Опыт работы с ETL - оркестратором (Airflow);
•Знание основ банковского бухгалтерского учета (будет плюсом);
•Опыт работы c гибкими проектными методологиями (agile, scrum, kanban).
✅Мы предлагаем:
•Работа в аккредитованной IT компании;
•Официальное трудоустройство по ТК РФ;
•Амбициозные задачи и проекты;
•Неограниченные возможности профессионального и карьерного роста;
•Работа в команде профессионалов и просто хороших людей, которые всегда готовы помочь и поддержать;
•Подключение к программе ДМС (включает стоматологию, обследования, лечение заболеваний и т.д.);
•Предоставление корпоративной техники;
•Корпоративное обучение и развитие (портал обучения и развития с удаленным доступом 24/7; собственный Центр развития компетенций);
•Оплата внешнего обучения и профильных курсов;
•Насыщенная корпоративная жизнь: яркие корпоративы, праздники для детей сотрудников, спортивные мероприятия и т.д.
📮Жду резюме в личные сообщения ❤️:
Telegram @Liubov_Neoflex (Любовь)
#ETL, #data_engineer, #ML, #Highload #BigData #Fulltime
вилка: 300 000 – 450 000 руб.
XLabs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ.
Приглашаем тебя стать частью нашей команды, где у каждого есть шанс воплотить свои идеи и создавать что-то по-настоящему важное. Давай вместе работать, придумывать новое и строить будущее ИИ!
P.S. Если ты работал с BigData и знаешь, что такое шардинг, то тебе точно к нам 🙂
Стек технологий: Python, MongoDB, Redis, S3, SQL, AirFlow, Git, Docker, K8s, dvc
💻 Чем предстоит заниматься:
- Разработка собственного Data Catalog;
- Разработка хранилища данных для обучения Gen AI моделей;
- Разработка и поддержка ETL процессов на Python и Spark с использованием популярных фреймворков (Airflow);
- Разработка дата-тестов для валидации данных;
- Работа с различными системами хранения (MongoDB, Redis, S3).
✏️ Чего мы от тебя ждем:
- Высоких навыков промышленной разработки на Python;
- Понимания основ ML и нейронных сетей;
- Опыта сбора и фильтрации данных для ML моделей (NLP, Video, Audio);
- Опыта работы с S3, AirFlow, dvc;
- Опыта выстраивания и оптимизации ETL-процессов;
- Готовности брать инициативу;
- Мотивируешься смелыми вызовами и нестандартными задачами.
✨ Будет плюсом:
- Опыт работы с большими объёмами данных (>10Tb)
❤️ Что мы предлагаем:
- Сильную команду, с которой можно расти;
- Работу над задачами, которые до тебя никто не решал;
- Возможность попробовать себя в разных модальностях (NLP, Video, Audio);
- Highload и своя инфраструктура;
- Комфортный офис в Москва-Сити или в Минске;
- Корпоративную технику и все необходимое для работы.
- Гибкое начало рабочего дня;
- Sick days;
- ДМС;
Хочешь узнать подробнее? Пиши напрямую 🐭 @dzherry
вилка: 300 000 – 450 000 руб.
XLabs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ.
Приглашаем тебя стать частью нашей команды, где у каждого есть шанс воплотить свои идеи и создавать что-то по-настоящему важное. Давай вместе работать, придумывать новое и строить будущее ИИ!
P.S. Если ты работал с BigData и знаешь, что такое шардинг, то тебе точно к нам 🙂
Стек технологий: Python, MongoDB, Redis, S3, SQL, AirFlow, Git, Docker, K8s, dvc
💻 Чем предстоит заниматься:
- Разработка собственного Data Catalog;
- Разработка хранилища данных для обучения Gen AI моделей;
- Разработка и поддержка ETL процессов на Python и Spark с использованием популярных фреймворков (Airflow);
- Разработка дата-тестов для валидации данных;
- Работа с различными системами хранения (MongoDB, Redis, S3).
✏️ Чего мы от тебя ждем:
- Высоких навыков промышленной разработки на Python;
- Понимания основ ML и нейронных сетей;
- Опыта сбора и фильтрации данных для ML моделей (NLP, Video, Audio);
- Опыта работы с S3, AirFlow, dvc;
- Опыта выстраивания и оптимизации ETL-процессов;
- Готовности брать инициативу;
- Мотивируешься смелыми вызовами и нестандартными задачами.
✨ Будет плюсом:
- Опыт работы с большими объёмами данных (>10Tb)
❤️ Что мы предлагаем:
- Сильную команду, с которой можно расти;
- Работу над задачами, которые до тебя никто не решал;
- Возможность попробовать себя в разных модальностях (NLP, Video, Audio);
- Highload и своя инфраструктура;
- Комфортный офис в Москва-Сити или в Минске;
- Корпоративную технику и все необходимое для работы.
- Гибкое начало рабочего дня;
- Sick days;
- ДМС;
Хочешь узнать подробнее? Пиши напрямую 🐭 @dzherry
💊2👍1
#вакансия #vacancy #data_engineer #DE #senior #remote #fulltime #english
Вакансия: Senior Data Engineer
Формат: Удалённый
Занятость: Полная
Оплата: 4000 - 5000$ net.
Ptolemay - аутсорсинговая IT-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Senior Data Engineer для аустафф-проекта по разработке, эксплуатации и сопровождению инфраструктуры обработки данных на инженерное предприятие.
Задачи:
- Сотрудничать с межфункциональными командами для разработки и внедрения масштабируемых и эффективных архитектур данных.
- Проектировать, разрабатывать и поддерживать надежные процессы ETL для обеспечения бесперебойного потока данных из различных источников.
- Писать, тестировать и поддерживать качественный программный код.
- Планировать, отслеживать и составлять отчеты о ходе выполнения задач и проектов, обеспечивать соблюдение сроков и достижения целей проекта.
- Управлять запросами на сбор данных в платформу данных и через нее для поддержки их бизнес-вариантов использования.
Требования:
- Опыт работы в области разработки данных от 5 лет, включая опыт на руководящей роли от 1 года.
- Знание английского языка не ниже B2-уровня.
- Опыт работы как минимум с одной технологией обработки Big Data (например, Hive, Hadoop, Presto или Snowflake).
- Сильные технические навыки в Python, Pyspark и SQL.
- Значительный опыт работы с процессами ETL с архитектурами Data Lake и Data Warehouse.
- Знание технологии документооборота (например, Airflow).
- Опыт работы с конвейерами CI/CD, модульными и интеграционными тестами, а также мониторингом и оповещением приложений.
- Владение методологиями гибкой разработки, включая Scrum и/или Kanban.
Будет плюсом:
- Практический опыт работы с Hive, Presto, Airflow, Qubole, EMR и сторонними API.
- Знакомство с сервисами AWS, такими как EC2, RDS и S3.
- Знакомство с инструментами визуализации, такими как Domo.
- Опыт работы с инструментами мониторинга и устранения неполадок AWS.
- Использование генеративного ИИ для оказания помощи в SDLC ПО.
- Знание концепций и приложений машинного обучения.
Условия:
- Удалённый формат работы.
- Полная занятость.
- Гибкий график.
- Оформление по ИП, СМЗ.
- Оплата 4000 - 5000$ net по результатам собеседования.
Буду рад ответить на вопросы и ознакомиться с резюме: @Dmitriy_Ptolemay
Вакансия: Senior Data Engineer
Формат: Удалённый
Занятость: Полная
Оплата: 4000 - 5000$ net.
Ptolemay - аутсорсинговая IT-компания полного цикла по разработке мобильных и веб-приложений для бизнеса и стартапов. Ищем Senior Data Engineer для аустафф-проекта по разработке, эксплуатации и сопровождению инфраструктуры обработки данных на инженерное предприятие.
Задачи:
- Сотрудничать с межфункциональными командами для разработки и внедрения масштабируемых и эффективных архитектур данных.
- Проектировать, разрабатывать и поддерживать надежные процессы ETL для обеспечения бесперебойного потока данных из различных источников.
- Писать, тестировать и поддерживать качественный программный код.
- Планировать, отслеживать и составлять отчеты о ходе выполнения задач и проектов, обеспечивать соблюдение сроков и достижения целей проекта.
- Управлять запросами на сбор данных в платформу данных и через нее для поддержки их бизнес-вариантов использования.
Требования:
- Опыт работы в области разработки данных от 5 лет, включая опыт на руководящей роли от 1 года.
- Знание английского языка не ниже B2-уровня.
- Опыт работы как минимум с одной технологией обработки Big Data (например, Hive, Hadoop, Presto или Snowflake).
- Сильные технические навыки в Python, Pyspark и SQL.
- Значительный опыт работы с процессами ETL с архитектурами Data Lake и Data Warehouse.
- Знание технологии документооборота (например, Airflow).
- Опыт работы с конвейерами CI/CD, модульными и интеграционными тестами, а также мониторингом и оповещением приложений.
- Владение методологиями гибкой разработки, включая Scrum и/или Kanban.
Будет плюсом:
- Практический опыт работы с Hive, Presto, Airflow, Qubole, EMR и сторонними API.
- Знакомство с сервисами AWS, такими как EC2, RDS и S3.
- Знакомство с инструментами визуализации, такими как Domo.
- Опыт работы с инструментами мониторинга и устранения неполадок AWS.
- Использование генеративного ИИ для оказания помощи в SDLC ПО.
- Знание концепций и приложений машинного обучения.
Условия:
- Удалённый формат работы.
- Полная занятость.
- Гибкий график.
- Оформление по ИП, СМЗ.
- Оплата 4000 - 5000$ net по результатам собеседования.
Буду рад ответить на вопросы и ознакомиться с резюме: @Dmitriy_Ptolemay
👍3🤣2🤪1