вакансия #аналитик #BigData #МастерДанные #ПродуктыСервисы #ПлатформаОФД
Платформа ОФД | Руководитель исследований и аналитики
Платформа ОФД - это крупнейший в РФ оператор фискальных данных.
Платформа создаёт аналитические сервисы на основе данных из чеков в ритейле.
Команда в поиске Руководителя исследований и аналитики. Он будет реализовывать проекты и создавать новые продукты совместно с DS и DE. Одним из продуктов будет data-каталог товаров и брендов. Сейчас база состоит из 2 млрд. наименований товаров в чеках.
Для работы необходимо понимание подходов и инструментов BigData, опыт категоризации товаров и брендов на стороне ритейла или аналитического агентства.
Руководитель сможет самостоятельно подобрать команду, а также инструменты и подходы для решения задач.
Подробности вакансии здесь (https://bit.ly/3wvxWeW).
✉️ Отклики отправляйте Татьяне @TSimochenko
Платформа ОФД | Руководитель исследований и аналитики
Платформа ОФД - это крупнейший в РФ оператор фискальных данных.
Платформа создаёт аналитические сервисы на основе данных из чеков в ритейле.
Команда в поиске Руководителя исследований и аналитики. Он будет реализовывать проекты и создавать новые продукты совместно с DS и DE. Одним из продуктов будет data-каталог товаров и брендов. Сейчас база состоит из 2 млрд. наименований товаров в чеках.
Для работы необходимо понимание подходов и инструментов BigData, опыт категоризации товаров и брендов на стороне ритейла или аналитического агентства.
Руководитель сможет самостоятельно подобрать команду, а также инструменты и подходы для решения задач.
Подробности вакансии здесь (https://bit.ly/3wvxWeW).
✉️ Отклики отправляйте Татьяне @TSimochenko
👍1
#job #Москва #вакансия #middle #senior #Pythonразработчик #BigData #Pythondeveloper #офис #удаленка #fulltime
Всем привет!
Ищу Middle Python developer на продукт МТС ID SCAN
🥚 Компания: МТС BigData
📍 Локация: г. Москва, м. Технопарк
💰 Зарплатная вилка: 300.000 - 350.000
🖥 Формат: офис/удаленка
Проект: МТС ID SCAN
🛒 Суть продукта:
Сервис МТС ID Scan по верификации работает над подтверждением данных, которые пользователи предоставляют организациям. Наши клиенты – это В2В разных форматов (банки, брокеры, страховые компании и пр.). С нашей помощью процесс проверки пользователей для них составляет 7 секунд. Мы не просто проверяем данные, но и позволяем исправить ошибки при вводе данных, обеспечиваем их актуализацию во внутренних системах клиентов. Вам предстоит работать с big data, API-интеграциями с базами данных, различными способами идентификации пользователей.
📝 Основные задачи:
• Разработка backend-части сервисов;
• Работа с API-интеграциями с базами данных;
• Работа с big data.
❗️Обязательно:
• Опыт разработки на Python от 3 лет;
• Опыт применения Flask, FastApi, Celery;
• Опыт проектирования схем баз данных, хорошие знания SQL (PostreSQL), работа с библиотекой SQL Alchemy;
• Понимание принципов реализации систем мониторинга (Prometheus, Grafana);
• Понимание подходов к тестированию кода и приложений (unit/integration тесты)
❗️Желательно:
• Знакомы с технологиями Big Data (Spark, Hadoop, Hive, Airflow, Kafka)
• Знание процессов непрерывной интеграции и развертывания (GitlabCI, Jenkins, Artifactory).
• Знакомы с NoSQL базами данных
• Знакомство с Kubernetes
• Понимание принципов построения ETL/ELT процессов
• Знакомство с инструментами AirFlow, NiFi, etc
🔝 Условия: зп+аванс, премии (20% от годового оклада), есть система ревью, ДМС со стоматологией, выдаем 16 MacBook Pro, hp или Dell на выбор и многое другое 😉
📲 Пиши: @golyboglazayaaa_99 🙃
@datascienceml_jobs
Всем привет!
Ищу Middle Python developer на продукт МТС ID SCAN
🥚 Компания: МТС BigData
📍 Локация: г. Москва, м. Технопарк
💰 Зарплатная вилка: 300.000 - 350.000
🖥 Формат: офис/удаленка
Проект: МТС ID SCAN
🛒 Суть продукта:
Сервис МТС ID Scan по верификации работает над подтверждением данных, которые пользователи предоставляют организациям. Наши клиенты – это В2В разных форматов (банки, брокеры, страховые компании и пр.). С нашей помощью процесс проверки пользователей для них составляет 7 секунд. Мы не просто проверяем данные, но и позволяем исправить ошибки при вводе данных, обеспечиваем их актуализацию во внутренних системах клиентов. Вам предстоит работать с big data, API-интеграциями с базами данных, различными способами идентификации пользователей.
📝 Основные задачи:
• Разработка backend-части сервисов;
• Работа с API-интеграциями с базами данных;
• Работа с big data.
❗️Обязательно:
• Опыт разработки на Python от 3 лет;
• Опыт применения Flask, FastApi, Celery;
• Опыт проектирования схем баз данных, хорошие знания SQL (PostreSQL), работа с библиотекой SQL Alchemy;
• Понимание принципов реализации систем мониторинга (Prometheus, Grafana);
• Понимание подходов к тестированию кода и приложений (unit/integration тесты)
❗️Желательно:
• Знакомы с технологиями Big Data (Spark, Hadoop, Hive, Airflow, Kafka)
• Знание процессов непрерывной интеграции и развертывания (GitlabCI, Jenkins, Artifactory).
• Знакомы с NoSQL базами данных
• Знакомство с Kubernetes
• Понимание принципов построения ETL/ELT процессов
• Знакомство с инструментами AirFlow, NiFi, etc
🔝 Условия: зп+аванс, премии (20% от годового оклада), есть система ревью, ДМС со стоматологией, выдаем 16 MacBook Pro, hp или Dell на выбор и многое другое 😉
📲 Пиши: @golyboglazayaaa_99 🙃
@datascienceml_jobs
👍1
#удаленка #вакансия #remote #vacancy #bigdata #analyst #systemanalyst #системныйаналитик
📍Вакансия: Системный аналитик Big Data
💼 Компания: Lamoda Tech (https://latech.ru/data)
🌟Уровень: middle+, senior
🌏Локация: удаленка, офис в Москве, коворкинг в Спб
💰Доход: от 200к - обсуждается индивидуально, в зависимости от опыта и навыков
📌 Lamoda Group – это крупнейшая в России и СНГ онлайн-платформа по продаже fashion & lifestyle товаров.
📌 Мы в поиске Системного Аналитика в направление больших данных, который будет участвовать в значимых для инфраструктуры данных проектах.
⚡️ Результатами нашей работы пользуются аналитики, DS-инженеры, маркетинг и другие команды. У нас много разных хранилищ, и неформализованных подходов. Мы хотим прийти к единой системе с понятными правилами, инструментами и набором стандартов.
⚡️ Вы можете стать тем самым человеком, который поможет сделать процесс работы с данными в компании понятным и простым. Конкретно — за счет сбора требований, их формализации и перевода на понятный для команды разработки язык.
⚡️ Работа происходит по двухнедельным спринтам, каждый день есть стендап с командой разработки, по завершению проекта — ретро и демо.
🗂 Какие задачи предстоит решать:
• Участвовать в создании новых подсистем, источников данных и внедрении новых инструментов для работы с данными;
• Перерабатывать текущую архитектуру даталэйка, выделять домены существующих данных, собирать требования к платформе и совместно с тимлидом команды разработки работать над датафлатформой как над продуктом;
• Собирать и формализовывать бизнес-требования;
• Составлять понятную для бизнес-заказчиков документацию на основе требований (сейчас артефакты есть, но они не решают потребности заказчиков в полной мере);
• Вести статус проектов и синхронизироваться с другими командами;
• Собирать от заказчиков обратную связь о полезности и применимости выпущенных командой проектов/задач и обсуждать результаты;
• Совестно с тимлидом команды разработки управлять беклогом;
• Внедрять каталогизацию и культуру работы с данными в компании.
🙏 Наши ожидания:
• Практический опыт разработки технических заданий на программное обеспечение;
• SQL на уровне написания средних запросов;
• Желание развиваться и изучать новые технологии.
👏 Будет плюсом:
• Опыт работы с BigData стеком: Airflow, Trino, Hadoop, Spark;
• Опыт взаимодействия с DS командами.
🚀 Мы предлагаем:
• Гибкий график работы, можно удобно планировать рабочее и личное время, а также работать удаленно;
• Расширенную ДМС программу со стоматологией с первого месяца;
• Скидки на весь каталог сайта Lamoda до 40%;
• Единоразовая выплата в 15 тыс. рублей gross, которая идет в качестве частичной компенсации за обустройство рабочего места;
• Обмен знаниями внутри компании - мы организуем внутренние митапы и являемся площадкой для различных профессиональных сообществ;
• Английский язык: тем, кто регулярно использует его для работы, оплачиваем занятия полностью, остальным — щедрая скидка на языковые курсы SkyEng, Skillbox;
• Возможность посещать конференции в качестве слушателей и докладчиков (для желающих подготовиться к выступлениям с докладами или презентациями у нас есть Speakers Club);
• Вовлеченный в процессы менеджмент: наше руководство понимает и учитывает все особенности IT-разработки и готово услышать ваши крутые идеи;
• Уютный офис в Москве (МЦК Хорошёво/м. Полежаевская) с настольным теннисом, кикером, тренажерным залом и йогой, а также коворкинг в центре Санкт-Петербурга.
📨 Для связи @dummyrider
📍Вакансия: Системный аналитик Big Data
💼 Компания: Lamoda Tech (https://latech.ru/data)
🌟Уровень: middle+, senior
🌏Локация: удаленка, офис в Москве, коворкинг в Спб
💰Доход: от 200к - обсуждается индивидуально, в зависимости от опыта и навыков
📌 Lamoda Group – это крупнейшая в России и СНГ онлайн-платформа по продаже fashion & lifestyle товаров.
📌 Мы в поиске Системного Аналитика в направление больших данных, который будет участвовать в значимых для инфраструктуры данных проектах.
⚡️ Результатами нашей работы пользуются аналитики, DS-инженеры, маркетинг и другие команды. У нас много разных хранилищ, и неформализованных подходов. Мы хотим прийти к единой системе с понятными правилами, инструментами и набором стандартов.
⚡️ Вы можете стать тем самым человеком, который поможет сделать процесс работы с данными в компании понятным и простым. Конкретно — за счет сбора требований, их формализации и перевода на понятный для команды разработки язык.
⚡️ Работа происходит по двухнедельным спринтам, каждый день есть стендап с командой разработки, по завершению проекта — ретро и демо.
🗂 Какие задачи предстоит решать:
• Участвовать в создании новых подсистем, источников данных и внедрении новых инструментов для работы с данными;
• Перерабатывать текущую архитектуру даталэйка, выделять домены существующих данных, собирать требования к платформе и совместно с тимлидом команды разработки работать над датафлатформой как над продуктом;
• Собирать и формализовывать бизнес-требования;
• Составлять понятную для бизнес-заказчиков документацию на основе требований (сейчас артефакты есть, но они не решают потребности заказчиков в полной мере);
• Вести статус проектов и синхронизироваться с другими командами;
• Собирать от заказчиков обратную связь о полезности и применимости выпущенных командой проектов/задач и обсуждать результаты;
• Совестно с тимлидом команды разработки управлять беклогом;
• Внедрять каталогизацию и культуру работы с данными в компании.
🙏 Наши ожидания:
• Практический опыт разработки технических заданий на программное обеспечение;
• SQL на уровне написания средних запросов;
• Желание развиваться и изучать новые технологии.
👏 Будет плюсом:
• Опыт работы с BigData стеком: Airflow, Trino, Hadoop, Spark;
• Опыт взаимодействия с DS командами.
🚀 Мы предлагаем:
• Гибкий график работы, можно удобно планировать рабочее и личное время, а также работать удаленно;
• Расширенную ДМС программу со стоматологией с первого месяца;
• Скидки на весь каталог сайта Lamoda до 40%;
• Единоразовая выплата в 15 тыс. рублей gross, которая идет в качестве частичной компенсации за обустройство рабочего места;
• Обмен знаниями внутри компании - мы организуем внутренние митапы и являемся площадкой для различных профессиональных сообществ;
• Английский язык: тем, кто регулярно использует его для работы, оплачиваем занятия полностью, остальным — щедрая скидка на языковые курсы SkyEng, Skillbox;
• Возможность посещать конференции в качестве слушателей и докладчиков (для желающих подготовиться к выступлениям с докладами или презентациями у нас есть Speakers Club);
• Вовлеченный в процессы менеджмент: наше руководство понимает и учитывает все особенности IT-разработки и готово услышать ваши крутые идеи;
• Уютный офис в Москве (МЦК Хорошёво/м. Полежаевская) с настольным теннисом, кикером, тренажерным залом и йогой, а также коворкинг в центре Санкт-Петербурга.
📨 Для связи @dummyrider
latech.ru
Data & Analytics
Создавай вместе с нами data-driven fashion & lifestyle IT-решения
👍2❤1🤩1
#datascience #bigdata #ai #vacancy #datascientistjobs #remote #fulltimejob
Нужен DATA SCIENTIST в кор команду разработки системы менеджмента производства на базе AI (BigData и нейросети). У команды большой опыт в IT, а у проекта нет конкурентов, зато есть большие перспективы🙂.
Ребята ищут Дата Сатаниста с общим опытом в сфере от 3 лет. Живого и легкого в общении )
Задачи:
- анализ процессов на производстве заказчика;
- генерирование идей и их реализация для решения задач компьютерного зрения и машинного обучения;
- осуществление полного цикла разработки модели от постановки эксперимента до выкатывания в продакшн.
Стек: Python, PostgreSQL; CV (YOLO, ResNet, др.); ОС Linux, Git, Docker. Опыт работы с нейросетями/AI, опыт решения задач классификации, детекции, сегментации, трекинга для изображений.
😎 Условия: зп до 300.000 руб., оформление по ТК РФ или как самозанятый, ремоут !!!из РФ (часовая зона +/- 2 часа от Мск).
За подробностями пиши в @lalla_dallas. Расскажи друзьям — возможно, это то, что они ищут 💚
Нужен DATA SCIENTIST в кор команду разработки системы менеджмента производства на базе AI (BigData и нейросети). У команды большой опыт в IT, а у проекта нет конкурентов, зато есть большие перспективы🙂.
Ребята ищут Дата Сатаниста с общим опытом в сфере от 3 лет. Живого и легкого в общении )
Задачи:
- анализ процессов на производстве заказчика;
- генерирование идей и их реализация для решения задач компьютерного зрения и машинного обучения;
- осуществление полного цикла разработки модели от постановки эксперимента до выкатывания в продакшн.
Стек: Python, PostgreSQL; CV (YOLO, ResNet, др.); ОС Linux, Git, Docker. Опыт работы с нейросетями/AI, опыт решения задач классификации, детекции, сегментации, трекинга для изображений.
😎 Условия: зп до 300.000 руб., оформление по ТК РФ или как самозанятый, ремоут !!!из РФ (часовая зона +/- 2 часа от Мск).
За подробностями пиши в @lalla_dallas. Расскажи друзьям — возможно, это то, что они ищут 💚
👍3👎3🤔3
#remote #удаленка #вакансия #de #dataengineer #датаинженер #bigdata
⚙️ Дата-инженер
❗️ Локация: любая
Гражданство: РФ
Рейт: до 1700 руб/час
Занятость: полная
Срок проекта: от 1 года
Оформление: ИП
Привет! Меня зовут Вячеслав. И я представляю группу компаний Top Selection.
В данный момент мы в поиске Дата-инженера на долгосрочный проект.
📌 Задачи:
• Разработка архитектуры доставки, хранения и обработки данных (РСУБД, NoSQL) в зависимости от требований бизнеса.
• Проектирование модели данных, построение аналитических витрин для операционной аналитики и интерактивного дашборда.
• Оптимизация существующих процессов обработки данных, решение проблем, связанных с задержками доставки данных Визуализация данных (Superset).
• Оптимизация аналитической отчетности (Superset).
🎯 Требования:
• Уверенное знание Java.
• Опыт работы с БД (РСУБД, NoSQL): PostgreSQL, Clickhouse, HBase.
• Опыт разработки процессов загрузки и обработки данных из распределённых хранилищ.
• Уверенные знания SQL: агрегации, джойны, вложенные запросы, оптимизация запросов.
👍 Будет плюсом - Опыт работы с BI-системами.
Технологический стек продукта (as-is):
- Хранение: Hbase, Clickhouse, PostgreSQL;
- ETL: Java,bash, Phoenix;
- Визуализация: Jasperserver;
Технологический стек продукта (будущий):
- Хранение: YTsaurus, PostgreSQL;
- ETL: Java, YQL;
- Визуализация: Superset;
Условия:
• Работа в крупной и стабильной IT компании.
• Удаленный формат работы - возможность работать из любой точки мира.
• Профессиональный и дружный коллектив.
👌 За подробностями, прошу в лс.
Контакты: @tenedius
⚙️ Дата-инженер
❗️ Локация: любая
Гражданство: РФ
Рейт: до 1700 руб/час
Занятость: полная
Срок проекта: от 1 года
Оформление: ИП
Привет! Меня зовут Вячеслав. И я представляю группу компаний Top Selection.
В данный момент мы в поиске Дата-инженера на долгосрочный проект.
📌 Задачи:
• Разработка архитектуры доставки, хранения и обработки данных (РСУБД, NoSQL) в зависимости от требований бизнеса.
• Проектирование модели данных, построение аналитических витрин для операционной аналитики и интерактивного дашборда.
• Оптимизация существующих процессов обработки данных, решение проблем, связанных с задержками доставки данных Визуализация данных (Superset).
• Оптимизация аналитической отчетности (Superset).
🎯 Требования:
• Уверенное знание Java.
• Опыт работы с БД (РСУБД, NoSQL): PostgreSQL, Clickhouse, HBase.
• Опыт разработки процессов загрузки и обработки данных из распределённых хранилищ.
• Уверенные знания SQL: агрегации, джойны, вложенные запросы, оптимизация запросов.
👍 Будет плюсом - Опыт работы с BI-системами.
Технологический стек продукта (as-is):
- Хранение: Hbase, Clickhouse, PostgreSQL;
- ETL: Java,bash, Phoenix;
- Визуализация: Jasperserver;
Технологический стек продукта (будущий):
- Хранение: YTsaurus, PostgreSQL;
- ETL: Java, YQL;
- Визуализация: Superset;
Условия:
• Работа в крупной и стабильной IT компании.
• Удаленный формат работы - возможность работать из любой точки мира.
• Профессиональный и дружный коллектив.
👌 За подробностями, прошу в лс.
Контакты: @tenedius
👎9😁3👍2
#vacancy #job #вакансия #гибрид #devops #middle #fulltime #BigData #NLP #ML #devopsBigData #девопс
Вакансия: Devops
Компания: НИУ ВШЭ
Проект: iFORA
Опыт работы: от 3 лет
Город: Москва
Формат работы: удаленка или гибрид
Занятость: full time
Зп: 350 000 - 450 000 гросс (middle), обсуждаемо
🔥 iFORA - интеллектуальная система анализа больших данных (собственная разработка ИСИЭЗ НИУ ВШЭ). Система позволяет анализировать более 750 млн документов из уникальной коллекции (научные статьи, патенты, медиа и др.) для поддержки принятия стратегических решений.
Мы приглашаем в нашу команду Devops для работы над проектом по созданию системы анализа данных.
📌 Чем придется заниматься у нас:
▪️Разворачивать on-prem/cloud/docker swarm/k8s сервисы придерживаясь принципов AaaC (Anything as a code);
▪️ Следить и настраивать SSL сертификаты, домены и тд;
▪️ Разрабатывать ansible, docker, python, shell, terraform сценарии и модули для развёртывания и инициализации сервисов;
▪️Настраивать мониторинг (grafana, prometheus, zabbix), вместе с разработчиками искать и устранять узкие места в производительности (debug/profiling/trobleshooting);
▪️Разрабатывать CI/CD pipelines (gitlab) для сборки ПО (nexus, sonar, pdm, mattermost), развёртывания/инициализации сервисов;
▪️Взаимодействовать с внешними и внутренними командами (data analytics/engineers/scientists), сбор и анализ требований;
▪️Работать с data ориентированным стеком технологии: airflow, clickhouse, jupyter, postgres, spark и т.д.
📌 Мы ожидаем от Вас:
▪️Опыт: Ansible, Terraform, Python/Go, VK Cloud, Docker(Swarm) или K8S, postgresql, jenkins, prometheus, grafana, youtrack, gitlab, jupyterhub, sonarqube, nginx, rabbitmq
▪️Понимание как работает виртуализация и сеть.
📌 Что мы предлагаем Вам:
▪️Интересная работа и масштабный проект;
▪️Обучение (семинары, курсы, тренинги от НИУ ВШЭ, английский);
▪️График работы: полная удаленка или гибридный формат, гибкое время начало рабочего дня с 8.00 до 11.00;
▪️ДМС;
▪️Программы лояльности от крупнейших фитнес-клубов и театров Москвы;
▪️Доступ к регулярно обновляющейся библиотеке НИУ ВШЭ, а также электронным и аудиокнигам издательства «МИФ»;
▪️ Офис в шаговой доступности от лучших кофеен и книжных Москвы на Мясницкой (скидки в «Даблби», «Ska vi fika?» и «Буквышка» при предъявлении пропуска НИУ ВШЭ).
✅ Контакт для связи: @Anastasia_R_HR 🥰
Вакансия: Devops
Компания: НИУ ВШЭ
Проект: iFORA
Опыт работы: от 3 лет
Город: Москва
Формат работы: удаленка или гибрид
Занятость: full time
Зп: 350 000 - 450 000 гросс (middle), обсуждаемо
Мы приглашаем в нашу команду Devops для работы над проектом по созданию системы анализа данных.
▪️Разворачивать on-prem/cloud/docker swarm/k8s сервисы придерживаясь принципов AaaC (Anything as a code);
▪️ Следить и настраивать SSL сертификаты, домены и тд;
▪️ Разрабатывать ansible, docker, python, shell, terraform сценарии и модули для развёртывания и инициализации сервисов;
▪️Настраивать мониторинг (grafana, prometheus, zabbix), вместе с разработчиками искать и устранять узкие места в производительности (debug/profiling/trobleshooting);
▪️Разрабатывать CI/CD pipelines (gitlab) для сборки ПО (nexus, sonar, pdm, mattermost), развёртывания/инициализации сервисов;
▪️Взаимодействовать с внешними и внутренними командами (data analytics/engineers/scientists), сбор и анализ требований;
▪️Работать с data ориентированным стеком технологии: airflow, clickhouse, jupyter, postgres, spark и т.д.
▪️Опыт: Ansible, Terraform, Python/Go, VK Cloud, Docker(Swarm) или K8S, postgresql, jenkins, prometheus, grafana, youtrack, gitlab, jupyterhub, sonarqube, nginx, rabbitmq
▪️Понимание как работает виртуализация и сеть.
▪️Интересная работа и масштабный проект;
▪️Обучение (семинары, курсы, тренинги от НИУ ВШЭ, английский);
▪️График работы: полная удаленка или гибридный формат, гибкое время начало рабочего дня с 8.00 до 11.00;
▪️ДМС;
▪️Программы лояльности от крупнейших фитнес-клубов и театров Москвы;
▪️Доступ к регулярно обновляющейся библиотеке НИУ ВШЭ, а также электронным и аудиокнигам издательства «МИФ»;
▪️ Офис в шаговой доступности от лучших кофеен и книжных Москвы на Мясницкой (скидки в «Даблби», «Ska vi fika?» и «Буквышка» при предъявлении пропуска НИУ ВШЭ).
Please open Telegram to view this post
VIEW IN TELEGRAM
Международная компания с собственной digital-платформой игровой тематики находится в поисках сотрудника на позицию «Middle Data Scientist».
#резюме #удалёнка #python #sql #betting #gambling #анализ #ml #машинноеобучение
#bigdata #pytorch #git #recsys #разработка
Требования:
Опыт работы аналитиком от 2 лет;
Уверенно владеете python (классический аналитический стек + ML) и SQL (у нас кликхаус);
Владеете углубленными знаниями математической статистики и теории вероятностей;
Умеете работать с большими массивами данных (собирать, структурировать, готовить визуально понятный вывод итогов);
Чем предстоит заниматься:
Разработка ML-моделей — задачи классификации, регрессии, ранжирования;
Исследование данных (поиск инсайтов, закономерностей, проблем с данными);
Подготовка метрик, дашбордов, алертов по результатам работы моделей и бизнеса;
Подготовка витрин данных для применения и обучения моделей;
Формирование продуктовых гипотез и их проверка.
Условия:
Возможность работать удаленно из любой точки мира или в офисе (Москва, Кипр);
Оформление в штат компании и не только;
Возможность получать зп в любой валюте;
Плавающее начало дня, 8 часов рабочий день;
Выдача оборудования для работы;
Программа наставничества;
Performance review, на котором мы поможем тебе выстроить цели;
Разнообразные корпоративные программы: английский, мастер-классы, развлечения и отдых;
ЗП до 4500 €
Отправляйте резюме - @HR_RAA🌸
#резюме #удалёнка #python #sql #betting #gambling #анализ #ml #машинноеобучение
#bigdata #pytorch #git #recsys #разработка
Требования:
Опыт работы аналитиком от 2 лет;
Уверенно владеете python (классический аналитический стек + ML) и SQL (у нас кликхаус);
Владеете углубленными знаниями математической статистики и теории вероятностей;
Умеете работать с большими массивами данных (собирать, структурировать, готовить визуально понятный вывод итогов);
Чем предстоит заниматься:
Разработка ML-моделей — задачи классификации, регрессии, ранжирования;
Исследование данных (поиск инсайтов, закономерностей, проблем с данными);
Подготовка метрик, дашбордов, алертов по результатам работы моделей и бизнеса;
Подготовка витрин данных для применения и обучения моделей;
Формирование продуктовых гипотез и их проверка.
Условия:
Возможность работать удаленно из любой точки мира или в офисе (Москва, Кипр);
Оформление в штат компании и не только;
Возможность получать зп в любой валюте;
Плавающее начало дня, 8 часов рабочий день;
Выдача оборудования для работы;
Программа наставничества;
Performance review, на котором мы поможем тебе выстроить цели;
Разнообразные корпоративные программы: английский, мастер-классы, развлечения и отдых;
ЗП до 4500 €
Отправляйте резюме - @HR_RAA🌸
🔥4❤1👍1
#Вакансии, #Hadoop, #Python, #Spark, #Airflow #BigData
Компания: ГК Иннотех + совместительство в ПАО ВТБ
Позиции: 1. Разработчик BigData, 2. Системный аналитик (Витрины данных)
Формат работы: удаленный на территории РФ, по желанию выход в офисы в Москве, СПб и др. городах РФ
В кластер витрин требуются разработчики и аналитики. Работа с витринами Розничного кредитного конвейера ВТБ. Миграции на импортозамещенное хранилище, Arenadata Hadoop, инструменты devops.
Позиция: Разработчик BigData
Специализация: Hadoop, ETL, Python/Spark /контейнеры
Обязанности: Выполнение функциональных обязанностей в рамках реализации проектов ВТБ:
- реализация интеграций в гетерогенной среде с помощью Python/Spark
- ETL
- Работа с Airflow, написание кастомных операторов, формирование дагов
- Оптимизация дагов
- Оптимизация существующего кода
- Базовые знания работы Kerberos
- Разработка и поддержка платформы исполнения моделей.
Требования Опыт реализации интеграции в гетерогенных средах
- Понимание и опыт работы со средствами экосистемы технологий Hadoop;
- Знание Python (Spark)
- Знание Apache Airflow
- Знание Apache Kafka
- Знание Docker
- Опыт решения ETL/data engineering задач
Приветствуется - Приветствуется опыт работы с REST сервисами
- Разработка микросервисов для внутренних инфраструктурных задач;
- Опыт работы с Grafana, разработка мониторинга на Grafana;
- Опыт построения Devops-инфраструктуры:
- знание и опыт администрирования Linux-систем;
- опыт работы с Openshift\Kubernetes;
- понимание концепций построения CI/CD, опыт проектирования и построения CI/CD pipeline, управление процессом сборки и развертывания ПО;
- опыт построения фреймворков с нуля
Позиция: Системный аналитик (Витрины данных)
Специализация Системный анализ
Обязанности - Сбор, анализ, формализация требований
- Подготовка технической документации
- Оценка трудоемкости работ
- Исследование источников данных
- Составление и доработка маппингов
- Построение прототипов витрин согласно бизнес-требованиям
- Проверка качества данных в прототипах
- Постановка задач разработчикам
- Участие в тестировании результатов
Требования - Опыт работы с хранилищами данных (DWH), витринами от одного года – факты, снежинки, звезды и т.д..
- Отличное знание SQL, большим плюсом будет опыт работы с Hadoop (Impala/Hive), Python
- Опыт разработки технической документации.
- Умение структурировать и описывать требования по их автоматизации,
- Умение профилировать источники данных, выявлять закономерности
- Участие в тестировании и в технической приемке разработанного функционала
Обсудить подробнее: @IvanZagrebin
Компания: ГК Иннотех + совместительство в ПАО ВТБ
Позиции: 1. Разработчик BigData, 2. Системный аналитик (Витрины данных)
Формат работы: удаленный на территории РФ, по желанию выход в офисы в Москве, СПб и др. городах РФ
В кластер витрин требуются разработчики и аналитики. Работа с витринами Розничного кредитного конвейера ВТБ. Миграции на импортозамещенное хранилище, Arenadata Hadoop, инструменты devops.
Позиция: Разработчик BigData
Специализация: Hadoop, ETL, Python/Spark /контейнеры
Обязанности: Выполнение функциональных обязанностей в рамках реализации проектов ВТБ:
- реализация интеграций в гетерогенной среде с помощью Python/Spark
- ETL
- Работа с Airflow, написание кастомных операторов, формирование дагов
- Оптимизация дагов
- Оптимизация существующего кода
- Базовые знания работы Kerberos
- Разработка и поддержка платформы исполнения моделей.
Требования Опыт реализации интеграции в гетерогенных средах
- Понимание и опыт работы со средствами экосистемы технологий Hadoop;
- Знание Python (Spark)
- Знание Apache Airflow
- Знание Apache Kafka
- Знание Docker
- Опыт решения ETL/data engineering задач
Приветствуется - Приветствуется опыт работы с REST сервисами
- Разработка микросервисов для внутренних инфраструктурных задач;
- Опыт работы с Grafana, разработка мониторинга на Grafana;
- Опыт построения Devops-инфраструктуры:
- знание и опыт администрирования Linux-систем;
- опыт работы с Openshift\Kubernetes;
- понимание концепций построения CI/CD, опыт проектирования и построения CI/CD pipeline, управление процессом сборки и развертывания ПО;
- опыт построения фреймворков с нуля
Позиция: Системный аналитик (Витрины данных)
Специализация Системный анализ
Обязанности - Сбор, анализ, формализация требований
- Подготовка технической документации
- Оценка трудоемкости работ
- Исследование источников данных
- Составление и доработка маппингов
- Построение прототипов витрин согласно бизнес-требованиям
- Проверка качества данных в прототипах
- Постановка задач разработчикам
- Участие в тестировании результатов
Требования - Опыт работы с хранилищами данных (DWH), витринами от одного года – факты, снежинки, звезды и т.д..
- Отличное знание SQL, большим плюсом будет опыт работы с Hadoop (Impala/Hive), Python
- Опыт разработки технической документации.
- Умение структурировать и описывать требования по их автоматизации,
- Умение профилировать источники данных, выявлять закономерности
- Участие в тестировании и в технической приемке разработанного функционала
Обсудить подробнее: @IvanZagrebin
👍2❤1🍌1
#ETL, #data_engineer, #ML, #Highload #BigData #Fulltime
вилка: 300 000 – 450 000 руб.
XLabs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ.
Приглашаем тебя стать частью нашей команды, где у каждого есть шанс воплотить свои идеи и создавать что-то по-настоящему важное. Давай вместе работать, придумывать новое и строить будущее ИИ!
P.S. Если ты работал с BigData и знаешь, что такое шардинг, то тебе точно к нам 🙂
Стек технологий: Python, MongoDB, Redis, S3, SQL, AirFlow, Git, Docker, K8s, dvc
💻 Чем предстоит заниматься:
- Разработка собственного Data Catalog;
- Разработка хранилища данных для обучения Gen AI моделей;
- Разработка и поддержка ETL процессов на Python и Spark с использованием популярных фреймворков (Airflow);
- Разработка дата-тестов для валидации данных;
- Работа с различными системами хранения (MongoDB, Redis, S3).
✏️ Чего мы от тебя ждем:
- Высоких навыков промышленной разработки на Python;
- Понимания основ ML и нейронных сетей;
- Опыта сбора и фильтрации данных для ML моделей (NLP, Video, Audio);
- Опыта работы с S3, AirFlow, dvc;
- Опыта выстраивания и оптимизации ETL-процессов;
- Готовности брать инициативу;
- Мотивируешься смелыми вызовами и нестандартными задачами.
✨ Будет плюсом:
- Опыт работы с большими объёмами данных (>10Tb)
❤️ Что мы предлагаем:
- Сильную команду, с которой можно расти;
- Работу над задачами, которые до тебя никто не решал;
- Возможность попробовать себя в разных модальностях (NLP, Video, Audio);
- Highload и своя инфраструктура;
- Комфортный офис в Москва-Сити или в Минске;
- Корпоративную технику и все необходимое для работы.
- Гибкое начало рабочего дня;
- Sick days;
- ДМС;
Хочешь узнать подробнее? Пиши напрямую 🐭 @dzherry
вилка: 300 000 – 450 000 руб.
XLabs AI — это команда, которая живет машинным обучением и нейронными сетями. Мы создаем и внедряем крутые решения, которые двигают границы возможного и вдохновляют на новые свершения. У нас уже есть линейка продуктов, которые влияют на развитие генеративного ИИ.
Приглашаем тебя стать частью нашей команды, где у каждого есть шанс воплотить свои идеи и создавать что-то по-настоящему важное. Давай вместе работать, придумывать новое и строить будущее ИИ!
P.S. Если ты работал с BigData и знаешь, что такое шардинг, то тебе точно к нам 🙂
Стек технологий: Python, MongoDB, Redis, S3, SQL, AirFlow, Git, Docker, K8s, dvc
💻 Чем предстоит заниматься:
- Разработка собственного Data Catalog;
- Разработка хранилища данных для обучения Gen AI моделей;
- Разработка и поддержка ETL процессов на Python и Spark с использованием популярных фреймворков (Airflow);
- Разработка дата-тестов для валидации данных;
- Работа с различными системами хранения (MongoDB, Redis, S3).
✏️ Чего мы от тебя ждем:
- Высоких навыков промышленной разработки на Python;
- Понимания основ ML и нейронных сетей;
- Опыта сбора и фильтрации данных для ML моделей (NLP, Video, Audio);
- Опыта работы с S3, AirFlow, dvc;
- Опыта выстраивания и оптимизации ETL-процессов;
- Готовности брать инициативу;
- Мотивируешься смелыми вызовами и нестандартными задачами.
✨ Будет плюсом:
- Опыт работы с большими объёмами данных (>10Tb)
❤️ Что мы предлагаем:
- Сильную команду, с которой можно расти;
- Работу над задачами, которые до тебя никто не решал;
- Возможность попробовать себя в разных модальностях (NLP, Video, Audio);
- Highload и своя инфраструктура;
- Комфортный офис в Москва-Сити или в Минске;
- Корпоративную технику и все необходимое для работы.
- Гибкое начало рабочего дня;
- Sick days;
- ДМС;
Хочешь узнать подробнее? Пиши напрямую 🐭 @dzherry
💊2👍1
#вакансия #productmanager #product #bigdata #гибрид #москва
Вакансия: Product manager (Big Data)
Компания: Atsearch Group
Локация: РФ, удаленно, часовой пояс мск
Контакты:✈️ @Cherkashina_Irina
Зарплатные ожидания: 250 000-320 000 gross
Что нужно делать:
Создавать новые продукты Big Data для поиска новых ниш применения продуктов аналитики больших данных;
Развивать существующие продукты Big Data с целью роста эффекта от монетизации и сокращения затрат на сопровождение;
Планировать и производить контроль разработки продуктов в роли Product Owner, планировать инвестиции в продукты, контролировать маржинальности продуктовой команды и отдельных продуктов;
Формировать и защищать стратегии развития продуктового направления, а также контролировать реализацию стратегии;
Взаимодействовать с клиентами для выявления потребностей в продуктах Big Data, проводить глубинные интервью; Выстраивать долгосрочные отношения с партнерами по созданию продуктов;
Продвигать продукты Big Data. Проводить обучения для продавцов и пресейлов, выступать на внешних конференциях/митапах;
Для нас важно:
Опыт работы с большими данными;
Дополнительное образование / курсы в области проектного управления или развития продуктов - будет преимуществом.
Опыт самостоятельного развития продуктов;
Высшее техническое или экономическое образование (желательно);
Опыт управления проектами;
Опыт работы с Agile (Scrum, Kanban);
Опыт работы в Телекоме как конкурентное преимущество;
Понимание принципов машинного обучения будет плюсом.
Что предлагаем:
Оформление по ТК РФ;
Расширенный ДМС, страхование от несчастных случаев и страхование жизни сразу после трудоустройства;
Корпоративная мобильная связь;
Гибридный график работы после испытательного срока по согласованию с руководителем;
Возможность получить помощь опытных психологов, финансистов и юристов по важным жизненным вопросам;
Материальная помощь при рождении ребенка, вступлении в брак и т. п.;
Возможность выбирать льготы, которые действительно нужны: уровень ДМС, компенсация занятий спортом, массаж, чекап здоровья, изучение иностранных языков и многое другое после трёх месяцев работы;
Широкие возможности для обучения, в том числе возможность изучить новые навыки и технологии вместе с лучшими провайдерами профессионального образования;
Вакансия: Product manager (Big Data)
Компания: Atsearch Group
Локация: РФ, удаленно, часовой пояс мск
Контакты:
Зарплатные ожидания: 250 000-320 000 gross
Что нужно делать:
Создавать новые продукты Big Data для поиска новых ниш применения продуктов аналитики больших данных;
Развивать существующие продукты Big Data с целью роста эффекта от монетизации и сокращения затрат на сопровождение;
Планировать и производить контроль разработки продуктов в роли Product Owner, планировать инвестиции в продукты, контролировать маржинальности продуктовой команды и отдельных продуктов;
Формировать и защищать стратегии развития продуктового направления, а также контролировать реализацию стратегии;
Взаимодействовать с клиентами для выявления потребностей в продуктах Big Data, проводить глубинные интервью; Выстраивать долгосрочные отношения с партнерами по созданию продуктов;
Продвигать продукты Big Data. Проводить обучения для продавцов и пресейлов, выступать на внешних конференциях/митапах;
Для нас важно:
Опыт работы с большими данными;
Дополнительное образование / курсы в области проектного управления или развития продуктов - будет преимуществом.
Опыт самостоятельного развития продуктов;
Высшее техническое или экономическое образование (желательно);
Опыт управления проектами;
Опыт работы с Agile (Scrum, Kanban);
Опыт работы в Телекоме как конкурентное преимущество;
Понимание принципов машинного обучения будет плюсом.
Что предлагаем:
Оформление по ТК РФ;
Расширенный ДМС, страхование от несчастных случаев и страхование жизни сразу после трудоустройства;
Корпоративная мобильная связь;
Гибридный график работы после испытательного срока по согласованию с руководителем;
Возможность получить помощь опытных психологов, финансистов и юристов по важным жизненным вопросам;
Материальная помощь при рождении ребенка, вступлении в брак и т. п.;
Возможность выбирать льготы, которые действительно нужны: уровень ДМС, компенсация занятий спортом, массаж, чекап здоровья, изучение иностранных языков и многое другое после трёх месяцев работы;
Широкие возможности для обучения, в том числе возможность изучить новые навыки и технологии вместе с лучшими провайдерами профессионального образования;
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🍌1
#вакансия #datascientist #datascience #machinelearning #bigdata #python #Спб #офис
Data Scientist
Компания: ГК Монополия
Город: Санкт- Петербург
Формат работы: офис
Вилка ЗП: от 260- 300 000 тыс. рублей на руки
Ваши задачи:
· Генерация и проверка гипотез использования ML-подходов в текущих бизнес-кейсах, поиск новых кейсов.
· RnD-активности в текущих потоках данных, формирование новых потоков данных.
· Разработка и обучение ML-моделей
Мы ожидаем:
· Опыт от 3-х лет в качестве data scientist
· Уверенные знания математики, статистики
· Полное понимание и владение основными семействами алгоритмов ML при обучении с учителем и без (классы задач: кластеризация, классификация, регрессия, прогнозирование временных рядов)
· Уверенный опыт: SQL, Python, R, Knime
· Опыт в решении конкретных кейсов от выдвижения гипотез, до вывода в production (как плюс):
1. Рекомендательные системы,
2. Управление и контроль показателей клиентского опыта и lifetime value клиентов,
3. RFM/RFD-анализ,
4. антифрод как плюс, скоринговые системы.
Отклик и по всем вопросам: [email protected]
@Gavr2084
Data Scientist
Компания: ГК Монополия
Город: Санкт- Петербург
Формат работы: офис
Вилка ЗП: от 260- 300 000 тыс. рублей на руки
Ваши задачи:
· Генерация и проверка гипотез использования ML-подходов в текущих бизнес-кейсах, поиск новых кейсов.
· RnD-активности в текущих потоках данных, формирование новых потоков данных.
· Разработка и обучение ML-моделей
Мы ожидаем:
· Опыт от 3-х лет в качестве data scientist
· Уверенные знания математики, статистики
· Полное понимание и владение основными семействами алгоритмов ML при обучении с учителем и без (классы задач: кластеризация, классификация, регрессия, прогнозирование временных рядов)
· Уверенный опыт: SQL, Python, R, Knime
· Опыт в решении конкретных кейсов от выдвижения гипотез, до вывода в production (как плюс):
1. Рекомендательные системы,
2. Управление и контроль показателей клиентского опыта и lifetime value клиентов,
3. RFM/RFD-анализ,
4. антифрод как плюс, скоринговые системы.
Отклик и по всем вопросам: [email protected]
@Gavr2084
❤1