Data Science Jobs
18.4K subscribers
24 photos
415 links
админ - @haarrp

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

РЕЕСТР РКН: clck.ru/3Fmrbd
Download Telegram
ML инженер в Почту и продукты Mail.ru, Москва

Почта Mail ru — крупнейший и самый популярный почтовый сервис рунета. Ежемесячная аудитория — более 50 миллионов пользователей. Продукт входит в пятёрку мировых сервисов по дневной аудитории и лидирует по установкам на смартфоны в России.

Это не просто почта, а инструмент повышения продуктивности. Здесь можно назначать встречи, планировать дела в календаре, писать заметки, использовать списки шаблонов для планирования, хранить файлы, звонить с видео.

У нас большая команда, но за всю рутину отвечает ML. Наши модели учатся на огромных дата-сетах и умеют группировать входящие, добавлять события из писем в календарь, отделять важное от спама и фишинга, предугадывать, что пользователь хочет написать, а также блокировать взломщиков.

Ищем программиста-исследователя, который присоединится к команде машинного обучения и будет вместе с нами работать над новыми продуктовыми фичами.

Задачи:
- Отвечать за реализацию продуктовых задач с применением машинного обучения;
- генерировать идеи, проверять их и выводить в продакшен;
- следить за трендами ML и реализовывать необходимые в наших продуктах алгоритмы.

Требования:
- Вы разрабатывали приложения на Python/C++ не менее двух лет;
- понимаете основы машинного обучения;
- уверенно знаете теорию вероятностей и математическую статистику;
- знакомы со структурами данных и алгоритмов, в том числе для обработки естественного языка — word embeddings, LSTM, Transformers;
- работали с библиотеками для глубокого обучения — PyTorch, TensorFlow, Keras и другими.

Будет плюсом:
- Опыт разработки LLM (SFT, PEFT) и микросервисных архитектур;
- отличные коммуникативные навыки;
- знание стека технологий Hadoop (Spark, Airflow);
- хорошее знание C++/LUA;
- опыт использования Docker/Kubernetes.

https://t.iss.one/olkony

#вакансия #datascience #ml #engineer #mailru #llm #wordembeddings #LSTM #Transformers #PyTorch #TensorFlow #Keras #hadoop #docker #k8s
👍5😁42🥰1
#вакансия #vacancy #job #sysadmin #системныйадминистратор #prometheus #loki #promql #grafana #ansible #terraform #kafka #postgresql #docker #kubernetes #fulltime #удаленка #remote #Match_Systems

Вакансия: Системный администратор
Форма занятости: удаленная/в офисе
Компания: Match Systems — ведущая компания, разрабатывающая решения на основе блокчейн-технологий.
Продукт: связан с разработкой программного комплекса для анализа и отслеживания блокчейн-транзакций для различных криптовалют (AML - anti money laundering); создание экосистем для принятия платежей и обмена криптовалют.
Локация: Сингапур, Дубай, Россия, Казахстан (возможность работы из других локаций).
Зарплата: от 2500$ (определяется по результатам собеседования).
Занятость: полная (на протяжении испытательного срока возможна частичная)

Задачи:
I. По администрированию Linux:
- Настройка и управление сетевой подсистемой;
- Централизованное управление межсетевым экраном netfilter;
- Обслуживание серверов (работа с RAID, файловыми системами ext*/zfs);
- Управление политиками разграничения доступа;
- Настройка и управление сервисами systemd;
- Настройка прокси/балансировщиков нагрузки;
- Настройка, сбор, фильтрация логов;
- Работа со стратегиями резервного копирования и восстановления данных. Настройка автоматизированных процессов бэкапа, включая регулярное тестирование восстановления данных и мониторинг;
- Аудит/отладка системных событий операционной системы/сервисов/сети;
- Базовые настройки безопасности;
- Автоматизация процессов при помощи ansible.
II. Стек мониторинг и логирования (в основе Prometheus/grafana/alertmanager/loki):
- Настройка системы мониторинга серверов и сервисов;
- Разворачивание/настройка экспортеров метрик;
- Взаимодействие с разработчиками для добавления метрик в приложения и настройка их получения и хранения;
- Управления метками и оптимизации сбора метрик при помощи механизма relabeling;
- Настройка алертов в связке grafana+alertmanager при помощи terraform;
- Визуализация метрик в grafana с использованием PromQL.

Требования:
- Опыт работы в качестве системного/инфраструктурного инженера от 3 лет;
- Опыт работы с ОС linux от 5 лет;
- Уверенные знания основных сетевых протоколов (IP, TCP, UDP, HTTP, HTTPS);
- Автоматизация & iac: ansible, terraform, gitlab-ci;
- Опыт работы с мониторингом в связке prometheus & grafana & alertmanager;
- Опыт работы с git, kafka, postgresql, hasicorp vault, consul;
- Опыт работы с системами контейнеризацией (Docker, Kubernetes и т.д.), понимание взаимодействия с сетевой подсистемой хоста;
- Будет плюсом опыт работы с Yandex Cloud, Digital Ocean.

Обязанности:
- Следить за состоянием серверов (потребление памяти, нагрузки);
- Закрывать любые ненужные порты, следить за DDOs атаками;
- Следить за внутренним разделением зон доступ для различных приложений на серверах;
- Настраивать доступы разработчикам / сервисам к серверам (строго через VPN);
- До-заказывать новые мощности-сервера, интегрировать их в общую систему;
- Настройка мониторинга инцидентов;
- Скрыть все домены / доп.сервисы на серверах.

Условия:
- Возможность удаленной работы с опцией частичных поездок в офис
- Конкурентоспособная зарплата, фиксированная в долларах США
- Интересные и сложные задачи в области блокчейн-технологий и криптовалют
- Работа в высококвалифицированной команде, обмен опытом с экспертами отрасли
- Возможность профессионального роста и развития в одной из самых перспективных технологических областей

Итоговый размер и формат компенсационного пакета обсуждается индивидуально.

Для связи : @daryana_bye
😁3🤨1🙈1
🚀 Вакансия: Senior Data Engineer (аналитик данных)
🏢 Компания: todai
🌎 Локация: Senior
🕕 Часовой пояс: UTC+0 — UTC+5
💼 Формат работы: дистанционная

💰 Зарплата: 300-500k GROSS
📊 Отрасли: другая

🎯 Требования:
4+ лет опыта в роли Data Engineer или аналогичной
Отличные знания Python (типизация, пайплайны)
Отличный уровень SQL (сложные запросы, индексы, оптимизация)
Опыт проектирования и оптимизации баз данных (индексы, партиционирование)
Опыт построения аналитических витрин данных
Обязательный опыт работы с Airflow
Опыт работы с современными хранилищами данных (BigQuery, Snowflake, Redshift, ClickHouse)
Английский язык на уровне Intermediate+

Пожелания:
- Опыт работы с dbt, Prefect, Dagster
- Навыки CI/CD для дата-процессов
- Опыт контейнеризации пайплайнов (Docker)
- Опыт настройки мониторинга качества данных

Рабочие задачи:
- Проектирование и построение хранилищ
- Разработка и развитие витрин данных
- Оптимизация хранения и обработки данных (индексы, партиционирование, производительность запросов)
- Проектирование и поддержка ETL/ELT пайплайнов
- Работа с Airflow (обязательно) для оркестрации пайплайнов
- Написание кастомных обработок данных на Python
- Обеспечение качества данных: тестирование, мониторинг, алертинг
- Поддержка и развитие текущей дата-инфраструктуры
- Проектирование архитектуры хранения данных под новые потребности бизнеса

📌 Условия:
- Доступ к современным технологиям и большим объемам данных
- Влияние на архитектуру и процессы
- Минимум митингов, максимум дела
- Возможность расти в сторону архитектуры данных или технического лидерства

📩 Контакты:
@goshatirov

#SQL #Python #ETL #ClickHouse #Docker #BI #НСИ #Senior #ИП
🍌32👍1