#вакансия # #data #вакансия #fulltime #remote #SeniorDataEngineer #MiddleDE
ЗП вилка: от 200 000 до 550 000 рублей gross
📌KazanExpress — самый быстрорастущий маркетплейс в Европе родом из Иннополиса. Наша компания компания, работает в 120+ городах России. Каждый день мы принимаем от 100 000 заказов в сутки и помогаем более 5 миллионам пользователей находить нужные вещи быстро и удобно.
📌Сейчас мы расширяем наш Data отдел, в связи с чем активно набираем ищем Data инженеров уровня middle и senior и lead для следующих задач:
- Улучшить CDC-процессы;
- Ускорить продуктивизации пользовательских витрин;
- Обеспечить высокое качество данных;
- Внедрить DataMesh практики;
- Построить Lake House с единой точкой входа для ad-hoc запросов.
📌 Наш основной стек:
Airflow, Clickhouse, Spark, PostgreSQL, Kafka Connect, Kubernetes :
📌 Какой нужен опыт и знания:
Опыт работы с холодным хранилищем:
- Spark / DeltaLake / Presto / Trino;
- Опыт работы с Airflow / Oozie или другими планировщиками и оркестраторами;
- Опыт разработки на Python / Java / Scala;
- Опыт работы с Kafka / ksqlDB / Apache Pulsar или другими распределенными платформами обработки потоков событий;
- Понимание того, как можно структурировать хранилище данных: Kappa / Lambda / DWH / Data Vault / Data Anchor / hNhM.
📌Доступна полная удалёнка, трудоустройство: по ТК РФ и по ИП.
Никакой бюрократии и дух стартапа.
________________________
Контакты: @ElizaGabbas
ЗП вилка: от 200 000 до 550 000 рублей gross
📌KazanExpress — самый быстрорастущий маркетплейс в Европе родом из Иннополиса. Наша компания компания, работает в 120+ городах России. Каждый день мы принимаем от 100 000 заказов в сутки и помогаем более 5 миллионам пользователей находить нужные вещи быстро и удобно.
📌Сейчас мы расширяем наш Data отдел, в связи с чем активно набираем ищем Data инженеров уровня middle и senior и lead для следующих задач:
- Улучшить CDC-процессы;
- Ускорить продуктивизации пользовательских витрин;
- Обеспечить высокое качество данных;
- Внедрить DataMesh практики;
- Построить Lake House с единой точкой входа для ad-hoc запросов.
📌 Наш основной стек:
Airflow, Clickhouse, Spark, PostgreSQL, Kafka Connect, Kubernetes :
📌 Какой нужен опыт и знания:
Опыт работы с холодным хранилищем:
- Spark / DeltaLake / Presto / Trino;
- Опыт работы с Airflow / Oozie или другими планировщиками и оркестраторами;
- Опыт разработки на Python / Java / Scala;
- Опыт работы с Kafka / ksqlDB / Apache Pulsar или другими распределенными платформами обработки потоков событий;
- Понимание того, как можно структурировать хранилище данных: Kappa / Lambda / DWH / Data Vault / Data Anchor / hNhM.
📌Доступна полная удалёнка, трудоустройство: по ТК РФ и по ИП.
Никакой бюрократии и дух стартапа.
________________________
Контакты: @ElizaGabbas