#Middle #Data #Engineer #AWS #Spark #PySpark #ITJobs #Вакансия #Vacancy
Компания: Mind Wave
Формат: удаленно
Локация: мир, вне РФ и РБ
Опыт: от 5 лет
Вилка: до 2800$
Ищем Middle Data Engineer, который усилит data-команду и будет участвовать в построении и оптимизации ETL/ELT пайплайнов для платформы IN-Gauge. Роль предполагает работу с production-данными, Spark-пайплайнами и AWS-инфраструктурой.
Что мы предлагаем:
- Формат работы: удалённо.
- Локация: мир, вне РФ и РБ.
- Тип занятости: full-time.
- ЗП: до 2800$
Чем предстоит заниматься:
- Разработка и поддержка ETL/ELT пайплайнов для обработки hospitality-данных;
- Работа с высоконагруженными Spark / PySpark пайплайнами в production;
- Оптимизация существующих data-flows и участие в архитектурном обновлении платформы;
- Интеграция данных из внешних систем (PMS, метрики upsell, операционные данные);
- Обеспечение надёжности, качества и масштабируемости data-платформы;
- Тесное взаимодействие с data- и product-командами.
Что мы ждем от вас:
- Коммерческий опыт работы Data Engineer — 5+ лет;
- Опыт работы со Spark / PySpark — от 2 лет в production;
- Опыт работы с AWS — от 2 лет (включая последний проект);
- Практический опыт построения и поддержки ETL/ELT пайплайнов в production;
- Понимание архитектуры data-платформ и потоковой / пакетной обработки данных;
- Английский язык — B2, уверенное общение на технические темы и в командной работе.
tg для связи: @maria_aleshechkina
Компания: Mind Wave
Формат: удаленно
Локация: мир, вне РФ и РБ
Опыт: от 5 лет
Вилка: до 2800$
Ищем Middle Data Engineer, который усилит data-команду и будет участвовать в построении и оптимизации ETL/ELT пайплайнов для платформы IN-Gauge. Роль предполагает работу с production-данными, Spark-пайплайнами и AWS-инфраструктурой.
Что мы предлагаем:
- Формат работы: удалённо.
- Локация: мир, вне РФ и РБ.
- Тип занятости: full-time.
- ЗП: до 2800$
Чем предстоит заниматься:
- Разработка и поддержка ETL/ELT пайплайнов для обработки hospitality-данных;
- Работа с высоконагруженными Spark / PySpark пайплайнами в production;
- Оптимизация существующих data-flows и участие в архитектурном обновлении платформы;
- Интеграция данных из внешних систем (PMS, метрики upsell, операционные данные);
- Обеспечение надёжности, качества и масштабируемости data-платформы;
- Тесное взаимодействие с data- и product-командами.
Что мы ждем от вас:
- Коммерческий опыт работы Data Engineer — 5+ лет;
- Опыт работы со Spark / PySpark — от 2 лет в production;
- Опыт работы с AWS — от 2 лет (включая последний проект);
- Практический опыт построения и поддержки ETL/ELT пайплайнов в production;
- Понимание архитектуры data-платформ и потоковой / пакетной обработки данных;
- Английский язык — B2, уверенное общение на технические темы и в командной работе.
tg для связи: @maria_aleshechkina