Data Analytics Jobs
9.49K subscribers
162 photos
4 videos
627 links
Канал с вакансиями для специалистов по работе с данными: Data Analysts, Data Scientists, Data Engineers etc

По поводу размещения пишите @ax_makarov. Присылайте описание вакансии с указанием контакта в TG
Download Telegram
#Belgrad #DataEngineer #AWS #Prometheus #Postgres #ElasticSearch #ClickHouse #Python #Greenplum

📌Data Engineer

Practicum
Belgrade, Serbia
$4500-6500

Practicum is a service for anyone looking to master the unit profession. Our team develops, operates, and expands the infrastructure, empowering Practicum to make informed decisions. Practicum is pushing hard into the US and other countries. That's why we're looking for engineers to help our fantastic team quickly grow and reach new data heights.

Our technologies:

•AWS, EFbK Stack, Prometheus, GitLab, Lambda, Kafka.
•Postgres, ElasticSearch, ClickHouse, Metabase.
•Python, Golang.

Responsibilities:

•Handle our data processing infrastructure for analytics and user services.
•Design and build displays for data pulled from raw product sources and external APIs.
•Configure streamlined data updates.
•Develop a logical DWH architecture to make life easy for analysts.
•Improve DWH stability and reliability.
•Formulate requirements for new data sources and integrate them into existing aggregate data models.

Qualifications:

•3+ years of experience in data engineering.
•At least 2 years experience in AWS
•Experience working with AWS, Postgres, Greenplum, and ClickHouse.
•Proficiency in or a desire to learn Python / Golang.
•Ability to write clean, optimal code that is easy to maintain and test.
•Habit of covering your code with tests.
•Proven background in developing ETL processes.
•Experience working with relational databases and APIs.
•Experience designing dashboard displays.
•Desire for self-development and studying new technologies and tools.
•Readiness to make decisions and take responsibility.
•Desire and understanding of how to build loaded systems.
•Familiarity with fault tolerance and service scaling.
•Ability to find common ground with colleagues and the team.

Benefits:

•Relocation to Serbia
•Engaging work with the opportunity to influence the process and result
•A strong team to grow with
•Remote work or relocation assistance
•Power compensation
•Discounts from the company's partners

Contact: @vrtrlmv
#Вакансия #Нижний_Новгород #ML #MachineLearning #DataScientist #DataEngineer #Python

Компания: Sber IT (Рекомендательная платформа)
Место: г. Нижний Новгород, м. Горьковская

Позиции: DS/DE/DA/MLOps для построения рекомендательной платформы
Уровень: Middle/Senior/Tech Lead
Вилки: Middle - 175-300 тыс.руб/мес (gross), Senior - 300-460 тыс.руб/мес (gross), Tech Lead 500-600 тыс.руб/мес (gross), годовой бонус: 2-4 оклада

Наш стек: PyTorch, PySpark, RecBole, Airflow, MLflow, Seldon core, FastAPI, Redis, Kafka, Kubernetes, Jira, Confluence, Git и т.д.
Режим работы: офис/гибридный

Наша главная цель - построить современную, масштабируемую платформу, которая будет постоянно предвосхищать и превосходить ожидания пользователей, предоставляя им персонализированные рекомендации на всем клиентском пути в экосистеме Сбера.

Какие задачи нужно решать:
- Data Scientist: разработка ML пайплайнов для формирования персональных рекомендаций и их продуктизация в области Видео, Музыки, Электронной коммерции.
https://nn.hh.ru/vacancy/69815480?hhtmFrom=employer_vacancies

- Data Engineer: разработка пайплайнов обработки данных как в batch режиме (PySpark), так и в потоке (Beam/Flink). Оптимизация существующих пайплайнов. Работа с Feature Store.
https://nn.hh.ru/vacancy/69816108?hhtmFrom=employer_vacancies

- Data Analyst: исследование поведения пользователей в сервисах, нахождение закономерностей в данных и постановка гипотез по улучшению бизнес метрик.
https://nn.hh.ru/vacancy/71025227?hhtmFrom=vacancy_restore

- MLOps: разработка инфраструктуры для разворачивания пайплайнов (Feature/Meta Store, Model Store, Task Manager и т.д.), разработка высоконагруженных online-сервисов, поддержка и развитие системы мониторинга.
https://nn.hh.ru/vacancy/70707525?hhtmFrom=employer_vacancies


По вопросам и отправка резюме - https://xn--r1a.website/marysss12345 🙂
#Moscow #Москва #DataEngineer #ДатаИнженер #DE #Python #Spark #Airflow #Офис

Всем привет!
Ищем Data Engineer в команду компании-стартапа с крупным заказчиком и быстрым развитием. Будем разрабатывать CDP (costumer data platform), для сегментации пользователей на аудитории, а также выполнять много других интересных задач.

🔸Что нужно будет делать:
Проектировать, разрабатывать и поддерживать пайплайны для сбора и обработки данных;
Обеспечивать SLA и качество данных;
Готовить данные для моделей машинного обучения и участвовать в их продукционализации совместно с data science командой.

🔹Что для этого нужно:
Хорошее знание технологий из стека: Python, SQL, Spark, Airflow;
Опыт работы на проектах с большими данными, понимание принципов распределенной обработки данных;
Опыт продуктовой разработки в технологических компаниях.

🔸Будет плюсом:
Опыт работы с облаками, особенно, с Яндекс.Облаком;
Опыт разработки высоконагруженных бэкенд сервисов на Java, Scala или Python;
Опыт работы с моделями машинного обучения в продакшене;
Опыт работы с базами данных для аналитики, особенно, с ClickHouse.

🔹Предлагаем:
Официальное оформление с достойной заработной платой;
Красивый современный офис в Трехгорной мануфактуре;
Возможность влиять на развитие продукта;
Работа в стремительно развивающейся компании.

Интересно? Пишите в тг @baiev_rodion93
#вакансия #senior #datascience #dataengineer
Название компании: KA Talent search
Название позиции: Senior Data Science/Data Engineer
Формат работы: удалёнка
Город: New York
Занятость: полная/частичная
Оформление: ИП/Самозанятость

Зарплатная вилка: 250 000 до 450 000 тыс.

✳️Описание вакансии:

Американская аутсорсинговая IT-компания приглашает к себе специалистов Data Science и Data Engineer уровня Senior и выше для сотрудничества на своих международных проектах!

Наши клиенты: MasterCard, InVision, GitHub, Cloudflare и другие.

✳️Кого мы ищем?
- у тебя есть желание попробовать свои силы в международных проектах
- у тебя опыт работы 4+ (уровень Senior и выше) в области Data Science или Data Engineer.
- у тебя разговорный английский ❗️(Upper intermediate B2/Advanced C1 - обязательно)❗️

✳️Что мы предлагаем:
- возможность выбора проекта на том стеке, в котором ты силен
- возможность выбора графика работы: полная занятость или частичная
- возможность работать из любого часового пояса
- заработная плата исходя из ваших ожиданий
- оформление по договору (ИП/Самозанятость)

✳️Этапы:
1. ты пишешь небольшое тестовое задание, чтобы подтвердить твой уровень
2. техническое собеседование с руководителем (на английском языке!)
3. приступаешь к выбору проекта

Контакты: @lauretta_astra
#Belgrad #DataEngineer #Prometheus #Postgres #ElasticSearch #ClickHouse #Python #Greenplum

📌Data Engineer

Practicum
Belgrade, Serbia
$4500-6500

Practicum is a service for anyone looking to master the unit profession. Our team develops, operates, and expands the infrastructure, empowering Practicum to make informed decisions. We are hiring for experts who have design experience of high load analytics DWH and also will build that DWH on top of S3, Spark, Clickhouse.

Our technologies:

•AWS, EFbK Stack, Prometheus, GitLab, Lambda, Kafka.
•Postgres, ElasticSearch, ClickHouse, Metabase.
•Python, Golang.

Responsibilities:

•Design and build infrastructure on top of CDC from PostgreSQL to S3, Spark, Parquet, ClickHouse.
•Maintain data infrastructure for analytics.
•Design SLI / SLO for analytics infrastructure.
•Help analytics to grow and improve their infrastructure understanding skills.
•Formulate requirements for new data sources and integrate them into existing aggregate data models.

Qualifications:

•3+ years of experience in data engineering.
•At least 2 years experience in AWS.
•Experience working with AWS, PostgreSQL, S3, Spark, Parquet, and ClickHouse.
•Experience working with relational databases and APIs.
•Experience designing data marts.
•Proven background in developing ETL processes.
•Proficiency in or a desire to learn Python / Golang.
•Ability to write clean, optimal code that is easy to maintain and test.
•Desire for self-development and studying new technologies and tools.
Readiness to make decisions and take responsibility.
•Desire and understanding of how to build loaded systems.
•Familiarity with fault tolerance and service scaling.
•Ability to find common ground with colleagues and the team.

Benefits:

•Relocation to Serbia
•Engaging work with the opportunity to influence the process and result
•A strong team to grow with
•Remote work or relocation assistance
•Power compensation
•Discounts from the company's partners

Contact: @vrtrlmv
#Moscow #Москва #DataEngineer #ДатаИнженер #DE #Python #Spark #Airflow #Офис

Всем привет!
Ищем Lead Data Engineer в команду компании-стартапа с крупным заказчиком и быстрым развитием. Будем разрабатывать CDP (customer data platform), для сегментации пользователей на аудитории, а также выполнять много других интересных задач.

🔸Что нужно будет делать:
Проектировать, разрабатывать и поддерживать пайплайны для сбора и обработки данных;
Обеспечивать SLA и качество данных;
Готовить данные для моделей машинного обучения и участвовать в их продукционализации совместно с data science командой.

🔹Что для этого нужно:
Хорошее знание технологий из стека: Python, SQL, Spark, Airflow;
Опыт работы на проектах с большими данными, понимание принципов распределенной обработки данных;
Опыт продуктовой разработки в технологических компаниях.

🔸Будет плюсом:
Опыт работы с облаками, особенно, с Яндекс.Облаком;
Опыт разработки высоконагруженных бэкенд сервисов на Java, Scala или Python;
Опыт работы с моделями машинного обучения в продакшене;
Опыт работы с базами данных для аналитики, особенно, с ClickHouse.

🔹Предлагаем:
Официальное оформление с достойной заработной платой;
Красивый современный офис в Трехгорной мануфактуре;
Возможность влиять на развитие продукта;
Работа в стремительно развивающейся компании.

Интересно? Пишите в тг @baiev_rodion
#developer #вакансия #удаленка #работа #ML #deepfake #remote #dataengineer# datascience #

📍Вакансия - Middle/middle+ data engineer/ml engineer

Merline Clone - IT стартап в области ML. Это уникальный искусственный интеллект, позволяющий автоматически озвучивать и переводить видео на английский язык (китайский, хинди и многие другие) с любого языка мира, сохраняя индивидуальный голос, тембр, мимику. Теперь каждый может говорить как носитель языка.

Компания: Merline Clone

Формат работы: удаленно, из любой точки мира, в удобном графике
Работа: полная занятость
Вилка : 2 000- 4 000 $
Локация: любая

📌Обязанности:
- Работать с данными разной модальности - табличными, графовыми, текстовыми, аудио, изображениями и видео;
- Самостоятельно формулировать гипотезы и проверять их, конструировать фичи, подготавливать датасеты для дальнейшего использования в ML

📌Необходимые навыки:
- опыт работы дата-инженером от 2 лет;
- опыт работы c Hadoop, Hive, Spark;
- хорошее знание python;
- отличное знание SQL;
- понимание и интерес к области больших данных;
- понимание и интерес к data science решениям и ML;
- желателен опыт работы с NiFi и Airflow;
- умение работать в команде над большим техническим проектом (GitHub, Docker, etc.);


📌Что мы предлагаем:
- Полностью удаленный формат работы, в любом часовом поясе, из любой точки мира;
- Возможность выплат в криптовалюте;
- Возможность быть у истоков быстрорастущей, перспективной IT компании;
- Любой удобный формат трудоустройства;
- Комфортные условия работы, не токсичная команда;
- Применение лучших практик и современный стек технологий, получение опыта в передовых направлениях ML и CV.

📲 Если вакансия вас заинтересовала пишите в личные сообщения @All_inf
#вакансия #scala #dataengineer #remote #работа #удаленка
🔥Вакансия: Data engineer
🚀Компания: КА "Spice IT"
Немного о компании:
- компания на рынке с 2004 года, предоставляет своим клиентам высокоэффективные сервисы по оценке рисков, управлению кредитным портфелем и противодействию мошеничества
- входит в "Реестр аккредитованных организаций, осуществляющих деятельность в области информационных технологий.

🪴Проект: Строим data lakehouse на базе hadoop
🌟Задачи:
- Разрабатывать пайплайны загрузки данных из различных источников (РСУБД, NoSQL, files, streaming) в Datalake;
- Реализовать PoC (MVP) с использованием новых инструментов и технологий;
- Реализация распределенных алгоритмов на больших данных;
- Оптимизировать процессы хранения и обработки данных с использованием современных технологии и подходов;
- Продукционализация моделей машинного обучения.

🏢Формат работы:
Удаленка (в пределах РФ). При желании можно работать в офисе г. Москва,
💰Вилка: до 305 тыс чистыми (готовы к обсуждению) + бонус (20% годового дохода)
✍🏻Стек, который используем на проекте: Scala, Python, Spark, Golang, - Hadoop, Cassandra, Apache Flink, EFK, PostgreSQL, Kafka, Jira, Confluence, Bamboo (CI/CD), OKD, Kubernetes
🤝Трудоустройство: по ТК РФ
💰Бенефиты: ДМС со стоматологией, льготная ипотека, компенсация фитнеса / обучения / доп. мед. услуг

📌Основные требования:
- Опыт работы с Apache Spark, Apache Spark structured streaming, Flink, Kafka;
- Опыт работы с экосистемой кластера Hadoop (CDP, Arenadata, Hortonworks);
- Опыт работы с Apache Airflow и Apache NiFi;
- Опыт работы с БД: Oracle, Postgre, Greenplum, HBase;
- Опыт разработки на Scala от 2 лет;
- Отличные знания - SQL.

➡️Подробнее: Telegram @IT_HR_Mary
#вакансия #DataEngineer

Вакансия: Разработчик DWH (Middle)
Компания: Samokat.tech
Вилка: 200-230 net
Занятость: full time
Формат работы: гибрид/удаленно по РФ

О компании:
В Samokat.tech мы делаем ИТ-решения для ритейла реального времени, которые автоматизируют закупки, логистику, работу дарксторов, сборку и доставку заказа до двери, управление промокампаниями и остальные этапы большого процесса. Мы используем интеллектуальные системы прогнозирования, а разные этапы выполнения заказа автоматизируем роботическими системами.

Чем предстоит заниматься?👏🏻

- проектирование и разработка flow и batch ETL-процессов;
- анализ и рефакторинг имеющегося кода;
- написание сложных аналитических запросов для mvp;
- участие в RnD.

Что для нас важно?🙌🏻
- знание PostgresQL и опыт в написании кода под Greenplum;
- опыт работы с Airflow;
- понимание принципов построения КХД (source-to-target);
- опыт в Python разработке с использованием популярных библиотек (psycopg2, pandas).

Что мы предлагаем?⚡️
Все классические условия. Белая зарплата и ДМС, возможность работать удаленно или ходить в офис в Москве.

Если ты открыт для новых карьерных возможностей - то давай знакомиться.

Я всегда на связи тут: @aggubanova
#dataengineer #вакансия #ETL #Python #SQL #Удаленно
Вакансия: Data Engineer
Компания: Aero https://aeroidea.ru/
Формат работы: офис/гибрид/удаленка
Гражданство: РФ
Опыт: от 1,5 лет

🟣Тебе предстоит:
- Участвовать в построении хранилищ данных: проектирование, определение сущностей, формирование витрин данных;
- Разрабатывать и оптимизировать процессы выгрузки данных из различных источников;
- Разрабатывать процессы обработки данных;
- Проводить оркестрацию ETL/ELT процессов в Airflow;
- Поддерживать аналитическую инфраструктуру.

🟣Мы ожидаем:
- Знание Python, SQL;
- Опыт работы с реляционными СУБД;
- Опыт разработки ETL/ELT процессов.

🟣Будет плюсом, если есть опыт:
- с Airflow и/или dbt;
- с одной из баз: ClickHouse, GreenPlum, Postgres, Vertica.

✉️Буду рада вашим резюме @daria_itrecruiter
#вакансия #удаленка #DataEngineer

Позиция: 🔺Middle Data Engineer🔺
Компания: Innovative People
Формат: удаленная работа по РФ
Вилка: 220.000-280.000₽

Innovative People — это динамично развивающаяся IT-компания, которая занимается предоставлением комплексных услуг в сферах заказной разработки и IT аутсорсинга.

Сейчас мы в поисках сильного Data Engineer в одну из крупнейших телеком компаний.

Чем предстоит заниматься:
— Проектирование потоков данных;
— Реализация бизнес-логики ETL и витрин данных;
— Написание python-скриптов, интеграционных пакетов (DAG) для интеграции с источниками данных по API;
— Разработка SQL процедур и представлений.

Что для нас важно:
— Опыт работы с ETL-инструментами (SSIS, AirFlow);
— Опыт работы с PostgreSQL;
— Знание BI-систем, построение отчетов (PowerBI/Superset);
— Знание SQL, DAX;
— Опыт работы с системами контроля версий (Git/аналоги).

Мы предлагаем:
— Работа в аккредитованной IT компании;
— Белая ЗП;
— Возможность расти вместе с проектом;
— Технически сильная и открытая команда;
— Кроссфункциональное взаимодействие с разработчиками других команд;
— Гибкое начало рабочего дня;
— Удаленная работа из любой точки РФ;
— ДМС со стоматологией и другие плюшки.

Любые вопросы и резюме: @ulyanavishhn
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Позиция: Data Engineer
Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 120 000 – 140 000к

Обязанности:
• Разработка хранилищ данных, витрин данных;
• Проектирование, разработка и поддержка ETL-процессов;
• Контроль качества загружаемых данных (ручные и автоматические тесты DQ);
• Интеграция новых источников;
• Работа в команде с системными аналитиками.
Требования:
Обязательно:
• Опыт в языках программирования: SQL, Python;
• Опыт работы с одним или несколькими СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server;
• Опыт использования ETL инструментов: Apache NiFi, Apache Airflow;
Будет плюсом:
• Опыт работы с Hadoop, PySpark;
• Опыт работы с Apache Kafka;
• Опыт работы с Arenadata.

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Позиция: Data Engineer
Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 140 000 – 200 000 р.

Мы ищем Data Engineer для разработки и поддержки ETL-процессов, обеспечивающих загрузку, обработку и хранение данных. Вам предстоит работать с Airflow, Hadoop (PySpark), S3 (minio) и PostgreSQL, чтобы создавать надежные и масштабируемые пайплайны данных.

Обязанности:
• Разработка и поддержка ETL-пайплайнов в Apache Airflow
• Загрузка данных из различных источников (API, базы данных, файлы) и их сохранение в S3
• Обработка больших данных с помощью PySpark в Hadoop-кластере
• Оптимизация производительности Spark-задач (партиционирование, кэширование, настройка ресурсов)
• Выгрузка результатов обработки в PostgreSQL
• Мониторинг и обеспечение надежности пайплайнов
• Взаимодействие с аналитиками и разработчиками для уточнения требований

Требования:
• Опыт работы с Apache Airflow версии 2.0 и выше (написание DAG, сенсоры, операторы), от 3х лет
• Знание PySpark и опыт работы с Hadoop (HDFS, YARN), от 2х лет
• Умение работать с облачными хранилищами (S3 или аналоги)
• Опыт работы с PostgreSQL (оптимизация запросов, партиционирование), от 2х лет
• Понимание принципов распределенных вычислений
• Уверенные знания Python и SQL (оптимизация запросов), от 3х лет
• Желателен опыт с Docker, Kubernetes (для оркестрации)

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#работа #удаленнаяработа #вакансия #Dataengineer #Дата_инженер #middle #инженер #DA

Позиция: Data-инженер
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 160 000 – 190 000 к

Обязанности:
Оптимизация обработки данных в GreenPlum для сокращения времени выполнения запросов;
Проектирование и поддержка хранилищ данных в GreenPlum;
Разработка и поддержка dbt-моделей;
Проведение code review, участие в интервью для найма сотрудников.

Обязательные требования:
Опыт работы в роли Data Engineer/Data analytic от 3 лет;
Глубокие знания SQL;
Опыт работы с GreenPlum;
Опыт построения и оптимизации ETL-процессов;
Умение проводить code review и работать в команде;
Понимание принципов Agile (Scrum, Kanban) и опыт работы с Jira/Trello;
Английский язык на уровне чтения технической документации.
Желательные требования:
Опыт миграции данных из SAS в GreenPlum;
Опыт работы с dbt;
Понимание методологий проектирования хранилищ данных (Data Vault, Anchor modelling).

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#вакансия #DataEngineer #fulltime #гибрид

Data Engineer

Крупная финтех-компания (не РФ), пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.

Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.

Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.

Резюме присылать в Telegram: @spetrushkin
#вакансия #vacancy #job #clickhouse #dataengineer #analyticsengineer #датаинженер #gamedev #datajob

Позиция
: Analytics Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000

О компании:
Разрабатываем мобильные игры в жанре Trivia - те самые, которые не только увлекают, но и прокачивают эрудицию, логику и смекалку.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.

Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.

В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.

Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.

Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.

📌Присылать CV и задавать вопросы сюда → https://xn--r1a.website/kristinasamko
#вакансия #dataengineer #bigdata #remote #sql #scala #python

Вакансия: Data Engineer
Компания: HuntIT
Формат: удаленный или гибрид в гео офисов.
Занятость: полная, 5/2 (гибкое начало дня)

🚀Немного о нас:
HuntIT - это передовое рекрутинговое агентство, которое специализируется на поиске и подборе высококвалифицированных специалистов в сфере IT и Digital, сотрудничает с ведущими IT-компаниями, рекламными агентствами и работает над крупными проектами.

Сейчас мы находимся в поиске Data Engineer в IT компанию-заказчика. Ребята создают передовые веб-платформы, оказывающие влияние на мировую индустрию!
Основная цель – создание высоконагруженных систем, ежедневно обрабатывающих десятки тысяч запросов в секунду, терабайты данных и поддерживающие более 100 миллионов пользователей по всему миру.

Что делать:
– Разработка приложений потоковой обработки данных на Apache Flink / Spark Structured Streaming.
– Разработка приложений пакетной обработки данных Spark
– Принимать участие в разработке стандартов;
– Разработка мониторинга приложений.

Технологии:
Python, Java • Spark, Flink • Kafka, RabbitMQ • Hadoop, S3 • SQL/NoSQL (Postgres, Mongo, ClickHouse и др.) • Kubernetes, AWS

Что ищем:
– Хорошие знания в потоковой обработке (Stateful - Stateless).
– Опыт разработки приложений потоковой обработки Apache Flink / Spark Structured Streaming.
– Навыки программирования - Java, Scala

Будет плюсом

– Опыт работы с форматом iceberg, clickhouse, debezium

Условия:

Качественный опыт, рост скиллов и максимально комфортная рабочая атмосфера;
– Гибкое начало рабочего дня с 9:00 до 11:00 по МСК;
– Офисы представлены в 2 странах мира;
– Гибридный или удаленный формат работы;
– Полностью оборудованное рабочее место с предоставлением техники;
– Официальное трудоустройство;
– ДМС со стоматологией после испытательного срока;
– Компенсация занятий спортом, английского языка и сессий с психологом;
– Зоны отдыха с настольным теннисом, самокатами и кухней;
– Корпоративная библиотека;
– Корпоративы с выездами на природу и призами, тимбилдинги, мастер-классы и т. д.;
– Релокационный пакет и возможность получения отсрочки от призыва на мобилизацию. 🚀

✍️ Пишите в лс, буду рад обсудить детали: @huntit_daniil
Please open Telegram to view this post
VIEW IN TELEGRAM
#jobs #вакансия #удаленнаяработа #DataEngineer #Ruby #Elixir

📍 Формат/working arrangement: Удаленный формат работы
👨‍💻 Компания: партнер HaaS-платформы
✔️ Должность/position: #midlle
💵 Заработная плата/salary estimate: 2000-3500$


Data Engineer / Backend-разработчик (Ruby/Elixir)

Международная продуктовая компания, специализирующаяся на решениях для HoReCa индустрии в Азиатском регионе в поиске Data Operation Engineer с экспертизой в Ruby или Elixir для работы с данными. Мы разрабатываем агрегатор ресторанов с передовыми технологиями поиска и рекомендаций. Если вы готовы создавать и поддерживать ETL/ELT-пайплайны, управлять схемами данных и эффективно работать в удаленной команде, эта позиция для вас

Чем предстоит заниматься:
- Строить и поддерживать пайплайны для загрузки и трансформации данных (ETL/ELT).
- Управлять схемами данных и обеспечивать их качество.
- Взаимодействовать с клиентами: настраивать платформу и обрабатывать их запросы.
- Сотрудничать с командой, быстро адаптироваться и находить эффективные решения.

Требования:
- От 2 лет опыта в роли Data Scientist, Data Analyst, Fullstack разработчика или на схожей позиции в Big Data.
- От 2 лет продакшн-опыта с Elixir или Ruby в проектах, связанных с данными.
- Уверенное знание SQL и опыт работы с базами данных (PostgreSQL, SQLite).
- Опыт работы с пайплайнами данных и понимание полного цикла Data Engineering.
- Базовое понимание ML-концепций.
- Высокий уровень самоорганизации и опыт работы в удаленной команде.
- Высшее техническое образование

Будет преимуществом:
- Опыт работы в стартапах.
- Опыт работы с AWS (на уровне API).
- Знание MongoDB.
- Понимание принципов безопасности при работе с персональными данными (PII).

Мы предлагаем:
- Удаленный формат работы.
- Оформление по контракту с иностранной компанией.
- Быстрый старт при успешном прохождении интервью.

Контакт для отклика : @sourserXP
#dataengineer #relocation #cyprus #fulltime

💾Data Engineer

Международная финтех-компания со штаб-квартирой на Кипре, офисами в Лондоне и Дубае. С 2017 г. разрабатывет собственые продукты и сервисы.

🛠 Задачи:

Собирать сырые события из Kafka и загружать их в Lakehouse (уровни bronze & silver) с использованием Spark;

Обогащать и агрегировать сырые данные в ClickHouse (gold уровень) с помощью Spark;

Строить production-ready data marts используя Airflow, DBT и ClickHouse с Materialized Views;

Внедрять проверки качества данных для Spark jobов и Airflow DAGs

Писать и поддерживать техническую документацию.


📚 Опыт:

SQL (сложные запросы + оптимизация);

Python (общие принципы + библиотеки для Data Engineering);

Kafka, Spark, Iceberg, Nessie, TrinoDB;

Airflow, DBT, ClickHouse

Фреймворки для качества данных (Data Quality frameworks).


🪤 Условия:

Только офис Лимассол (релок-пакет)

Оформление в штат

Английский, SPA, питание


📩 Резюме: tg:@anna_vdemina
Ведущий аналитик (middle) — удалённо, Бризекс

Ищем сильного Ведущего аналитика данных, который проектирует data-платформы и помогает бизнесу принимать решения. Бризекс — лидер рынка бризеров в Москве и Петербурге, создаем собственный бренд климатической техники ATMEEX.

ЧТО ПРЕДСТОИТ ДЕЛАТЬ:

📊Проектировать архитектуру данных как фундамент для бизнес-решений: создавать и развивать надёжные ETL-пайплайны в Dagster.

📊Управлять потоками данных с фокусом на производительность и надёжность: реализовывать инкрементальные и полные загрузки, оптимизировать батч-обработку и разрабатывать коннекторы к различным API (МойСклад, AmoCRM и др.), вебхукам и файловым источникам.

📊Обеспечивать целостность и качество данных на каждом этапе: внедрять и автоматизировать проверки с помощью Great Expectations.

📊Строить управляемую и прозрачную экосистему данных: внедрять и сопровождать каталог данных OpenMetadata.

📊Превращать данные в ценные инсайты для бизнеса: тесно сотрудничать с BI-аналитиком, помогая создавать модели данных и наглядные дашборды (Superset, Google Sheets).

ЧЕГО ДЕЛАТЬ ТОЧНО НЕ ПРИДЁТСЯ:

Бесконечно заниматься «дата-клинингом» и выпрашивать доступы к данным.
🚫Работать «пожарным» и вручную собирать одни и те же отчёты. Мы верим в автоматизацию, системный подход и стремимся, чтобы аналитика отвечала на вопрос «почему?», а не только «сколько?».
🚫Создавать дашборды, которые никто не откроет, и писать отчёты «в стол».
🚫Скучать в окружении устаревших технологий и бюрократии.

📝ТРЕБОВАНИЯ:

📌2-3 года опыта на аналогичных позициях: #старши аналитик, #главныйаналитик, #аналитикданных, #бизнес-аналитик, аналитик процессов, #DataEngineer, #Data Analyst, #разработчикданных, #инженерпообработкеданных, #BI-инженер, BI-аналитик, #специалистпо ETL-процессам, #специалистп управлениюданными

📌Опыт разработки ETL-процессов на Python
📌Знание SQL на высоком уровне (UPSERT, JSONB, сэмплирование, приближенные вычисления, оконные функции)
📌Опыт работы с Dagster или аналогичными оркестраторами (Airflow)
📌Знание принципов Data Quality и опытом работы с инструментами проверки качества (Great Expectations или аналогами)
📌Понимание концепций Data Governance
📌Навыки написания чистого, документированного кода

🖇️Технический стек для позиции «Ведущий аналитик (middle)» в Бризекс включает:
- Python для разработки ETL-пайплайнов
- Dagster (или аналогичные оркестраторы типа Airflow)
- ClickHouse как основную аналитическую СУБД
- SQL высокого уровня (оконные функции, UPSERT, JSONB, сэмплирование, приближённые вычисления)
- Great Expectations для контроля качества данных
- OpenMetadata для каталогизации данных и Data Lineage
- Superset и Google Sheets для визуализации и отчётности
- Grafana/Kibana для мониторинга
- Elasticsearch и ELK Stack (как дополнительный плюс)

УСЛОВИЯ:

- Оплата: 100 000 – 200 000 ₽, на руки. Оклад+KPI
- Удалённая работа, единый график с командой (9:00–18:00 по МСК)
- Оформление с первого дня по ТК РФ.
- Наставничество, обучение, доступ к библиотеке знаний компании

ПРЕИМУЩЕСТВА РАБОТЫ В БРИЗЕКС:

Работайте с современным стеком и влияйте на его развитие: У нас нет легаси-кода и устаревших подходов. Вы будете работать с Dagster, ClickHouse, OpenMetadata и Great Expectations и сможете напрямую влиять на выбор и внедрение новых инструментов для построения data-платформы.

Видьте реальное влияние своей работы на бизнес: Ваша работа — не просто «перекладывание данных».

Стройте data-культуру, а не боритесь с хаосом: Мы системно инвестируем в Data Governance и качество данных.

Получите автономию и работайте без микроменеджмента: Мы ценим системное мышление и зрелость.

Растите вместе с компанией: Мы строим компанию будущего, где AI и данные усиливают людей.

Если готовы обсудить всё подробнее — откликайтесь на вакансию 🚀@HR_Breezeks и мы расскажем о дальнейших действиях. 📝💼