Data Analytics Jobs
9.7K subscribers
166 photos
4 videos
636 links
Канал с вакансиями для специалистов по работе с данными: Data Analysts, Data Scientists, Data Engineers etc

По поводу размещения пишите @ax_makarov. Присылайте описание вакансии с указанием контакта в TG
Download Telegram
#вакансия #DataEngineer

Вакансия: Разработчик DWH (Middle)
Компания: Samokat.tech
Вилка: 200-230 net
Занятость: full time
Формат работы: гибрид/удаленно по РФ

О компании:
В Samokat.tech мы делаем ИТ-решения для ритейла реального времени, которые автоматизируют закупки, логистику, работу дарксторов, сборку и доставку заказа до двери, управление промокампаниями и остальные этапы большого процесса. Мы используем интеллектуальные системы прогнозирования, а разные этапы выполнения заказа автоматизируем роботическими системами.

Чем предстоит заниматься?👏🏻

- проектирование и разработка flow и batch ETL-процессов;
- анализ и рефакторинг имеющегося кода;
- написание сложных аналитических запросов для mvp;
- участие в RnD.

Что для нас важно?🙌🏻
- знание PostgresQL и опыт в написании кода под Greenplum;
- опыт работы с Airflow;
- понимание принципов построения КХД (source-to-target);
- опыт в Python разработке с использованием популярных библиотек (psycopg2, pandas).

Что мы предлагаем?⚡️
Все классические условия. Белая зарплата и ДМС, возможность работать удаленно или ходить в офис в Москве.

Если ты открыт для новых карьерных возможностей - то давай знакомиться.

Я всегда на связи тут: @aggubanova
#dataengineer #вакансия #ETL #Python #SQL #Удаленно
Вакансия: Data Engineer
Компания: Aero https://aeroidea.ru/
Формат работы: офис/гибрид/удаленка
Гражданство: РФ
Опыт: от 1,5 лет

🟣Тебе предстоит:
- Участвовать в построении хранилищ данных: проектирование, определение сущностей, формирование витрин данных;
- Разрабатывать и оптимизировать процессы выгрузки данных из различных источников;
- Разрабатывать процессы обработки данных;
- Проводить оркестрацию ETL/ELT процессов в Airflow;
- Поддерживать аналитическую инфраструктуру.

🟣Мы ожидаем:
- Знание Python, SQL;
- Опыт работы с реляционными СУБД;
- Опыт разработки ETL/ELT процессов.

🟣Будет плюсом, если есть опыт:
- с Airflow и/или dbt;
- с одной из баз: ClickHouse, GreenPlum, Postgres, Vertica.

✉️Буду рада вашим резюме @daria_itrecruiter
#вакансия #удаленка #DataEngineer

Позиция: 🔺Middle Data Engineer🔺
Компания: Innovative People
Формат: удаленная работа по РФ
Вилка: 220.000-280.000₽

Innovative People — это динамично развивающаяся IT-компания, которая занимается предоставлением комплексных услуг в сферах заказной разработки и IT аутсорсинга.

Сейчас мы в поисках сильного Data Engineer в одну из крупнейших телеком компаний.

Чем предстоит заниматься:
— Проектирование потоков данных;
— Реализация бизнес-логики ETL и витрин данных;
— Написание python-скриптов, интеграционных пакетов (DAG) для интеграции с источниками данных по API;
— Разработка SQL процедур и представлений.

Что для нас важно:
— Опыт работы с ETL-инструментами (SSIS, AirFlow);
— Опыт работы с PostgreSQL;
— Знание BI-систем, построение отчетов (PowerBI/Superset);
— Знание SQL, DAX;
— Опыт работы с системами контроля версий (Git/аналоги).

Мы предлагаем:
— Работа в аккредитованной IT компании;
— Белая ЗП;
— Возможность расти вместе с проектом;
— Технически сильная и открытая команда;
— Кроссфункциональное взаимодействие с разработчиками других команд;
— Гибкое начало рабочего дня;
— Удаленная работа из любой точки РФ;
— ДМС со стоматологией и другие плюшки.

Любые вопросы и резюме: @ulyanavishhn
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Позиция: Data Engineer
Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 120 000 – 140 000к

Обязанности:
• Разработка хранилищ данных, витрин данных;
• Проектирование, разработка и поддержка ETL-процессов;
• Контроль качества загружаемых данных (ручные и автоматические тесты DQ);
• Интеграция новых источников;
• Работа в команде с системными аналитиками.
Требования:
Обязательно:
• Опыт в языках программирования: SQL, Python;
• Опыт работы с одним или несколькими СУБД: PostgreSQL, Clickhouse, Greenplum, MS SQL Server;
• Опыт использования ETL инструментов: Apache NiFi, Apache Airflow;
Будет плюсом:
• Опыт работы с Hadoop, PySpark;
• Опыт работы с Apache Kafka;
• Опыт работы с Arenadata.

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#работа #удаленнаяработа #вакансия #DataEngineer #middle #датаинженер

Позиция: Data Engineer
Опыт работы: 2–3 года
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 140 000 – 200 000 р.

Мы ищем Data Engineer для разработки и поддержки ETL-процессов, обеспечивающих загрузку, обработку и хранение данных. Вам предстоит работать с Airflow, Hadoop (PySpark), S3 (minio) и PostgreSQL, чтобы создавать надежные и масштабируемые пайплайны данных.

Обязанности:
• Разработка и поддержка ETL-пайплайнов в Apache Airflow
• Загрузка данных из различных источников (API, базы данных, файлы) и их сохранение в S3
• Обработка больших данных с помощью PySpark в Hadoop-кластере
• Оптимизация производительности Spark-задач (партиционирование, кэширование, настройка ресурсов)
• Выгрузка результатов обработки в PostgreSQL
• Мониторинг и обеспечение надежности пайплайнов
• Взаимодействие с аналитиками и разработчиками для уточнения требований

Требования:
• Опыт работы с Apache Airflow версии 2.0 и выше (написание DAG, сенсоры, операторы), от 3х лет
• Знание PySpark и опыт работы с Hadoop (HDFS, YARN), от 2х лет
• Умение работать с облачными хранилищами (S3 или аналоги)
• Опыт работы с PostgreSQL (оптимизация запросов, партиционирование), от 2х лет
• Понимание принципов распределенных вычислений
• Уверенные знания Python и SQL (оптимизация запросов), от 3х лет
• Желателен опыт с Docker, Kubernetes (для оркестрации)

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#работа #удаленнаяработа #вакансия #Dataengineer #Дата_инженер #middle #инженер #DA

Позиция: Data-инженер
Полная занятость
График: 5/2
Формат работы: удалённо
Компания: 7RedLines
Оформление: ТК РФ
Оклад на руки: 160 000 – 190 000 к

Обязанности:
Оптимизация обработки данных в GreenPlum для сокращения времени выполнения запросов;
Проектирование и поддержка хранилищ данных в GreenPlum;
Разработка и поддержка dbt-моделей;
Проведение code review, участие в интервью для найма сотрудников.

Обязательные требования:
Опыт работы в роли Data Engineer/Data analytic от 3 лет;
Глубокие знания SQL;
Опыт работы с GreenPlum;
Опыт построения и оптимизации ETL-процессов;
Умение проводить code review и работать в команде;
Понимание принципов Agile (Scrum, Kanban) и опыт работы с Jira/Trello;
Английский язык на уровне чтения технической документации.
Желательные требования:
Опыт миграции данных из SAS в GreenPlum;
Опыт работы с dbt;
Понимание методологий проектирования хранилищ данных (Data Vault, Anchor modelling).

Контактная информация:
Тг: @HR7RedLines
Эл.почта: i.filimonova@7rlines.com
#вакансия #DataEngineer #fulltime #гибрид

Data Engineer

Крупная финтех-компания (не РФ), пионер мобильного банкинга, ищет Data Engineer. Мы развиваем мультифункциональную платформу, которая объединяет финансовые, сервисные и бизнес-решения и которой пользуются более 20 млн человек.

Ваши задачи:
- Анализ требований к витринам данных, работая в тесной связке с Data Analysts и Data Scientists.
- Поиск и исследование источников данных для их последующей интеграции с Data Lake.
- Разработка ETL/ELT-процессов с использованием PySpark.
- Разработка оркестрации ETL-процессов в Airflow.
- Развитие инструментов для контроля и поддержания качества данных (Data Quality).
- Проектирование структуры хранилищ данных (DWH, Data Lake).

Требования:
- Отличные знания SQL для написания сложных и производительных запросов (CTE, оконные функции).
- Опыт работы с СУБД: MS SQL, ClickHouse, PostgreSQL.
- Знание Python для разработки ETL/ELT пайплайнов.
- Опыт работы со стеком Big Data: HiveQL Hadoop, Apache AirFlow, Apache Spark, Apache Flink, Airbyte.
- Понимание концепции Data Vault хранилищ данных (DWH, Data Lake).
- Опыт написания сервисов для взаимодействия с внешними источниками данных.
- Понимание принципов построения системных интеграций.

Мы предлагаем:
- Работу в офисе в Ташкенте или гибридный формат по договоренности.
- Конкурентную заработную плату
- Постоянное обучение и профессиональный рост.
- Фитнес-зал, массажные кресла и спортивные клубы по интересам в офисе.
- Яркая корпоративная культура и кафетерий бенефитов.

Резюме присылать в Telegram: @spetrushkin
#вакансия #vacancy #job #clickhouse #dataengineer #analyticsengineer #датаинженер #gamedev #datajob

Позиция
: Analytics Engineer
Компания: Mno Go Games
Формат работы: remote
Занятость: full time
ЗП: от $4000

О компании:
Разрабатываем мобильные игры в жанре Trivia - те самые, которые не только увлекают, но и прокачивают эрудицию, логику и смекалку.
Независимые и стабильные: развиваемся с 2014 года без привлечения инвесторов.

Задачи:
- Выявление аномалий метрик и поиск их корневых причин;
- Формирование витрин в ClickHouse и визуализация данных в Grafana;
- Контроль качества данных: полнота, консистентность, свежесть;
- Поддержка и развитие системы мониторинга продуктовых и технических метрик;
- Ad-hoc запросы: помощь коллегам в быстром получении нужных данных;
- Создание и поддержка актуального data-catalog;
- Внедрение и использование AI-инструментов для анализа данных;
- Разработка и оптимизация пайплайнов обработки данных.

В компании так же используются: kafka, aerospike, tidb, MS SQL, C#, python.

Что нам важно:
- Аналогичный опыт работы от 3 лет;
- Экспертное владение ClickHouse;
- Уверенный Python;
- Умение строить понятные дашборды и отчёты;
- Опыт разработки ETL/ELT-процессов;
- Практика dbt или аналогичных подходов;
- Понимание микросервисной архитектуры;
- Готовность работать в гибкой компании с высокой скоростью разработки;
- Способность быстро и эффективно усваивать большой объём информации;
- Умение работать самостоятельно без дополнительного контроля.

Что предлагаем:
- Работу в компании, независимой от инвесторов и отсутствие бюрократии;
- Возможность работать из любой точки мира. У нас есть офис на Кипре, но все рабочие процессы настроены под удаленный формат;
- Гибкое начало рабочего дня (работаем по GMT+3), график 5/2;
- Компенсацию изучения английского языка и профильных курсов;
- 100% компенсацию отпускных дней и оплачиваемые больничные;
- Возможность тестировать различные AI инструменты: не любим унылую ручную работу, топим за автоматизацию и оптимизацию;
- Возможность развиваться внутри компании: мы за инициативность, активность и движение вперед.

📌Присылать CV и задавать вопросы сюда → https://xn--r1a.website/kristinasamko
#вакансия #dataengineer #bigdata #remote #sql #scala #python

Вакансия: Data Engineer
Компания: HuntIT
Формат: удаленный или гибрид в гео офисов.
Занятость: полная, 5/2 (гибкое начало дня)

🚀Немного о нас:
HuntIT - это передовое рекрутинговое агентство, которое специализируется на поиске и подборе высококвалифицированных специалистов в сфере IT и Digital, сотрудничает с ведущими IT-компаниями, рекламными агентствами и работает над крупными проектами.

Сейчас мы находимся в поиске Data Engineer в IT компанию-заказчика. Ребята создают передовые веб-платформы, оказывающие влияние на мировую индустрию!
Основная цель – создание высоконагруженных систем, ежедневно обрабатывающих десятки тысяч запросов в секунду, терабайты данных и поддерживающие более 100 миллионов пользователей по всему миру.

Что делать:
– Разработка приложений потоковой обработки данных на Apache Flink / Spark Structured Streaming.
– Разработка приложений пакетной обработки данных Spark
– Принимать участие в разработке стандартов;
– Разработка мониторинга приложений.

Технологии:
Python, Java • Spark, Flink • Kafka, RabbitMQ • Hadoop, S3 • SQL/NoSQL (Postgres, Mongo, ClickHouse и др.) • Kubernetes, AWS

Что ищем:
– Хорошие знания в потоковой обработке (Stateful - Stateless).
– Опыт разработки приложений потоковой обработки Apache Flink / Spark Structured Streaming.
– Навыки программирования - Java, Scala

Будет плюсом

– Опыт работы с форматом iceberg, clickhouse, debezium

Условия:

Качественный опыт, рост скиллов и максимально комфортная рабочая атмосфера;
– Гибкое начало рабочего дня с 9:00 до 11:00 по МСК;
– Офисы представлены в 2 странах мира;
– Гибридный или удаленный формат работы;
– Полностью оборудованное рабочее место с предоставлением техники;
– Официальное трудоустройство;
– ДМС со стоматологией после испытательного срока;
– Компенсация занятий спортом, английского языка и сессий с психологом;
– Зоны отдыха с настольным теннисом, самокатами и кухней;
– Корпоративная библиотека;
– Корпоративы с выездами на природу и призами, тимбилдинги, мастер-классы и т. д.;
– Релокационный пакет и возможность получения отсрочки от призыва на мобилизацию. 🚀

✍️ Пишите в лс, буду рад обсудить детали: @huntit_daniil
Please open Telegram to view this post
VIEW IN TELEGRAM
#jobs #вакансия #удаленнаяработа #DataEngineer #Ruby #Elixir

📍 Формат/working arrangement: Удаленный формат работы
👨‍💻 Компания: партнер HaaS-платформы
✔️ Должность/position: #midlle
💵 Заработная плата/salary estimate: 2000-3500$


Data Engineer / Backend-разработчик (Ruby/Elixir)

Международная продуктовая компания, специализирующаяся на решениях для HoReCa индустрии в Азиатском регионе в поиске Data Operation Engineer с экспертизой в Ruby или Elixir для работы с данными. Мы разрабатываем агрегатор ресторанов с передовыми технологиями поиска и рекомендаций. Если вы готовы создавать и поддерживать ETL/ELT-пайплайны, управлять схемами данных и эффективно работать в удаленной команде, эта позиция для вас

Чем предстоит заниматься:
- Строить и поддерживать пайплайны для загрузки и трансформации данных (ETL/ELT).
- Управлять схемами данных и обеспечивать их качество.
- Взаимодействовать с клиентами: настраивать платформу и обрабатывать их запросы.
- Сотрудничать с командой, быстро адаптироваться и находить эффективные решения.

Требования:
- От 2 лет опыта в роли Data Scientist, Data Analyst, Fullstack разработчика или на схожей позиции в Big Data.
- От 2 лет продакшн-опыта с Elixir или Ruby в проектах, связанных с данными.
- Уверенное знание SQL и опыт работы с базами данных (PostgreSQL, SQLite).
- Опыт работы с пайплайнами данных и понимание полного цикла Data Engineering.
- Базовое понимание ML-концепций.
- Высокий уровень самоорганизации и опыт работы в удаленной команде.
- Высшее техническое образование

Будет преимуществом:
- Опыт работы в стартапах.
- Опыт работы с AWS (на уровне API).
- Знание MongoDB.
- Понимание принципов безопасности при работе с персональными данными (PII).

Мы предлагаем:
- Удаленный формат работы.
- Оформление по контракту с иностранной компанией.
- Быстрый старт при успешном прохождении интервью.

Контакт для отклика : @sourserXP
#dataengineer #relocation #cyprus #fulltime

💾Data Engineer

Международная финтех-компания со штаб-квартирой на Кипре, офисами в Лондоне и Дубае. С 2017 г. разрабатывет собственые продукты и сервисы.

🛠 Задачи:

Собирать сырые события из Kafka и загружать их в Lakehouse (уровни bronze & silver) с использованием Spark;

Обогащать и агрегировать сырые данные в ClickHouse (gold уровень) с помощью Spark;

Строить production-ready data marts используя Airflow, DBT и ClickHouse с Materialized Views;

Внедрять проверки качества данных для Spark jobов и Airflow DAGs

Писать и поддерживать техническую документацию.


📚 Опыт:

SQL (сложные запросы + оптимизация);

Python (общие принципы + библиотеки для Data Engineering);

Kafka, Spark, Iceberg, Nessie, TrinoDB;

Airflow, DBT, ClickHouse

Фреймворки для качества данных (Data Quality frameworks).


🪤 Условия:

Только офис Лимассол (релок-пакет)

Оформление в штат

Английский, SPA, питание


📩 Резюме: tg:@anna_vdemina
Ведущий аналитик (middle) — удалённо, Бризекс

Ищем сильного Ведущего аналитика данных, который проектирует data-платформы и помогает бизнесу принимать решения. Бризекс — лидер рынка бризеров в Москве и Петербурге, создаем собственный бренд климатической техники ATMEEX.

ЧТО ПРЕДСТОИТ ДЕЛАТЬ:

📊Проектировать архитектуру данных как фундамент для бизнес-решений: создавать и развивать надёжные ETL-пайплайны в Dagster.

📊Управлять потоками данных с фокусом на производительность и надёжность: реализовывать инкрементальные и полные загрузки, оптимизировать батч-обработку и разрабатывать коннекторы к различным API (МойСклад, AmoCRM и др.), вебхукам и файловым источникам.

📊Обеспечивать целостность и качество данных на каждом этапе: внедрять и автоматизировать проверки с помощью Great Expectations.

📊Строить управляемую и прозрачную экосистему данных: внедрять и сопровождать каталог данных OpenMetadata.

📊Превращать данные в ценные инсайты для бизнеса: тесно сотрудничать с BI-аналитиком, помогая создавать модели данных и наглядные дашборды (Superset, Google Sheets).

ЧЕГО ДЕЛАТЬ ТОЧНО НЕ ПРИДЁТСЯ:

Бесконечно заниматься «дата-клинингом» и выпрашивать доступы к данным.
🚫Работать «пожарным» и вручную собирать одни и те же отчёты. Мы верим в автоматизацию, системный подход и стремимся, чтобы аналитика отвечала на вопрос «почему?», а не только «сколько?».
🚫Создавать дашборды, которые никто не откроет, и писать отчёты «в стол».
🚫Скучать в окружении устаревших технологий и бюрократии.

📝ТРЕБОВАНИЯ:

📌2-3 года опыта на аналогичных позициях: #старши аналитик, #главныйаналитик, #аналитикданных, #бизнес-аналитик, аналитик процессов, #DataEngineer, #Data Analyst, #разработчикданных, #инженерпообработкеданных, #BI-инженер, BI-аналитик, #специалистпо ETL-процессам, #специалистп управлениюданными

📌Опыт разработки ETL-процессов на Python
📌Знание SQL на высоком уровне (UPSERT, JSONB, сэмплирование, приближенные вычисления, оконные функции)
📌Опыт работы с Dagster или аналогичными оркестраторами (Airflow)
📌Знание принципов Data Quality и опытом работы с инструментами проверки качества (Great Expectations или аналогами)
📌Понимание концепций Data Governance
📌Навыки написания чистого, документированного кода

🖇️Технический стек для позиции «Ведущий аналитик (middle)» в Бризекс включает:
- Python для разработки ETL-пайплайнов
- Dagster (или аналогичные оркестраторы типа Airflow)
- ClickHouse как основную аналитическую СУБД
- SQL высокого уровня (оконные функции, UPSERT, JSONB, сэмплирование, приближённые вычисления)
- Great Expectations для контроля качества данных
- OpenMetadata для каталогизации данных и Data Lineage
- Superset и Google Sheets для визуализации и отчётности
- Grafana/Kibana для мониторинга
- Elasticsearch и ELK Stack (как дополнительный плюс)

УСЛОВИЯ:

- Оплата: 100 000 – 200 000 ₽, на руки. Оклад+KPI
- Удалённая работа, единый график с командой (9:00–18:00 по МСК)
- Оформление с первого дня по ТК РФ.
- Наставничество, обучение, доступ к библиотеке знаний компании

ПРЕИМУЩЕСТВА РАБОТЫ В БРИЗЕКС:

Работайте с современным стеком и влияйте на его развитие: У нас нет легаси-кода и устаревших подходов. Вы будете работать с Dagster, ClickHouse, OpenMetadata и Great Expectations и сможете напрямую влиять на выбор и внедрение новых инструментов для построения data-платформы.

Видьте реальное влияние своей работы на бизнес: Ваша работа — не просто «перекладывание данных».

Стройте data-культуру, а не боритесь с хаосом: Мы системно инвестируем в Data Governance и качество данных.

Получите автономию и работайте без микроменеджмента: Мы ценим системное мышление и зрелость.

Растите вместе с компанией: Мы строим компанию будущего, где AI и данные усиливают людей.

Если готовы обсудить всё подробнее — откликайтесь на вакансию 🚀@HR_Breezeks и мы расскажем о дальнейших действиях. 📝💼