#вакансия #удаленка (можно не из РФ)
от 350 к. на руки
Для построения DWH (строим с нуля) в крупном ретейлере ВкусВилл нужен сильный разраб. По части DWH нам помогает Голов Николай (Дата Волт). Строим на Гринпламе 6.23, планируем, впоследствии, на 7.
Стак маст хэв:
- pyspark (пока питонячий, ибо в самом начале внедрения)
залив логов в стейдж, парсинг логов, нужна отладка для многопоточной обработки с гринпламовским спарк коннектором.
- Airflow. У нас много разных Аирфлоу, и есть даже один NiFi, но он не вывозит
- сильный Python. Ибо ного Аирфлоу.
Будет плюсом:
- Kafka. Вычитываем из неё всякими разными способами, потому что спарк тольком ещё не освоили.
- dbt. у нас есть полтора человека, которые некоторые части дата волта собирают этой тулой, будет неплохо их усилить.
- Greenplum
- Clickhouse
- опыт с Data Vault
- Debezium. Есть в мыслях.
Если ваш пул несколько шире, и вы считаете, что нужно предложить зп повыше - это обсуждаемо. Я участвую в собеседованиях, можем заранее в личке познакомиться)
@rpuropu
от 350 к. на руки
Для построения DWH (строим с нуля) в крупном ретейлере ВкусВилл нужен сильный разраб. По части DWH нам помогает Голов Николай (Дата Волт). Строим на Гринпламе 6.23, планируем, впоследствии, на 7.
Стак маст хэв:
- pyspark (пока питонячий, ибо в самом начале внедрения)
залив логов в стейдж, парсинг логов, нужна отладка для многопоточной обработки с гринпламовским спарк коннектором.
- Airflow. У нас много разных Аирфлоу, и есть даже один NiFi, но он не вывозит
- сильный Python. Ибо ного Аирфлоу.
Будет плюсом:
- Kafka. Вычитываем из неё всякими разными способами, потому что спарк тольком ещё не освоили.
- dbt. у нас есть полтора человека, которые некоторые части дата волта собирают этой тулой, будет неплохо их усилить.
- Greenplum
- Clickhouse
- опыт с Data Vault
- Debezium. Есть в мыслях.
Если ваш пул несколько шире, и вы считаете, что нужно предложить зп повыше - это обсуждаемо. Я участвую в собеседованиях, можем заранее в личке познакомиться)
@rpuropu
👍10🔥2
ИТ + научпоп + музыка = большой ИТ-пикник в Москве 💛
2 сентября Тинькофф, CodeFest и Мельница собирают большой благотворительный ИТ-фестиваль. Встречаемся в Коломенском на максимально летнем вайбе.
В программе: ИТ- и научпоп-лектории, выступления топовых спикеров, воркшопы, интерактивные зоны и вишенка на торте — музыкальные перформансы от Антохи MC, Zoloto, Therr Maitz, The Hatters, «Сироткина», а также секретного хедлайнера. Как думаете, кто им может быть?
Для участия нужно выбрать благотворительный фонд из списка и сделать донат от 1000 рублей. Подробности и регистрация — тут.
Реклама. АО "Тинькофф Банк"
2 сентября Тинькофф, CodeFest и Мельница собирают большой благотворительный ИТ-фестиваль. Встречаемся в Коломенском на максимально летнем вайбе.
В программе: ИТ- и научпоп-лектории, выступления топовых спикеров, воркшопы, интерактивные зоны и вишенка на торте — музыкальные перформансы от Антохи MC, Zoloto, Therr Maitz, The Hatters, «Сироткина», а также секретного хедлайнера. Как думаете, кто им может быть?
Для участия нужно выбрать благотворительный фонд из списка и сделать донат от 1000 рублей. Подробности и регистрация — тут.
Реклама. АО "Тинькофф Банк"
Старший аналитик данных в HR Tech
Яндекс
Москва / хабы Яндекса, гибридный формат работы
уровень специалиста - senior, от 3-4х лет работы
Команда people-аналитики Яндекса ищет коллегу и друга, который будет помогать развивать аналитику в HR-департаменте, проверять гипотезы бизнеса с помощью данных и участвовать в разработке дашбордов.
Что нужно делать:
- отвечать за подготовку аналитических расчётов;
- прорабатывать ТЗ и сценарии использования дашбордов;
- визуализировать метрики и данные с помощью BI-инструментов;
- консультировать внутренних заказчиков;
- развивать хранилище DWH: описывать и проверять данные, транслировать логику.
Мы ждем, что вы:
- окончили вуз по технической или экономической специальности;
- работали в роли аналитика данных больше трёх лет;
- работали с большими неструктурированными массивами данных;
- уверенно владеете SQL и Python, включая NumPy и pandas;
- владеете Excel
Откликнуться: https://clck.ru/35KStg
Для связи в тг: @irinavlsv
Яндекс
Москва / хабы Яндекса, гибридный формат работы
уровень специалиста - senior, от 3-4х лет работы
Команда people-аналитики Яндекса ищет коллегу и друга, который будет помогать развивать аналитику в HR-департаменте, проверять гипотезы бизнеса с помощью данных и участвовать в разработке дашбордов.
Что нужно делать:
- отвечать за подготовку аналитических расчётов;
- прорабатывать ТЗ и сценарии использования дашбордов;
- визуализировать метрики и данные с помощью BI-инструментов;
- консультировать внутренних заказчиков;
- развивать хранилище DWH: описывать и проверять данные, транслировать логику.
Мы ждем, что вы:
- окончили вуз по технической или экономической специальности;
- работали в роли аналитика данных больше трёх лет;
- работали с большими неструктурированными массивами данных;
- уверенно владеете SQL и Python, включая NumPy и pandas;
- владеете Excel
Откликнуться: https://clck.ru/35KStg
Для связи в тг: @irinavlsv
#вакансия #продуктовый_аналитик #дата_аналитик #middle #junior #москва
Компания: Газпром-Медиа Холдинг (онлайн кинотеатр Premier)
Грейд: предпочтение Middle, готовы рассмотреть Junior
Формат работы: Москва(гибрид), для Middle готовы рассмотреть удаленный формат по РФ
Локация: Москва, м. Сокол, бц Алкон
У нас много интересных задач в разных направлениях:
- Маркетинговая / клиентская аналитика:
- Анализ трафика / рекламных кампаний.
- Анализ и оптимизация воронки продаж.
- Анализ коммуникации с клиентом.
- Поддержка аудиторного / сегментного маркетинга
- Продуктовая аналитика:
- Поиск и проверка продуктовых фич / гипотез в рамках A/B тестов.
- Анализ приток / оттока клиентов.
- Мультиплатформенный продуктовый анализ. У нас 4 платформы (сайт, моб. приложение, ТВ на Android / Apple TV и конечно же Smart TV).
- BI аналитика: разработка регулярных отчетов / дашбордов и построение AdHoc отчетов.
И конечно же у нас ML задачи по прогнозированию притока/оттока и разработка Data продуктов для продакт менеджеров, маркетологов и руководства.
Что мы ожидаем от кандидата?
- Опыт от 3+ года для Middle и от 0,5 года для Junior.
- Уверенные знания математики и основ статистики.
- Опыт работы с BI инструментами.
- Умение общаться с заказчиками и выявлять бизнес-требования
- Умение рассказать о полученных на основе работы с данными выводах понятным языком для бизнес заказчиков.
- Понимание продуктовых метрик, связанных с привлечением, удержанием и оттоком пользователей.
- Владение SQL / Python
Наш технологический стек: ClickHouse, PostgreSQL, Spark, Python (JypyterLab / VSCode), Redash, Tableu.
Резюме и вопросы - @annheys
Компания: Газпром-Медиа Холдинг (онлайн кинотеатр Premier)
Грейд: предпочтение Middle, готовы рассмотреть Junior
Формат работы: Москва(гибрид), для Middle готовы рассмотреть удаленный формат по РФ
Локация: Москва, м. Сокол, бц Алкон
У нас много интересных задач в разных направлениях:
- Маркетинговая / клиентская аналитика:
- Анализ трафика / рекламных кампаний.
- Анализ и оптимизация воронки продаж.
- Анализ коммуникации с клиентом.
- Поддержка аудиторного / сегментного маркетинга
- Продуктовая аналитика:
- Поиск и проверка продуктовых фич / гипотез в рамках A/B тестов.
- Анализ приток / оттока клиентов.
- Мультиплатформенный продуктовый анализ. У нас 4 платформы (сайт, моб. приложение, ТВ на Android / Apple TV и конечно же Smart TV).
- BI аналитика: разработка регулярных отчетов / дашбордов и построение AdHoc отчетов.
И конечно же у нас ML задачи по прогнозированию притока/оттока и разработка Data продуктов для продакт менеджеров, маркетологов и руководства.
Что мы ожидаем от кандидата?
- Опыт от 3+ года для Middle и от 0,5 года для Junior.
- Уверенные знания математики и основ статистики.
- Опыт работы с BI инструментами.
- Умение общаться с заказчиками и выявлять бизнес-требования
- Умение рассказать о полученных на основе работы с данными выводах понятным языком для бизнес заказчиков.
- Понимание продуктовых метрик, связанных с привлечением, удержанием и оттоком пользователей.
- Владение SQL / Python
Наш технологический стек: ClickHouse, PostgreSQL, Spark, Python (JypyterLab / VSCode), Redash, Tableu.
Резюме и вопросы - @annheys
👍1👎1
#web #app #analyst #middle
Компания: Азбука вкуса
Уровень: middle, middle+
Занятость: Fulltime
Оформление: в штат
Ищем в команду аналитики (1 middle + 2 junior) на web/app
Зарплатная вилка: до 230k на руки (265k gross) по итогам собеседования.
Азбука вкуса — сеть продовольственных супермаркетов в Москве, Московской области и Санкт-Петербурге. Является первой в России компанией фуд-ритейла, получившей сертификат менеджмента качества ISO. Азбука вкуса сегодня — это уникальная омниканальная экосистема питания с собственными фуд-технологиями и фуд-сервисами
Что предстоит делать:
• Формировать ТЗ на внедрение аналитики, проводить проверку внедрения
• Определять и корректировать структуру сквозных метрик и логов
• Формировать структуру отчетности и строить отчеты по запросу бизнеса
• Настраивать Яндекс Метрику, Google Tag Manager, Matomo Tag
• Настраивать App Metrica, AppsFlyer
• Помогать продуктовым командам в формировании гипотез по точкам роста продукта
• Проектирование и проведение A/B-тестов, анализ результатов
• Автоматизацией отчетности, создание дашбордов (YDL, Metabase, Oracle)
• Анализ поведения посетителей и покупателей на сайте: конверсий, рекламных каналов, пользовательских путей, карты кликов, форм, проведение когортного анализа и т.д
• Интеграция и анализ эффективности веб и апп решений, коммуникации с внутренними заказчиками и внешними сервисами, оценка внедрения нового функционала
• Подготовка и визуализация еженедельной и ежемесячной отчётности (сайт, мобильная версия, мобильное приложение), оценка эффективности маркетинговых каналов по различным показателям
• Мониторинг рынка, отслеживание новинок и важных изменений в процессах размещения рекламы и аналитических систем
Что важно:
• Опыт работы с GAU, GA4, Яндекс.Метрикой, Firebase, AppMetrica, AppsFlyer
• Опыт работы с Google Tag Manager
• Опыт работы с BigQuery/ClickHouse, уверенное знание SQL
• Умение работать в команде (Scrum, Jira, Confluence)
• Умение строить оптимизированные realtime дашборды в Metabase / Yandex DataLens / Microsoft Power BI / Oracle или Tableau/Looker Studio
• Знание основ математической статистики и теории вероятности (в том числе параметрических и непараметрических статистических тестов);
• Уверенное владение базовыми методами анализа данных (регрессионный анализ, корреляционный анализ, многомерный анализ, кластеризация)
• Базовые знания HTML-верстки, css и JS
• Базовые знания Python (pandas, numpy, matplotlib,seaborn)
• Базовые знания GIT и Airflow
Что предлагаем:
• гибридный график работы
• график 5/2 с 10 до 19 часов, но при необходимости часы работы подстроим под вас;
• оформление по ТК РФ: больничный + отпуск.
• можно работать на своем ноуте или выдадим от компании по желанию
• Интересные кейсы, нетривиальные задачи
• Команду с единомышленниками, которые хотят делать интересные продукты и развивать сервисы.
• Скидки на продукцию компании, возможность погрузится во вкусный мир Азбуки вкуса
Присылайте свои резюме и рекомендуйте знакомых сюда:
@nodubinina
ndubinina@azbukavkusa.ru
Компания: Азбука вкуса
Уровень: middle, middle+
Занятость: Fulltime
Оформление: в штат
Ищем в команду аналитики (1 middle + 2 junior) на web/app
Зарплатная вилка: до 230k на руки (265k gross) по итогам собеседования.
Азбука вкуса — сеть продовольственных супермаркетов в Москве, Московской области и Санкт-Петербурге. Является первой в России компанией фуд-ритейла, получившей сертификат менеджмента качества ISO. Азбука вкуса сегодня — это уникальная омниканальная экосистема питания с собственными фуд-технологиями и фуд-сервисами
Что предстоит делать:
• Формировать ТЗ на внедрение аналитики, проводить проверку внедрения
• Определять и корректировать структуру сквозных метрик и логов
• Формировать структуру отчетности и строить отчеты по запросу бизнеса
• Настраивать Яндекс Метрику, Google Tag Manager, Matomo Tag
• Настраивать App Metrica, AppsFlyer
• Помогать продуктовым командам в формировании гипотез по точкам роста продукта
• Проектирование и проведение A/B-тестов, анализ результатов
• Автоматизацией отчетности, создание дашбордов (YDL, Metabase, Oracle)
• Анализ поведения посетителей и покупателей на сайте: конверсий, рекламных каналов, пользовательских путей, карты кликов, форм, проведение когортного анализа и т.д
• Интеграция и анализ эффективности веб и апп решений, коммуникации с внутренними заказчиками и внешними сервисами, оценка внедрения нового функционала
• Подготовка и визуализация еженедельной и ежемесячной отчётности (сайт, мобильная версия, мобильное приложение), оценка эффективности маркетинговых каналов по различным показателям
• Мониторинг рынка, отслеживание новинок и важных изменений в процессах размещения рекламы и аналитических систем
Что важно:
• Опыт работы с GAU, GA4, Яндекс.Метрикой, Firebase, AppMetrica, AppsFlyer
• Опыт работы с Google Tag Manager
• Опыт работы с BigQuery/ClickHouse, уверенное знание SQL
• Умение работать в команде (Scrum, Jira, Confluence)
• Умение строить оптимизированные realtime дашборды в Metabase / Yandex DataLens / Microsoft Power BI / Oracle или Tableau/Looker Studio
• Знание основ математической статистики и теории вероятности (в том числе параметрических и непараметрических статистических тестов);
• Уверенное владение базовыми методами анализа данных (регрессионный анализ, корреляционный анализ, многомерный анализ, кластеризация)
• Базовые знания HTML-верстки, css и JS
• Базовые знания Python (pandas, numpy, matplotlib,seaborn)
• Базовые знания GIT и Airflow
Что предлагаем:
• гибридный график работы
• график 5/2 с 10 до 19 часов, но при необходимости часы работы подстроим под вас;
• оформление по ТК РФ: больничный + отпуск.
• можно работать на своем ноуте или выдадим от компании по желанию
• Интересные кейсы, нетривиальные задачи
• Команду с единомышленниками, которые хотят делать интересные продукты и развивать сервисы.
• Скидки на продукцию компании, возможность погрузится во вкусный мир Азбуки вкуса
Присылайте свои резюме и рекомендуйте знакомых сюда:
@nodubinina
ndubinina@azbukavkusa.ru
👎4👍1
#datascience #bigdata #ai #vacancy #datascientistjobs #remote #fulltimejob
Нужен DATA SCIENTIST в кор команду разработки системы менеджмента производства на базе AI (BigData и нейросети). У команды большой опыт в IT, а у проекта нет конкурентов, зато есть большие перспективы🙂.
Ребята ищут Дата Сатаниста с общим опытом в сфере от 3 лет. Живого и легкого в общении )
Задачи:
- анализ процессов на производстве заказчика;
- генерирование идей и их реализация для решения задач компьютерного зрения и машинного обучения;
- осуществление полного цикла разработки модели от постановки эксперимента до выкатывания в продакшн.
Стек: Python, PostgreSQL; CV (YOLO, ResNet, др.); ОС Linux, Git, Docker. Опыт работы с нейросетями/AI, опыт решения задач классификации, детекции, сегментации, трекинга для изображений.
😎 Условия: зп до 300.000 руб., оформление по ТК РФ или как самозанятый, ремоут !!!из РФ (часовая зона +/- 2 часа от Мск).
За подробностями пиши в @lalla_dallas. Расскажи друзьям — возможно, это то, что они ищут 💚
Нужен DATA SCIENTIST в кор команду разработки системы менеджмента производства на базе AI (BigData и нейросети). У команды большой опыт в IT, а у проекта нет конкурентов, зато есть большие перспективы🙂.
Ребята ищут Дата Сатаниста с общим опытом в сфере от 3 лет. Живого и легкого в общении )
Задачи:
- анализ процессов на производстве заказчика;
- генерирование идей и их реализация для решения задач компьютерного зрения и машинного обучения;
- осуществление полного цикла разработки модели от постановки эксперимента до выкатывания в продакшн.
Стек: Python, PostgreSQL; CV (YOLO, ResNet, др.); ОС Linux, Git, Docker. Опыт работы с нейросетями/AI, опыт решения задач классификации, детекции, сегментации, трекинга для изображений.
😎 Условия: зп до 300.000 руб., оформление по ТК РФ или как самозанятый, ремоут !!!из РФ (часовая зона +/- 2 часа от Мск).
За подробностями пиши в @lalla_dallas. Расскажи друзьям — возможно, это то, что они ищут 💚
👍3👎3🤔3
⚡Легкий способ получать свежие обновлении и следить за трендами в разработке на вашем языке. Находите свой стек и подписывайтесь:
Машинное обучение: @ai_machinelearning_big_data
Go: @Golang_google
C#: @csharp_ci
Базы данных: @sqlhub
Python: @pythonl
C/C++/: @cpluspluc
Data Science: @data_analysis_ml
Devops: @devOPSitsec
Rust: @rust_code
Javascript: @javascriptv
React: @react_tg
PHP: @phpshka
Docker: @docker
Android: @android_its
Мобильная разработка: @mobdevelop
Linux: linuxacademy
Big Data: t.me/bigdatai
Хакинг: @linuxkalii
Java:@javatg
Собеседования: @machinelearning_interview
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
🔥ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: @english_forprogrammers
Машинное обучение: @ai_machinelearning_big_data
Go: @Golang_google
C#: @csharp_ci
Базы данных: @sqlhub
Python: @pythonl
C/C++/: @cpluspluc
Data Science: @data_analysis_ml
Devops: @devOPSitsec
Rust: @rust_code
Javascript: @javascriptv
React: @react_tg
PHP: @phpshka
Docker: @docker
Android: @android_its
Мобильная разработка: @mobdevelop
Linux: linuxacademy
Big Data: t.me/bigdatai
Хакинг: @linuxkalii
Java:@javatg
Собеседования: @machinelearning_interview
💼 Папка с вакансиями: t.me/addlist/_zyy_jQ_QUsyM2Vi
Папка Go разработчика: t.me/addlist/MUtJEeJSxeY2YTFi
Папка Python разработчика: t.me/addlist/eEPya-HF6mkxMGIy
🔥ИТ-Мемы: t.me/memes_prog
🇬🇧Английский: @english_forprogrammers
👍3🔥1
👨🏻💻Вакансия: Middle Product Analyst;
🎯Компания: EMEX;
💰ЗП: 160-260 gross;
⏰Занятость: удаленка,полная занятость, 5/2;
Всем привет! 🖐🏻
В активно растущий e-commerce проект EMEX (маркетплейс автозапчастей) ищем Middle Product Analyst, чтобы развивать культуру продуктовой аналитики в команде.
Коротко о том, чем предстоит заниматься:
- Оценивать влияние ключевых метрик проекта
- Анализировать пользовательское поведение и функциональность продукта
- Проводить a/b тесты и проверять гипотезы
- Поддерживать продуктовую команду в сборе аналитики и проведении экспериментов
Что важно:
- Уверенные знания SQL, Python, теории вероятностей и математической статистики
- Готовность осваивать новые инструменты и технологии;
- Умение грамотно отстаивать свою точку зрения и слышать чужие
- Опыт в продуктовой аналитике от 2-х лет
❗️Можно работать полностью удаленно (в том числе за пределами РФ)❗️
Ссылка на подробное описание вот тут
📩 Для связи и более подробного обсуждения можно писать в tg: @alexatokareva
#remote #ecommerce #productanalyst #вакансия #удаленка #продуктовыйаналитик
🎯Компания: EMEX;
💰ЗП: 160-260 gross;
⏰Занятость: удаленка,полная занятость, 5/2;
Всем привет! 🖐🏻
В активно растущий e-commerce проект EMEX (маркетплейс автозапчастей) ищем Middle Product Analyst, чтобы развивать культуру продуктовой аналитики в команде.
Коротко о том, чем предстоит заниматься:
- Оценивать влияние ключевых метрик проекта
- Анализировать пользовательское поведение и функциональность продукта
- Проводить a/b тесты и проверять гипотезы
- Поддерживать продуктовую команду в сборе аналитики и проведении экспериментов
Что важно:
- Уверенные знания SQL, Python, теории вероятностей и математической статистики
- Готовность осваивать новые инструменты и технологии;
- Умение грамотно отстаивать свою точку зрения и слышать чужие
- Опыт в продуктовой аналитике от 2-х лет
❗️Можно работать полностью удаленно (в том числе за пределами РФ)❗️
Ссылка на подробное описание вот тут
📩 Для связи и более подробного обсуждения можно писать в tg: @alexatokareva
#remote #ecommerce #productanalyst #вакансия #удаленка #продуктовыйаналитик
👎4👍3
#аналитик #vacancy #работа #fulltime
Всем привет!
Аналитик отдела ценообразования в MySky
Уровень: junior+
Компания: MySky (MyJet)
Локация: Москва
Формат работы: гибрид
Занятость: full-time, 5/2
Контакт: @irina_lingren
Майджет – инновационная IT компания, созданная для прогноза, управления и контроля финансов на рынке бизнес-авиации.
В нашу команду экспертов ищем Аналитика данных, который поможет в проектировании и развитии нашего эксклюзивного сервиса. Мы занимаемся разработкой автоматизированных бизнес-моделей для расчета услуг аэропортов, FBO и хендлеров. Эти модели позволяют провести сравнительный анализ стоимостной эффективности обслуживания в конкретном аэропорту, кроме того, модели позволяют с высокой точностью рассчитать расходы на предстоящие чартерные полеты по всему миру, а также сформировать бюджет на владение самолетом.
Чем предстоит заниматься:
- Формировать автоматизированные вычислительные модели в MS Excel;
- Анализировать ценовую информацию от провайдеров;
- Участвовать в построении архитектуры алгоритмов вычислений и их взаимодействий;
- Создавать структуры данных, описание алгоритмов обработки данных;
- Организовывать и вести базы данных.
Мы ждем, что ты:
- Владеешь MS Excel на продвинутом уровне (составление сложных формул, работа с массивами);
- Знаешь SQL на уровне написания простых запросов;
- Знаешь английский язык на уровне Intermediate и выше;
- Имеешь опыт работы со смежным функционалом от 1 года.
На что еще обращаем внимание:
- Имеешь развитые аналитические способности, готовность к интенсивной работе, ответственность, целеустремленность, самостоятельность;
- Умеешь разложить сложную задачу на составные части;
- Умеешь выявлять риски будущего решения;
- Ранее работал в IT или в авиационной отрасли;
- Есть опыт составления ТЗ на разработку;
- Есть опыт работы с RESTful API и JSON.
Что предлагаем:
- Трудоустройство по ТК РФ;
- Зарплата обсуждается с успешными кандидатами;
- Территориальное расположение: Москва, м.Менделеевская/Новослободская;
- График работы: 5/2 9:00/10:00 - 18:00/19:00 (на время испытательного периода, 3 месяца, частое посещение офиса, почти каждый день, после успешного прохождения испытательного периода - пару раз в неделю работа в офисе, остальные дни - удаленно);
- ДМС после прохождения испытательного срока.
Интересно? - Давай знакомиться:
irina.zinovieva@mysky.com
tg - @irina_lingren
Всем привет!
Аналитик отдела ценообразования в MySky
Уровень: junior+
Компания: MySky (MyJet)
Локация: Москва
Формат работы: гибрид
Занятость: full-time, 5/2
Контакт: @irina_lingren
Майджет – инновационная IT компания, созданная для прогноза, управления и контроля финансов на рынке бизнес-авиации.
В нашу команду экспертов ищем Аналитика данных, который поможет в проектировании и развитии нашего эксклюзивного сервиса. Мы занимаемся разработкой автоматизированных бизнес-моделей для расчета услуг аэропортов, FBO и хендлеров. Эти модели позволяют провести сравнительный анализ стоимостной эффективности обслуживания в конкретном аэропорту, кроме того, модели позволяют с высокой точностью рассчитать расходы на предстоящие чартерные полеты по всему миру, а также сформировать бюджет на владение самолетом.
Чем предстоит заниматься:
- Формировать автоматизированные вычислительные модели в MS Excel;
- Анализировать ценовую информацию от провайдеров;
- Участвовать в построении архитектуры алгоритмов вычислений и их взаимодействий;
- Создавать структуры данных, описание алгоритмов обработки данных;
- Организовывать и вести базы данных.
Мы ждем, что ты:
- Владеешь MS Excel на продвинутом уровне (составление сложных формул, работа с массивами);
- Знаешь SQL на уровне написания простых запросов;
- Знаешь английский язык на уровне Intermediate и выше;
- Имеешь опыт работы со смежным функционалом от 1 года.
На что еще обращаем внимание:
- Имеешь развитые аналитические способности, готовность к интенсивной работе, ответственность, целеустремленность, самостоятельность;
- Умеешь разложить сложную задачу на составные части;
- Умеешь выявлять риски будущего решения;
- Ранее работал в IT или в авиационной отрасли;
- Есть опыт составления ТЗ на разработку;
- Есть опыт работы с RESTful API и JSON.
Что предлагаем:
- Трудоустройство по ТК РФ;
- Зарплата обсуждается с успешными кандидатами;
- Территориальное расположение: Москва, м.Менделеевская/Новослободская;
- График работы: 5/2 9:00/10:00 - 18:00/19:00 (на время испытательного периода, 3 месяца, частое посещение офиса, почти каждый день, после успешного прохождения испытательного периода - пару раз в неделю работа в офисе, остальные дни - удаленно);
- ДМС после прохождения испытательного срока.
Интересно? - Давай знакомиться:
irina.zinovieva@mysky.com
tg - @irina_lingren
👎6👍4
#вакансия #СПб #job #vacancy #SQL #BI #FineBi #Tableau
🔵В аккредитованную IT-компанию BI Consult ищем аналитика-разработчика Fine BI/Tableau.
Формат работы: офис (СПб)
Занятость: полная занятость
Компания «BI Consult» специализируется на оказании услуг в области создания систем бизнес-анализа (BI) и консалтинга.
🔹Требования:
-Опыт работы с базами данных;
-Понимание SQL на уровне написания простых и вложенных запросов;
-Опыт работы с системами Fine BI или Tableau;
-Опыт формализации требований и подготовки документации;
🔹Примеры задач:
-Разработка и макетирование дашбордов в системе Fine BI/Tableau;
-Presale проектов BI. Участие в переговорах с клиентами, проведение презентаций, технических консультаций;
-Сбор, анализ и формализация бизнес-требований к новым проектам. Подготовка сопроводительной документации;
-Сопровождение существующих проектов. Проведение аудита, доработки и оптимизации решений заказчика.
Контакты: @itrecruteva
🔵В аккредитованную IT-компанию BI Consult ищем аналитика-разработчика Fine BI/Tableau.
Формат работы: офис (СПб)
Занятость: полная занятость
Компания «BI Consult» специализируется на оказании услуг в области создания систем бизнес-анализа (BI) и консалтинга.
🔹Требования:
-Опыт работы с базами данных;
-Понимание SQL на уровне написания простых и вложенных запросов;
-Опыт работы с системами Fine BI или Tableau;
-Опыт формализации требований и подготовки документации;
🔹Примеры задач:
-Разработка и макетирование дашбордов в системе Fine BI/Tableau;
-Presale проектов BI. Участие в переговорах с клиентами, проведение презентаций, технических консультаций;
-Сбор, анализ и формализация бизнес-требований к новым проектам. Подготовка сопроводительной документации;
-Сопровождение существующих проектов. Проведение аудита, доработки и оптимизации решений заказчика.
Контакты: @itrecruteva
👍2🔥2❤1🤮1
#вакансия #фултайм #гибрид #Москва #аккредитация #sql #phyton #data_analytics #data_engineering
🌾Мы ищем Руководителя отдела аналитики в поле.рф - экосистему для аграриев, где можно купить сельхозтовары, продать урожай, получить финансирование на развитие, оформить в лизинг большую и сложную технику, получить профессиональную агро-консультацию, почитать новости и аналитику по отрасли.
Команда Поле.рф объединяет специалистов из IT и сельского хозяйства, которые решили сделать что-то новое с нуля и задизраптить практически неоцифрованный и перспективный рынок при поддержке лидеров банковской и с/х сферы.
✅Зона ответственности:
• Развивать аналитические процессы и инфраструктуру в компании
• Искать точки роста и инсайты для бизнеса
• Внедрить и развивать культуру экспериментов в компании
✅Наши ожидания:
• Высшее образование (приветствуется образование в области статистики)
• Опыт руководства небольшими, распределенными командами, опыт наставничества.
• Опыт настройки аналитических процессов в компании
• Активное hands on участие в аналитической и инженерной работе в условиях небольшой команды
• Опыт работы в аналитике и/или дата инженерии от 3-х лет
✅Необходимые навыки:
• Свободное владение SQL (оптимизация, оконные функции, DDL) и понимание внутреннего устройства баз данных и их особенностей (в нашем случае – Postgres, Clickhouse)
• Продвинутый уровень Python, достаточный для написания масштабируемых ETL пайплайнов, работы с API, базами данных и оркестраторами (Airflow/Prefect)
• Опыт работы с dbt или желание погрузиться в новый инструмент
• Опыт построения дата платформ (отдельный плюс, если в облачной среде), разработки DWH
• Свободное владение BI системами (в нашем случае – Metabase, Superset, Datalens), опыт работы с системами веб аналитики и понимание ключевых статистических подходов к анализу данных
✅Желательно:
• Релевантный опыт работы с ML (прогнозирование timeseries рядов, классификация)
• Понимание CI/CD, Data Governance процессов
✅Мы предлагаем:
• Льготы аккредитованной IT компании
• Конкурентная заработная плата
• MacBook Pro, ДМС
• Гибкий гибридный график работы (желательно посещение офиса Москва-Сити 1-2 дня в неделю)
• Возможность выстраивать процессы и быстро увидеть результат своей работы 📩Для резюме и вопросов по вакансии: @HRvPole
🌾Мы ищем Руководителя отдела аналитики в поле.рф - экосистему для аграриев, где можно купить сельхозтовары, продать урожай, получить финансирование на развитие, оформить в лизинг большую и сложную технику, получить профессиональную агро-консультацию, почитать новости и аналитику по отрасли.
Команда Поле.рф объединяет специалистов из IT и сельского хозяйства, которые решили сделать что-то новое с нуля и задизраптить практически неоцифрованный и перспективный рынок при поддержке лидеров банковской и с/х сферы.
✅Зона ответственности:
• Развивать аналитические процессы и инфраструктуру в компании
• Искать точки роста и инсайты для бизнеса
• Внедрить и развивать культуру экспериментов в компании
✅Наши ожидания:
• Высшее образование (приветствуется образование в области статистики)
• Опыт руководства небольшими, распределенными командами, опыт наставничества.
• Опыт настройки аналитических процессов в компании
• Активное hands on участие в аналитической и инженерной работе в условиях небольшой команды
• Опыт работы в аналитике и/или дата инженерии от 3-х лет
✅Необходимые навыки:
• Свободное владение SQL (оптимизация, оконные функции, DDL) и понимание внутреннего устройства баз данных и их особенностей (в нашем случае – Postgres, Clickhouse)
• Продвинутый уровень Python, достаточный для написания масштабируемых ETL пайплайнов, работы с API, базами данных и оркестраторами (Airflow/Prefect)
• Опыт работы с dbt или желание погрузиться в новый инструмент
• Опыт построения дата платформ (отдельный плюс, если в облачной среде), разработки DWH
• Свободное владение BI системами (в нашем случае – Metabase, Superset, Datalens), опыт работы с системами веб аналитики и понимание ключевых статистических подходов к анализу данных
✅Желательно:
• Релевантный опыт работы с ML (прогнозирование timeseries рядов, классификация)
• Понимание CI/CD, Data Governance процессов
✅Мы предлагаем:
• Льготы аккредитованной IT компании
• Конкурентная заработная плата
• MacBook Pro, ДМС
• Гибкий гибридный график работы (желательно посещение офиса Москва-Сити 1-2 дня в неделю)
• Возможность выстраивать процессы и быстро увидеть результат своей работы 📩Для резюме и вопросов по вакансии: @HRvPole
❤4👍1
Junior+, Middle CV Engineer
ℹ️ Компания: MLStation (http://mlstation.ru)
Локация компании: Мск
Мы в MLStation разрабатываем различные решения на базе компьютерного зрения для наших заказчиков и партнеров. Работаем в различных доменных областях, например, анализируем действия бойцов MMA или оцениваем аномальные действия людей в различных индустриях.
🎯 Задачи:
- Собирать данные для разметки данных (ручным/полуручным способом)
- Формировать требования к разметке данных
- Запускать и фиксировать результаты обучения новых моделей (детекции, сегментации и классификации изображений)
- Разрабатывать алгоритмы пре-и постпроцессинга изображения и видео
- Собирать в MVP для демо
- Собирать модель и катить в прод
- Находить и реализовывать стандартные / нестандартные подходы при работе в видеопотоком
✅Требования:
- Опыт разработки на Python от 3-х лет
- Опыт в СV не менее 1 года
- Знание классического CV, Deep Learning и принципов архитектур нейронных сетей
- Практическое использование инструментов и подходов к продуктивизации CV моделей
- Регулярное применение инструментов разработки: Linux, Git, VSCode / PyCharm, Docker, S3 like storage
- Высшее техническое образование
⌨️Наш стек: PyTorch, ClearML, TensorRT, ONNX, OpenCV, Gstreamer, Docker и т.д.
🪟Условия:
- Полная удаленка
- Гибкое время начала и окончания рабочего дня
- ЗП по рынку (обсуждаем с успешными кандидатами)
Для связи @tarrapid
ℹ️ Компания: MLStation (http://mlstation.ru)
Локация компании: Мск
Мы в MLStation разрабатываем различные решения на базе компьютерного зрения для наших заказчиков и партнеров. Работаем в различных доменных областях, например, анализируем действия бойцов MMA или оцениваем аномальные действия людей в различных индустриях.
🎯 Задачи:
- Собирать данные для разметки данных (ручным/полуручным способом)
- Формировать требования к разметке данных
- Запускать и фиксировать результаты обучения новых моделей (детекции, сегментации и классификации изображений)
- Разрабатывать алгоритмы пре-и постпроцессинга изображения и видео
- Собирать в MVP для демо
- Собирать модель и катить в прод
- Находить и реализовывать стандартные / нестандартные подходы при работе в видеопотоком
✅Требования:
- Опыт разработки на Python от 3-х лет
- Опыт в СV не менее 1 года
- Знание классического CV, Deep Learning и принципов архитектур нейронных сетей
- Практическое использование инструментов и подходов к продуктивизации CV моделей
- Регулярное применение инструментов разработки: Linux, Git, VSCode / PyCharm, Docker, S3 like storage
- Высшее техническое образование
⌨️Наш стек: PyTorch, ClearML, TensorRT, ONNX, OpenCV, Gstreamer, Docker и т.д.
🪟Условия:
- Полная удаленка
- Гибкое время начала и окончания рабочего дня
- ЗП по рынку (обсуждаем с успешными кандидатами)
Для связи @tarrapid
❤2👍1
Data Engineer в международную финтех компанию
Формат: удалённый
Занятость: полная
💰 до 400к на руки
О компании: Banks Soft Systems
📌 Чем предстоит заниматься:
● Разрабатывать и сопровождать сервисы/компоненты/процессы для потоковой и пакетной выгрузки
данных из корпоративных систем в контур платформы данных.
● Взаимодействовать с коллегами DevOps/DBA по настройке окружений, деплоя, работы с инфраструктурой.
● Разрабатывать DQ процессы, средства мониторинга и уведомлений о качестве данных;
● Оперативно решать проблемы с качеством данных, задержками их доставки.
● Реализовывать процессы CI/CD и мониторинга разработанных процессов.
🖥 Технический стек:
● продвинутый уровень владение Python, SQL, умение писать production ready сервисы для деплоя в k8s;
● Kafka – отличные навыки работы и понимание внутреннего устройства;
● опыт применения концепций непрерывной интеграции, доставки (CI/CD);
● опыт построения пайплайнов потоковой и пакетной выгрузки/обработки данных;
● опыт оптимизации запросов и проектирования схем данных;
● знание концепций OLTP/OLAP, знакомство с современными системами хранения данных (MPP, NoSQL)
➕ Будет плюсом:
● знание Java, Spark;
● опыт работы с AirFlow;
● понимание основ DataOps:
● опыт DevOps (Docker, k8s, Gitlab-CI, настройка окружения и др.);
● опыт работы с PostgreSQL/Clickhouse/Vertica;
● опыт проектирования высоконагруженных приложений;
● понимание архитектуры и принципов построения хранилищ данных;
● навыки работы с облачными платформами (у нас AWS и Yandex Cloud).
👌Что мы можем вам предложить:
🔹Работу на крупном проекте с современными технологиями в аккредитованной компании
🔹Полное соблюдение ТК РФ и своевременная выплата заработной платы
🔹Удаленный формат работы
🔹ДМС со стоматологией
🔹Бесплатное обучение английскому
🔹Скидки в фитнес-клубы
Резюме ➡️ @olga_sourcer
Формат: удалённый
Занятость: полная
💰 до 400к на руки
О компании: Banks Soft Systems
📌 Чем предстоит заниматься:
● Разрабатывать и сопровождать сервисы/компоненты/процессы для потоковой и пакетной выгрузки
данных из корпоративных систем в контур платформы данных.
● Взаимодействовать с коллегами DevOps/DBA по настройке окружений, деплоя, работы с инфраструктурой.
● Разрабатывать DQ процессы, средства мониторинга и уведомлений о качестве данных;
● Оперативно решать проблемы с качеством данных, задержками их доставки.
● Реализовывать процессы CI/CD и мониторинга разработанных процессов.
🖥 Технический стек:
● продвинутый уровень владение Python, SQL, умение писать production ready сервисы для деплоя в k8s;
● Kafka – отличные навыки работы и понимание внутреннего устройства;
● опыт применения концепций непрерывной интеграции, доставки (CI/CD);
● опыт построения пайплайнов потоковой и пакетной выгрузки/обработки данных;
● опыт оптимизации запросов и проектирования схем данных;
● знание концепций OLTP/OLAP, знакомство с современными системами хранения данных (MPP, NoSQL)
➕ Будет плюсом:
● знание Java, Spark;
● опыт работы с AirFlow;
● понимание основ DataOps:
● опыт DevOps (Docker, k8s, Gitlab-CI, настройка окружения и др.);
● опыт работы с PostgreSQL/Clickhouse/Vertica;
● опыт проектирования высоконагруженных приложений;
● понимание архитектуры и принципов построения хранилищ данных;
● навыки работы с облачными платформами (у нас AWS и Yandex Cloud).
👌Что мы можем вам предложить:
🔹Работу на крупном проекте с современными технологиями в аккредитованной компании
🔹Полное соблюдение ТК РФ и своевременная выплата заработной платы
🔹Удаленный формат работы
🔹ДМС со стоматологией
🔹Бесплатное обучение английскому
🔹Скидки в фитнес-клубы
Резюме ➡️ @olga_sourcer
👍1
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning # Python #PostgreSQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности
системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности
системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
👍2🤬1
#vacancy #remote #dataengineer #python #dag #datavault #greenplum Вакансия: Fullstack Data Engineer Компания: DBS Проект: разработка решения, которое соединяет онлайн-продавцов и многомиллионную аудиторию покупателей.
Город и адрес офиса: удаленка(любая локация)
Занятость и формат работы: full-time
Цель проекта: предоставить качественные бизнес-инсайты и данные для команд и компаний, в проектах с которыми мы участвуем. Для этого нужна устойчивая и легко расширяемая платформа для обработки и хранения данных
Мы ищем специалиста, который имеет необходимый опыт и готов развиваться в этой роли.
Ключевые задачи:
Написание и поддержка коннекторов для Kafka Connect и Debezium.
Разработка DAGов на Airflow.
Написание процедур обработки данных + Data Quality Control.
Развитие системы мониторинга данных и процессов Участие во внедрении систем Data Governance и DQC.
Что мы от ожидаем от кандидата:
SQL - на уровне аналитических функций.
Python - на уровне написания дагов для Airflow, если лучше то как преимущество.
Airflow - человек должен понимать что это за инструмент и уметь использовать его.
Опыт работы с одной из MPP DB(в порядке приоритета): Greenplum, Teradata.
Опыт работы с PostgreSQL.
Kafka - понимание работы, базовые навыки работы: создать/удалить, партиционировать топик, сбросить офсеты у топика.
Опыт работы с Hadoop стеком приветствуется, особенно понимание форматов хранения данных.
Kafka Connect опыт написания коннекторов загрузки данных - преимущество, но не обязательно.
Debezium опыт написания коннекторов загрузки данных - преимущество, но не обязательно.
Знание/понимание Инмона, Кимбела, DataVault, Anchor modeling и других моделей данных - преимущество, но не обязательно.
Что мы предлагаем взамен:
Трудоустройство в соответствии с ТК РФ.
ДМС с первого рабочего дня.
Страхование от несчастного случая.
Удаленная работа.
Отличная корпоративная культура Контакт для отклика: @w_winner
Город и адрес офиса: удаленка(любая локация)
Занятость и формат работы: full-time
Цель проекта: предоставить качественные бизнес-инсайты и данные для команд и компаний, в проектах с которыми мы участвуем. Для этого нужна устойчивая и легко расширяемая платформа для обработки и хранения данных
Мы ищем специалиста, который имеет необходимый опыт и готов развиваться в этой роли.
Ключевые задачи:
Написание и поддержка коннекторов для Kafka Connect и Debezium.
Разработка DAGов на Airflow.
Написание процедур обработки данных + Data Quality Control.
Развитие системы мониторинга данных и процессов Участие во внедрении систем Data Governance и DQC.
Что мы от ожидаем от кандидата:
SQL - на уровне аналитических функций.
Python - на уровне написания дагов для Airflow, если лучше то как преимущество.
Airflow - человек должен понимать что это за инструмент и уметь использовать его.
Опыт работы с одной из MPP DB(в порядке приоритета): Greenplum, Teradata.
Опыт работы с PostgreSQL.
Kafka - понимание работы, базовые навыки работы: создать/удалить, партиционировать топик, сбросить офсеты у топика.
Опыт работы с Hadoop стеком приветствуется, особенно понимание форматов хранения данных.
Kafka Connect опыт написания коннекторов загрузки данных - преимущество, но не обязательно.
Debezium опыт написания коннекторов загрузки данных - преимущество, но не обязательно.
Знание/понимание Инмона, Кимбела, DataVault, Anchor modeling и других моделей данных - преимущество, но не обязательно.
Что мы предлагаем взамен:
Трудоустройство в соответствии с ТК РФ.
ДМС с первого рабочего дня.
Страхование от несчастного случая.
Удаленная работа.
Отличная корпоративная культура Контакт для отклика: @w_winner
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
❤5
Компания: Газпром ИД
Вакансия: Data quality инженер
Вилка: 230-320gross+ премии
Локация: удаленно, Мск, СПб (на выбор)
Контакты: @tzgreen
Проект: Построение дата-платформы компании, от выбора технологий, до реализации задач развёртывания компонентов для построения современного стека для принятия решений на данных.
Стек: SQL, Python, Java, Data lake (dremio), Postgres, Clickhouse, Kafka, Spark, Jupyter, BI, Kubernetes, VictoriaMetrics, Soda-SQL, Great expectations.
Что делать:
-Тестировать и автоматизировать процесс для проверки датасетов, интеграций, ETL процедур, выгрузок, BI дашбордов
-Настройка алертов и уведомлений по проблемам в качестве данных
-Поддержка инструментов импорта, решение проблем с данными и их получением
От Вас:
- SQL middle+, Python
-Понимание ETL процедур (Python, REST, SQL, Java) и способов интеграции
-Опыт автоматизации тестирования\ автоматический мониторинг данных как плюс (например soda-sql, great expectations или подобные фреймворки)
Взамен:
- расширенный ДМС,
-обучение\конференции на выбор,
-аккредитованная it компания,
-система партнёрских скидок.
Вакансия: Data quality инженер
Вилка: 230-320gross+ премии
Локация: удаленно, Мск, СПб (на выбор)
Контакты: @tzgreen
Проект: Построение дата-платформы компании, от выбора технологий, до реализации задач развёртывания компонентов для построения современного стека для принятия решений на данных.
Стек: SQL, Python, Java, Data lake (dremio), Postgres, Clickhouse, Kafka, Spark, Jupyter, BI, Kubernetes, VictoriaMetrics, Soda-SQL, Great expectations.
Что делать:
-Тестировать и автоматизировать процесс для проверки датасетов, интеграций, ETL процедур, выгрузок, BI дашбордов
-Настройка алертов и уведомлений по проблемам в качестве данных
-Поддержка инструментов импорта, решение проблем с данными и их получением
От Вас:
- SQL middle+, Python
-Понимание ETL процедур (Python, REST, SQL, Java) и способов интеграции
-Опыт автоматизации тестирования\ автоматический мониторинг данных как плюс (например soda-sql, great expectations или подобные фреймворки)
Взамен:
- расширенный ДМС,
-обучение\конференции на выбор,
-аккредитованная it компания,
-система партнёрских скидок.
❤3👍1💩1
🔹 Middle ML engineer / ML researcher, #FinTech
🔹 ₽180 000- 220 000 net
🔹 REMOTE
🔹 full-time, контракт на 6-9 месяцев
🔹 Компания РЕСТАДВАЙЗЕР, СПб
📩 Контакты: @olga_restadviser
Проект - квантовый Хедж Фонд, AUM $266M под управлением каскада торговых стратегий на базе NN.
Ищем талантливого ML разработчика для дальнейших исследований применения нейросетей в торговле на фондовом рынке.
Твоим ментором будет опытный идеолог, который создал и запустил ряд торговых стратегий в нашем проекте.
У тебе появится доступ к бесценным практическим знаниям, накопленным командой, и возможность реально влиять на развитие проекта.
Плюс к этому ты получаешь
– отсутствие бюрократии,
– вовлеченную, нацеленную на результат команду,
– удаленную работу,
– достойную оценку твоего труда и вклада.
🔸 Что будешь делать:
– Реализовать различные нейросети в готовом фреймворке,
– Проводить эксперименты,
– Анализировать полученные результаты и формулировать выводы,
– Создавать отчеты по проведённым исследованиям,
– Изучать литературы, предлагать дальнейшие направления исследований.
🔸 Обязательные компетенции:
- опыт работы с цифровыми рядами, semi-supervised learning,
- Python, PyTorch, Optune,
- GitLab, Jira
➡️ Пиши сюда: @olga_restadviser
🔹 ₽180 000- 220 000 net
🔹 REMOTE
🔹 full-time, контракт на 6-9 месяцев
🔹 Компания РЕСТАДВАЙЗЕР, СПб
📩 Контакты: @olga_restadviser
Проект - квантовый Хедж Фонд, AUM $266M под управлением каскада торговых стратегий на базе NN.
Ищем талантливого ML разработчика для дальнейших исследований применения нейросетей в торговле на фондовом рынке.
Твоим ментором будет опытный идеолог, который создал и запустил ряд торговых стратегий в нашем проекте.
У тебе появится доступ к бесценным практическим знаниям, накопленным командой, и возможность реально влиять на развитие проекта.
Плюс к этому ты получаешь
– отсутствие бюрократии,
– вовлеченную, нацеленную на результат команду,
– удаленную работу,
– достойную оценку твоего труда и вклада.
🔸 Что будешь делать:
– Реализовать различные нейросети в готовом фреймворке,
– Проводить эксперименты,
– Анализировать полученные результаты и формулировать выводы,
– Создавать отчеты по проведённым исследованиям,
– Изучать литературы, предлагать дальнейшие направления исследований.
🔸 Обязательные компетенции:
- опыт работы с цифровыми рядами, semi-supervised learning,
- Python, PyTorch, Optune,
- GitLab, Jira
➡️ Пиши сюда: @olga_restadviser
👎8🔥4🤮2🤡1
#вакансия #инженер #engineer #DataEngineer #middle #machinelearning #Python #PostgreSQL #SQL #Redis #gitlab #работа #job #удаленно
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
Компания: Sever X
Формат: удаленно
Занятость: полная, 5/2
💵: от 250 000 руб.
🚀Отличная возможность для опытного Data Engineer реализовать и развить как технические компетенции, так и навыки коммуникации с бизнесом, лидерские качества, навыки формирования команды. С развитием проекта предполагается создание команды под себя, сейчас необходимо возглавить текущие задачи и реализовать их.
🗝задача: поддержка и развитие Data Lake и связанных с ним проектов
📍Основные обязанности
•Интеграция с источниками данных и построение ETL-процессов
•Разработка и поддержка аналитической отчётности системами и API
•Выявление и устранение аномалий в данных
•Взаимодействие с другими членами команды
🛠Стек:
Основной язык разработки – Python 3.8
Платформа разработки – Яндекс.Облако (Managed Services + виртуальные машины)
Хранилища данных – GreenPlum 6.2, PostgreSQL 14, Redis
Оркестратор процессов – Apache Airflow 2.0
Система управления версиями – GitLab
Контейнеризация приложений – Docker + k8s
📍Обязательные требования
•Уверенное владение SQL: базовый синтаксис, транзакции, представления, хранимые процедуры
•Опыт интеграции с различными источниками данных: файловые системы (локальные/ftp/sftp), API, SQL и NoSQL базы данных
•Понимание принципа работы распределённых баз данных
•Знание Python 3: модули pandas, pyodbc (либо другие модули, имплементирующие ODBC), paramiko, requests
•Базовые навыки использования Linux
🔥Преимуществом при отборе будет:
•Опыт работы с распределёнными хранилищами данных: Hadoop (Hive/Impala), GreenPlum, ClickHouse
•Опыт разработки пайплайнов на Apache Airflow
•Навыки оптимизации процессов SQL
•Опыт реализации RestAPI
⚖️ Условия работы и что мы можем предложить взамен:
•Место работы: удаленно
•Возможны различные варианты оформления
•Рассматриваются кандидаты в часовом поясе максимум +5 часов к МСК
•Обязательно наличие гражданства РФ
•Квартальные премии в размере 30% от квартального оклада
•ДМС со стоматологией
•Профессиональная и амбициозная команда
•Открытая корпоративная культура, атмосфера доверия и сотрудничества
•Драйв, высокие скорости, непосредственное влияние на результат
📲контакт: @Oskar17
👍2
Аналитик-разработчик в компанию Sportmaster Lab.
В связи с расширением команды проекта "Персонализация", ищем специалистов на позицию Аналитик-разработчик.
Наш департамент проектирует и создает data сервисы, которые помогают оптимизировать взаимодействие с клиентом или внутренние процессы компании.
📝Задачи:
- Разрабатывать, оптимизировать и поддерживать пайплайны обработки данных и машинного обучения;
- Реализовывать высокопроизводительные процедуры расчета витрин признаков;
- Сопровождать data science специалистов в продуктовых командах.
🔹Стек технологий:
- Для разработки: Python, Oracle PL/SQL, PostgreSQL, Spark, Spark Streaming, Impala/Hive, Kafka, Airflow, Flask/FastAPI, Redis;
- Для организации работы: Jira, Confluence, BitBucket.
📌Что мы ждем от кандидатов:
- Высшее техническое образование;
- Опыт работы в качестве Data Engineer или аналитика-разработчика (рассмотрим аналитика, который хочет развиваться в разработке);
- Навыки написания сложных SQL запросов и их оптимизации;
- Опыт разработки и автоматизации пайплайнов обработки данных;
- Будет преимуществом уверенное владение Python (структуры данных, пакеты для обработки данных);
- Способность работать самостоятельно, доводить начатое до конца.
✅Мы предлагаем:
- Удаленный формат работы, иногда 1-2 дня в неделю работаем из офиса;
- График работы: 5/2; 8.00-17.00, 9.00-18.00 или 10.00-19.00 (на выбор);
- Полугодовой бонус;
- ДМС - после испытательного срока;
- Дисконтная карта на продукцию 30% магазинов сети + корпоративные скидки и специальные условия от партнеров;
- Обучение - доступно внутреннее и внешнее обучение, проводим внутренние митапы, техтолки, посещаем профильные конференции;
- Некоторые бонусы предоставляются по принципу "кафетерия". Расскажем об этом подробнее при первом контакте.
Контакт для связи: @SM_PolinaK
В связи с расширением команды проекта "Персонализация", ищем специалистов на позицию Аналитик-разработчик.
Наш департамент проектирует и создает data сервисы, которые помогают оптимизировать взаимодействие с клиентом или внутренние процессы компании.
📝Задачи:
- Разрабатывать, оптимизировать и поддерживать пайплайны обработки данных и машинного обучения;
- Реализовывать высокопроизводительные процедуры расчета витрин признаков;
- Сопровождать data science специалистов в продуктовых командах.
🔹Стек технологий:
- Для разработки: Python, Oracle PL/SQL, PostgreSQL, Spark, Spark Streaming, Impala/Hive, Kafka, Airflow, Flask/FastAPI, Redis;
- Для организации работы: Jira, Confluence, BitBucket.
📌Что мы ждем от кандидатов:
- Высшее техническое образование;
- Опыт работы в качестве Data Engineer или аналитика-разработчика (рассмотрим аналитика, который хочет развиваться в разработке);
- Навыки написания сложных SQL запросов и их оптимизации;
- Опыт разработки и автоматизации пайплайнов обработки данных;
- Будет преимуществом уверенное владение Python (структуры данных, пакеты для обработки данных);
- Способность работать самостоятельно, доводить начатое до конца.
✅Мы предлагаем:
- Удаленный формат работы, иногда 1-2 дня в неделю работаем из офиса;
- График работы: 5/2; 8.00-17.00, 9.00-18.00 или 10.00-19.00 (на выбор);
- Полугодовой бонус;
- ДМС - после испытательного срока;
- Дисконтная карта на продукцию 30% магазинов сети + корпоративные скидки и специальные условия от партнеров;
- Обучение - доступно внутреннее и внешнее обучение, проводим внутренние митапы, техтолки, посещаем профильные конференции;
- Некоторые бонусы предоставляются по принципу "кафетерия". Расскажем об этом подробнее при первом контакте.
Контакт для связи: @SM_PolinaK
👍3❤1
#вакансия #Senior #DataEngineer #fulltime #remote Вакансия: Senior Data Engineer
Компания: DV Group
Уровень ЗП: 350-400 тыс.руб. net
Занятость: fulltime
Формат: Дистанционный
🧠 Необходимые знания:
- опыт работы с ETL/ELT
- опыт самостоятельного проектирования и реализации задач от постановки до результата на продакшене
- чистый код
- знание SQL (PostgresSQL)
- опыт работы с Clickhouse
- коммерческий опыт работы на Python
🔥 Будет плюсом:
- опыт оптимизации ETL/ELT пайплайнов.
- опыт работы с GreenPlum.
- dagster, dbt, gitlab-ci.
- участие в проработке архитектурных решений, шаблоны архитектуры приложений (DDD). 📲Для связи и CV @fedosovaAS Анастасия
Компания: DV Group
Уровень ЗП: 350-400 тыс.руб. net
Занятость: fulltime
Формат: Дистанционный
🧠 Необходимые знания:
- опыт работы с ETL/ELT
- опыт самостоятельного проектирования и реализации задач от постановки до результата на продакшене
- чистый код
- знание SQL (PostgresSQL)
- опыт работы с Clickhouse
- коммерческий опыт работы на Python
- опыт оптимизации ETL/ELT пайплайнов.
- опыт работы с GreenPlum.
- dagster, dbt, gitlab-ci.
- участие в проработке архитектурных решений, шаблоны архитектуры приложений (DDD). 📲Для связи и CV @fedosovaAS Анастасия
Please open Telegram to view this post
VIEW IN TELEGRAM