#вакансия #удаленка
Вакансия: Старший специалист сопровождения моделей машинного обучения MLOps
Компания: Bell integrator
Локация: удаленка по МСК времени
ЗП:270-300 000 руб на руки
Cv: @Smi_Katerina
Ключевой стек: Python, Arflow/MLflow, Hodoop
Что ждем от кандидата:
▪️Опыт работы с моделями машинного обучения
▪️Опыт внедрения моделей машинного обучения как сервисы
▪️Высшее техническое образование
▪️Опыт работы в стеке от 3 лет
Обязанности:
-Внедрять модели машинного обучения
-Сопровождать полный цикл сборки модели
-Обрабатывать и анализировать данные
-Поддерживать коммуникацию с разработчиками моделей.
От нас :
Трудоустройство по ТК РФ в аккредитованную IT компанию
ДМС и стоматология
Техника для работы
@datascienceml_jobs
Вакансия: Старший специалист сопровождения моделей машинного обучения MLOps
Компания: Bell integrator
Локация: удаленка по МСК времени
ЗП:270-300 000 руб на руки
Cv: @Smi_Katerina
Ключевой стек: Python, Arflow/MLflow, Hodoop
Что ждем от кандидата:
▪️Опыт работы с моделями машинного обучения
▪️Опыт внедрения моделей машинного обучения как сервисы
▪️Высшее техническое образование
▪️Опыт работы в стеке от 3 лет
Обязанности:
-Внедрять модели машинного обучения
-Сопровождать полный цикл сборки модели
-Обрабатывать и анализировать данные
-Поддерживать коммуникацию с разработчиками моделей.
От нас :
Трудоустройство по ТК РФ в аккредитованную IT компанию
ДМС и стоматология
Техника для работы
@datascienceml_jobs
#вакансия #ml #cv #pytorch #numpy #opencv #SOTA #DL #удалённо
Senior ML Engineer (Computer Vision)
от 450 000 ₽ на руки
Требуемый опыт работы: 3–6 лет
Полная занятость, удаленная работа
Мы в Gradient ищем талантливого и опытного ML инженера для создания новых передовых технологий и улучшения текущих пайплайнов обработки фото и видео для приложений Gradient и Persona.
Gradient — мобильное приложение для редактирования фото и видео:
- Самое скачиваемое приложение в мире за месяц в 2019, 2020 годах
- Best of 2019 среди приложений по мнению Apple
Persona — передовой бьюти фото и видео редактор с уникальными технологиями обработки селфи
Совокупно наша аудитория составляет больше 100 миллионов пользователей
Наш идеальный кандидат:
- Имеет опыт работы в качестве ML Engineer или CV Engineer от 3 лет
- Идеально знает Pytorch, numpy, opencv
- Прекрасно разбирается во фреймворках для деплоя под mobile и server (CoreML, TFlite, torchscript)
- Имеет опыт обучения production ready GAN моделей
- Знает основные SOTA Computer Vision статьи и имеет практический опыт в их реализации
- Обладает отличным математическим бэкграундом - линейная алгебра, теория вероятностей, мат. анализ
- Активно следит за статьями с профильных конференций по Deep Learning: CVPR, NIPS, ICML, ICLR, ECCV, ICCV и может извлекать из них ключевые идеи.
Будет плюсом, если:
- Вы работали с задачами в области face beautification
- У вас есть публикации на arxiv или популярные github репозитории
Отправить резюме и задать вопросы по вакансии можно @axcher
Senior ML Engineer (Computer Vision)
от 450 000 ₽ на руки
Требуемый опыт работы: 3–6 лет
Полная занятость, удаленная работа
Мы в Gradient ищем талантливого и опытного ML инженера для создания новых передовых технологий и улучшения текущих пайплайнов обработки фото и видео для приложений Gradient и Persona.
Gradient — мобильное приложение для редактирования фото и видео:
- Самое скачиваемое приложение в мире за месяц в 2019, 2020 годах
- Best of 2019 среди приложений по мнению Apple
Persona — передовой бьюти фото и видео редактор с уникальными технологиями обработки селфи
Совокупно наша аудитория составляет больше 100 миллионов пользователей
Наш идеальный кандидат:
- Имеет опыт работы в качестве ML Engineer или CV Engineer от 3 лет
- Идеально знает Pytorch, numpy, opencv
- Прекрасно разбирается во фреймворках для деплоя под mobile и server (CoreML, TFlite, torchscript)
- Имеет опыт обучения production ready GAN моделей
- Знает основные SOTA Computer Vision статьи и имеет практический опыт в их реализации
- Обладает отличным математическим бэкграундом - линейная алгебра, теория вероятностей, мат. анализ
- Активно следит за статьями с профильных конференций по Deep Learning: CVPR, NIPS, ICML, ICLR, ECCV, ICCV и может извлекать из них ключевые идеи.
Будет плюсом, если:
- Вы работали с задачами в области face beautification
- У вас есть публикации на arxiv или популярные github репозитории
Отправить резюме и задать вопросы по вакансии можно @axcher
👍9
#вакансия #анализ_данных #удаленнаяработа #dataanalysis #dataengineer #datascientist
Должность: Дата аналитик
Компания: YouTalk
Формат работы: удаленно (РФ)
Заработная плата: от 100 000 до 150 000 руб.
Ключевая задача: поддержка и развитие существующей системы сквозной аналитики для принятия бизнес-решений
Основные обязанности:
- Работа со скриптами на Python и SQL для эффективной обработки и анализа данных в BigQuery, Google Data Studio и Google Sheets.
- Создание, оптимизация и улучшение информативных дашбордов в Google Data Studio.
- Разработка и внедрение продвинутых моделей атрибуции для углубленного понимания эффективности рекламных каналов.
- Автоматизация процессов отчетности и обогащения данных в рекламных кабинетах.
- Глубокий анализ данных для принятия обоснованных бизнес-решений.
- Поддержка по вопросам Web и App аналитики, A/B тестированиям.
- Разработка внутреннего аналитического софта для нестандартных проектов.
- Точность и скорость получения данных является для нас ключевой опорой для принятия верных бизнес-решений. В нашей компании уже построена продвинутая система сквозной аналитики с использованием кастомных моделей атрибуции, интегрированная с различными системами.
Обязательные требования:
- Не менее 2-х лет реального опыта работы с Google BigQuery, Google Analytics 4, Google Cloud, Google Data Studio, Google Tag Manager, AppsFlayer, Amplitude.
- Продвинутые знания и опыт работы с SQL и Python (Pandas) в контексте инжиниринга данных.
- Опыт работы с ETL процессами и инструментами, включая Albato, JetStat, Garpun.
- Продвинутое понимание принципов построения дашбордов с хорошим UX и способность к их практичному дизайну.
- Умение ускорять свою работу с помощью инструментов на базе ИИ.
- Понимание как обеспечивать безопасность данных.
- Знание современных методик анализа данных (описательная статистика, диагностический анализ, предиктивная аналитика, кластерный анализ, поведенческий анализ).
Условия работы:
- График работы: полная занятость, 5/2 с 9:00 до 18:00 (можно двигать).
- Трудовой контракт по ТК РФ, испытательный срок 3 месяца.
- Возможность увеличения зарплаты раз в год по результатам performance review.
- Частичное покрытие стоимости обучения по ученическому договору.
Контакты: Юлия (отклик с резюме) @jkomaroff_hr
Должность: Дата аналитик
Компания: YouTalk
Формат работы: удаленно (РФ)
Заработная плата: от 100 000 до 150 000 руб.
Ключевая задача: поддержка и развитие существующей системы сквозной аналитики для принятия бизнес-решений
Основные обязанности:
- Работа со скриптами на Python и SQL для эффективной обработки и анализа данных в BigQuery, Google Data Studio и Google Sheets.
- Создание, оптимизация и улучшение информативных дашбордов в Google Data Studio.
- Разработка и внедрение продвинутых моделей атрибуции для углубленного понимания эффективности рекламных каналов.
- Автоматизация процессов отчетности и обогащения данных в рекламных кабинетах.
- Глубокий анализ данных для принятия обоснованных бизнес-решений.
- Поддержка по вопросам Web и App аналитики, A/B тестированиям.
- Разработка внутреннего аналитического софта для нестандартных проектов.
- Точность и скорость получения данных является для нас ключевой опорой для принятия верных бизнес-решений. В нашей компании уже построена продвинутая система сквозной аналитики с использованием кастомных моделей атрибуции, интегрированная с различными системами.
Обязательные требования:
- Не менее 2-х лет реального опыта работы с Google BigQuery, Google Analytics 4, Google Cloud, Google Data Studio, Google Tag Manager, AppsFlayer, Amplitude.
- Продвинутые знания и опыт работы с SQL и Python (Pandas) в контексте инжиниринга данных.
- Опыт работы с ETL процессами и инструментами, включая Albato, JetStat, Garpun.
- Продвинутое понимание принципов построения дашбордов с хорошим UX и способность к их практичному дизайну.
- Умение ускорять свою работу с помощью инструментов на базе ИИ.
- Понимание как обеспечивать безопасность данных.
- Знание современных методик анализа данных (описательная статистика, диагностический анализ, предиктивная аналитика, кластерный анализ, поведенческий анализ).
Условия работы:
- График работы: полная занятость, 5/2 с 9:00 до 18:00 (можно двигать).
- Трудовой контракт по ТК РФ, испытательный срок 3 месяца.
- Возможность увеличения зарплаты раз в год по результатам performance review.
- Частичное покрытие стоимости обучения по ученическому договору.
Контакты: Юлия (отклик с резюме) @jkomaroff_hr
💩30🤡6😁2
#vacancy #DS #datascientist #nlp #fulltime #job #вакансия
Data scientist (DUC technologies)
Формат работы: fulltime, part-time, почасово
Локация: удаленка
Salary: 170-250k рублей (net) оплата в рублях, возможна почасовая работа
Основные задачи:
- Классификация пользователей/клиентов
- Сегментация
Будет плюсом:
- опыт работы с задачами кластеризации и классификации в ритейле, финтехе
- анализ изображений
Наши ожидания:
- Опыт работы на позиции data scientist от 2х лет
- Будет большим плюсом опыт работы над NLP-задачами.
- Желателен опыт работы с современными языковыми моделями, знание классических языковых моделей.
Условия:
Удаленный формат работы (желательно из РФ, но рассмотрим и за пределами)
График: 5/2
Аккредитованная IT компания
Проектная занятость, part-time, fulltime
Оформление: штат, ИП, самозанятый
Для резюме: @mike179015
Data scientist (DUC technologies)
Формат работы: fulltime, part-time, почасово
Локация: удаленка
Salary: 170-250k рублей (net) оплата в рублях, возможна почасовая работа
Основные задачи:
- Классификация пользователей/клиентов
- Сегментация
Будет плюсом:
- опыт работы с задачами кластеризации и классификации в ритейле, финтехе
- анализ изображений
Наши ожидания:
- Опыт работы на позиции data scientist от 2х лет
- Будет большим плюсом опыт работы над NLP-задачами.
- Желателен опыт работы с современными языковыми моделями, знание классических языковых моделей.
Условия:
Удаленный формат работы (желательно из РФ, но рассмотрим и за пределами)
График: 5/2
Аккредитованная IT компания
Проектная занятость, part-time, fulltime
Оформление: штат, ИП, самозанятый
Для резюме: @mike179015
👍6
#вакансия #аналитик #удаленка #fulltime #millde #system #analyst
Ищем Системный аналитик | Middle+ I Аутсорсинговая компания Top Selection
📌Проект : Металлургический завод
Уровень : Middle+
Ставка: 1200 руб/час
Локация и гражданство : РФ
Срок проекта: до 31.03.2025г.
Оформление: только ИП
Удаленная работа по МСК часовому поясу
📌 Требования:
- Умение проводить интервью с заинтересованными лицами.
- Опыт сбора требований от заказчика и их формализация в распространенных форматах описания требований (Use Cases, User Story, CJM, User Story Map).
- Понимание процесса разработки программного обеспечения.
- Знание принципов работы с базами данных (Oracle, PostgreSQL, MS SQL, ClickHouse).
- Проектирование объектов в базе данных.
- Понимание принципов работы брокеров сообщений (Kafka).
- Опыт использования нотаций UML, BPMN, EPC.
- Умение работать с Git.
- Знание и понимание нескольких способов интеграции систем.
- Умение вести требования в confluence.
- Знание SQL.
Контакты для связи: @trusova_t
Ищем Системный аналитик | Middle+ I Аутсорсинговая компания Top Selection
📌Проект : Металлургический завод
Уровень : Middle+
Ставка: 1200 руб/час
Локация и гражданство : РФ
Срок проекта: до 31.03.2025г.
Оформление: только ИП
Удаленная работа по МСК часовому поясу
📌 Требования:
- Умение проводить интервью с заинтересованными лицами.
- Опыт сбора требований от заказчика и их формализация в распространенных форматах описания требований (Use Cases, User Story, CJM, User Story Map).
- Понимание процесса разработки программного обеспечения.
- Знание принципов работы с базами данных (Oracle, PostgreSQL, MS SQL, ClickHouse).
- Проектирование объектов в базе данных.
- Понимание принципов работы брокеров сообщений (Kafka).
- Опыт использования нотаций UML, BPMN, EPC.
- Умение работать с Git.
- Знание и понимание нескольких способов интеграции систем.
- Умение вести требования в confluence.
- Знание SQL.
Контакты для связи: @trusova_t
💩6🥴5👍2❤1
#вакансия #vacancy #удаленка #remote #analyst #product
Позиция: Product analyst
Офис: Москва, СПб
Формат: удаленно
Оформление: ТК РФ, ИП
Занятость: полная
ЗП: 250 000 - 350 000 руб.
Компания: КА Star-Staff
Контакты через: @olgavborr
Ищем аналитика продукта, для работы с отзывами клиентов и улучшения пользовательского опыта.
Задачи:
формулировка и проверка и анализ продуктовых гипотез;
улучшение системы метрик;
проведение А/В тестирования;
анализ поведения пользователей;
визуализация данных;
Что хотим видеть у кандидата:
Опыт работы аналитиком продукта от 2х лет;
Знание продуктовых метрик;
Опыт проведения А/B-тестов;
Знание R, Python;
Знание SQL;
Что можем предложить:
Удаленный формат работы в аккредитованной компании;
Гибкий график;
ДМС;
Софинансирование обучения.
Напишите мне если вакансия интересна.
https://xn--r1a.website/Olgavborr
Позиция: Product analyst
Офис: Москва, СПб
Формат: удаленно
Оформление: ТК РФ, ИП
Занятость: полная
ЗП: 250 000 - 350 000 руб.
Компания: КА Star-Staff
Контакты через: @olgavborr
Ищем аналитика продукта, для работы с отзывами клиентов и улучшения пользовательского опыта.
Задачи:
формулировка и проверка и анализ продуктовых гипотез;
улучшение системы метрик;
проведение А/В тестирования;
анализ поведения пользователей;
визуализация данных;
Что хотим видеть у кандидата:
Опыт работы аналитиком продукта от 2х лет;
Знание продуктовых метрик;
Опыт проведения А/B-тестов;
Знание R, Python;
Знание SQL;
Что можем предложить:
Удаленный формат работы в аккредитованной компании;
Гибкий график;
ДМС;
Софинансирование обучения.
Напишите мне если вакансия интересна.
https://xn--r1a.website/Olgavborr
👍5🔥1
#вакансия #job #vacancy #remote #fulltime #Spark #Python
Вакансия: Senior Data Engineer
Компания: constructor.io (~150 человек)
Финансы: примерно 90-110K$ в год + опционы
Локация: полная удаленка
О нас: Мы делаем headless платформу, которая предоставляет API для поиска, брауз и рекомендации для американского и европейского екоммерса. Среди крупных клиентов - Sephora, Petco, Victoria’s Secret, Target, GOAT, home24.
Команда: Data Platform Team — мы занимаемся платформой данных для аналитики и машинного обучения. Эффективно парсим сотни терабайт данных, серваем аналитику в продакшн, строим инфраструктуру для обработки данных, считаем деньги, делаем для коллег работу с данными и вычисления удобнее, деплоим слои хранения, которые используются ML командами в продакшене. Каждый день мы деплоим инфру в AWS через CDK, запускаем, разрабатываем и дебажим Spark пайплайны в Databricks, придумываем как лучше писать на Python в репозитории дата команд, пробуем новые технологии для улучшения платформы.
Что нужно:
Работать над качеством и моделированием данных. Придумывать и реализовывать таблицы и модели вычисления для эффективного доступа к данным, реализовывать пайплайны и модули стандартной библиотеки для работы с ними. Работать над системой мониторинга над качеством данных. Дизайнить и претворять в жизнь инфраструктурные компоненты, которые улучшают работу платформы и интегрируют платформу данных с машинным обучением и продакшн нагрузкой
Нужные скиллы: английский, Python, Spark, AWS или другое облако, SQL, Docker, проактивность, инициативность и любовь к своему делу.
Аплаиться сюда: https://apply.workable.com/constructor-1/j/E2F8197C91
Вопросы: @ivanychev
Вакансия: Senior Data Engineer
Компания: constructor.io (~150 человек)
Финансы: примерно 90-110K$ в год + опционы
Локация: полная удаленка
О нас: Мы делаем headless платформу, которая предоставляет API для поиска, брауз и рекомендации для американского и европейского екоммерса. Среди крупных клиентов - Sephora, Petco, Victoria’s Secret, Target, GOAT, home24.
Команда: Data Platform Team — мы занимаемся платформой данных для аналитики и машинного обучения. Эффективно парсим сотни терабайт данных, серваем аналитику в продакшн, строим инфраструктуру для обработки данных, считаем деньги, делаем для коллег работу с данными и вычисления удобнее, деплоим слои хранения, которые используются ML командами в продакшене. Каждый день мы деплоим инфру в AWS через CDK, запускаем, разрабатываем и дебажим Spark пайплайны в Databricks, придумываем как лучше писать на Python в репозитории дата команд, пробуем новые технологии для улучшения платформы.
Что нужно:
Работать над качеством и моделированием данных. Придумывать и реализовывать таблицы и модели вычисления для эффективного доступа к данным, реализовывать пайплайны и модули стандартной библиотеки для работы с ними. Работать над системой мониторинга над качеством данных. Дизайнить и претворять в жизнь инфраструктурные компоненты, которые улучшают работу платформы и интегрируют платформу данных с машинным обучением и продакшн нагрузкой
Нужные скиллы: английский, Python, Spark, AWS или другое облако, SQL, Docker, проактивность, инициативность и любовь к своему делу.
Аплаиться сюда: https://apply.workable.com/constructor-1/j/E2F8197C91
Вопросы: @ivanychev
❤3👍2
#стажировка #intern #DS #datascience #work #вакансия
Вакансия: Стажер Data Science
Компания: Газпромбанк
Формат работы: удаленка/гибрид/офис
Занятость: Full-time
Что такое GPB.Level Up?
Это стажировка для Data Science-специалистов в Газпромбанке. Опыт работы не требуется: внутренняя система и обучение актуальным фреймворкам на реальных задачах банка прокачают сильнее дюжины пет-проектов. Открыто 5 различных направлений от работы с ИИ до моделирования финансовых рисков.
Условия:
— 67 000 р. gross в месяц
— ДМС и корпоративные скидки
— Удаленный или гибридный формат работы
— Программа наставничества
— Карьерные перспективы: 85% участников GPB.Level Up прошлого года перешли в штат Газпромбанка
Требования:
— Готов работать full-time (40 часов в неделю)
— Студент старших курсов, магистрант, аспирант или выпускник вуза
— Любишь учиться, стремишься к достижению результатов и хочешь развиваться вместе с Газпромбанком!
Подать заявку можно на сайте:
https://vk.cc/cvTdzp?erid=LjN8KTvm3
Реклама. ООО "ФТ". ИНН 7731611424.
Вакансия: Стажер Data Science
Компания: Газпромбанк
Формат работы: удаленка/гибрид/офис
Занятость: Full-time
Что такое GPB.Level Up?
Это стажировка для Data Science-специалистов в Газпромбанке. Опыт работы не требуется: внутренняя система и обучение актуальным фреймворкам на реальных задачах банка прокачают сильнее дюжины пет-проектов. Открыто 5 различных направлений от работы с ИИ до моделирования финансовых рисков.
Условия:
— 67 000 р. gross в месяц
— ДМС и корпоративные скидки
— Удаленный или гибридный формат работы
— Программа наставничества
— Карьерные перспективы: 85% участников GPB.Level Up прошлого года перешли в штат Газпромбанка
Требования:
— Готов работать full-time (40 часов в неделю)
— Студент старших курсов, магистрант, аспирант или выпускник вуза
— Любишь учиться, стремишься к достижению результатов и хочешь развиваться вместе с Газпромбанком!
Подать заявку можно на сайте:
https://vk.cc/cvTdzp?erid=LjN8KTvm3
Реклама. ООО "ФТ". ИНН 7731611424.
🥴9❤3👍3
Вакансия: Middle/Senior Data analyst + BI
Компания: Raft
Формат работы: полная занятость, гибрид Ярославль/удаленно в РФ
ЗП: 200 000 - 300 000 руб.
Всем привет!
Мы в Raft расширяем команду и ищем исследователя данных в крупную ритейл компанию
🔸Что мы ждем от тебя:
– опыт написания запросов к источникам;
– исследование и реализация гипотез;
– применение знаний математического моделирования;
– критическое мышление;
– умение разбираться в коде.
🔸желательно
– визуализация в BI и создание дашбордов
🔸Стек технологий: SQL, Greenplum, python, ML, Power BI
🔸Что мы готовы предложить:
– Удаленную работу из России или офис в Ярославле;
– Full-time, гибкий график без отслеживания активности (главное - результат);
– Отсутствие бюрократии, атмосферу стартапа
🔸Как откликнуться:
Пиши в лс @KsuGrak
Компания: Raft
Формат работы: полная занятость, гибрид Ярославль/удаленно в РФ
ЗП: 200 000 - 300 000 руб.
Всем привет!
Мы в Raft расширяем команду и ищем исследователя данных в крупную ритейл компанию
🔸Что мы ждем от тебя:
– опыт написания запросов к источникам;
– исследование и реализация гипотез;
– применение знаний математического моделирования;
– критическое мышление;
– умение разбираться в коде.
🔸желательно
– визуализация в BI и создание дашбордов
🔸Стек технологий: SQL, Greenplum, python, ML, Power BI
🔸Что мы готовы предложить:
– Удаленную работу из России или офис в Ярославле;
– Full-time, гибкий график без отслеживания активности (главное - результат);
– Отсутствие бюрократии, атмосферу стартапа
🔸Как откликнуться:
Пиши в лс @KsuGrak
raftds.ru
Raft Digital Solutions
Raft - это компания, которая специализируется на разработке и интеграции решений с использованием новейших AI технологий.
👍4
#вакансия #дата_аналитик
Должность: Junior Data Аналитик / Data Аналитик (при желании с возможностью развития в data engineer / data scientist)
Компания: Сбер
Формат: офис, Нижний Новгород
Вилка от 60 до 90. Годовой бонус.
Обязанности:
1. Анализ данных, подготовка скриптов для загрузки и обработки данных;
2. Обрабатывать и анализировать поступающие запросы от бизнес-подразделений;
3. Обследовать и профилировать банковские источники данных, общаться с владельцами данных, разбираться с моделями данных, находить проблемы в данных;
4. Участвовать / помогать в создании прототипов витрин, маппингов для данных.
5. Предлагать варианты автоматизации.
Требования:
1. Уверенное (по меркам джуна) знание python (pandas etc) и SQL - must have;
2. Оптимизация кода с целью сокращения времени отработки скрипта (выбор оптимальных структур данных, методов и т.д.). Желательно регулярки (в т.ч. для работы с текстом и т.д.);
3. Умение "загуглить ошибку / проблему".
4. Хороший уровень самоорганизации, высокая мотивация к труду, софтскиллы.
Большим плюсом будет:
1. Интерес / знания в области data science;
2. Общая теория по работе РСУБД (нормальные формы, SCD, звёзды/снежинки);
3. Общее понимание концепций проектирования DWH (кимбал/инмон, dv/anchor, лямбда/каппа);
4. Общее понимание работы фреймворка hadoop, парадигмы MapReduce;
5. Общее понимание работы индексов в БД, триггеров, транзакций;
6. Навыки извлечения бизнес-требований.
Раздел "Большим плюсом будет" - это опциональные требования - они не являются обязательными. Уровень прочел несколько статей / посмотрел несколько роликов на ютубе, приблизительно могу передать смысл своими словами - будет неоспоримым плюсом.
Условия и соц пакет:
- Стандартный джентельменский набор (ДМС, страховка от несчастных случаев и т.д.);
- Заботимся о развитии сотрудников. Возможность профессионального роста в аналитике, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Доступен крупный портал корп университета с большим количеством курсов для сотрудников.
- Формат работы - офис,
- Много других корпоративных плюшек.
Пишите в личку, вышлю тестовое задание.
@alexei_nnn
Должность: Junior Data Аналитик / Data Аналитик (при желании с возможностью развития в data engineer / data scientist)
Компания: Сбер
Формат: офис, Нижний Новгород
Вилка от 60 до 90. Годовой бонус.
Обязанности:
1. Анализ данных, подготовка скриптов для загрузки и обработки данных;
2. Обрабатывать и анализировать поступающие запросы от бизнес-подразделений;
3. Обследовать и профилировать банковские источники данных, общаться с владельцами данных, разбираться с моделями данных, находить проблемы в данных;
4. Участвовать / помогать в создании прототипов витрин, маппингов для данных.
5. Предлагать варианты автоматизации.
Требования:
1. Уверенное (по меркам джуна) знание python (pandas etc) и SQL - must have;
2. Оптимизация кода с целью сокращения времени отработки скрипта (выбор оптимальных структур данных, методов и т.д.). Желательно регулярки (в т.ч. для работы с текстом и т.д.);
3. Умение "загуглить ошибку / проблему".
4. Хороший уровень самоорганизации, высокая мотивация к труду, софтскиллы.
Большим плюсом будет:
1. Интерес / знания в области data science;
2. Общая теория по работе РСУБД (нормальные формы, SCD, звёзды/снежинки);
3. Общее понимание концепций проектирования DWH (кимбал/инмон, dv/anchor, лямбда/каппа);
4. Общее понимание работы фреймворка hadoop, парадигмы MapReduce;
5. Общее понимание работы индексов в БД, триггеров, транзакций;
6. Навыки извлечения бизнес-требований.
Раздел "Большим плюсом будет" - это опциональные требования - они не являются обязательными. Уровень прочел несколько статей / посмотрел несколько роликов на ютубе, приблизительно могу передать смысл своими словами - будет неоспоримым плюсом.
Условия и соц пакет:
- Стандартный джентельменский набор (ДМС, страховка от несчастных случаев и т.д.);
- Заботимся о развитии сотрудников. Возможность профессионального роста в аналитике, возможность карьерного роста по уровню позиции и в ЗП;
- Возможность напрямую влиять на продукт и видеть результат своей работы - возможность быть мозгом и глазами для бизнеса и команды;
- Доступен крупный портал корп университета с большим количеством курсов для сотрудников.
- Формат работы - офис,
- Много других корпоративных плюшек.
Пишите в личку, вышлю тестовое задание.
@alexei_nnn
🤮12👍5🤪2🗿2
Всем хорошего дня! Ищу ETL-разработчика в ведущую нефтегазохимическую компанию.
📍 Компания: Ekleft
📍 Заказчик: ведущая нефтегазохимическая компания
📍 Оформление: штат
📍 Формат работы:
МСК, МО, Казань, Томск, Нижний Новгород - гибрид
Тверь и СПб – удаленка с возможными редкими командировками в МСК
📌 ЧЕМ ПРЕДСТОИТ ЗАНИМАТЬСЯ:
· Развитие платформы данных, созданием инструментов обработки данных и фреймворков
· Участие в проектах с реальной ценностью для бизнеса компании
· Загрузкой данных из систем источников в узел данных и обеспечением их доступности
· Автоматизацией аналитических задач
· Разработкой и оптимизацией алгоритмов операционного анализа данных
· Взаимодействием с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных
📌 ЧЕГО МЫ ЖДЁМ ОТ КАНДИДАТА:
· Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.)
· Навыки проектирования и реализации системы сбора и обработки данных
· Опыт работы с *nix системами
📌 БУДЕТ ПЛЮСОМ:
· Знание хотя бы 1 языка программирования (желательно Java, Python)
· Знание и умение работы ETL/ELT инструментами, Apache NiFi будет дополнительным плюсом
· Знание и умение работы с AMQP (Kafka, RabbitMQ)
· Понимание и умение работы со стеком продуктов на платформе Hadoop. Желательно Spark, Spark Streaming, HBase, Impala, Hive; другие технологии тоже пойдут в зачёт
· Управление кластером Hadoop (развёртывание, мониторинг, оптимизация)
☎️ За подробностями: @nastasya_it_recruiter (Анастасия)
#вакансия #vacancy #fulltime #etl #elt #dataengineer
📍 Компания: Ekleft
📍 Заказчик: ведущая нефтегазохимическая компания
📍 Оформление: штат
📍 Формат работы:
МСК, МО, Казань, Томск, Нижний Новгород - гибрид
Тверь и СПб – удаленка с возможными редкими командировками в МСК
📌 ЧЕМ ПРЕДСТОИТ ЗАНИМАТЬСЯ:
· Развитие платформы данных, созданием инструментов обработки данных и фреймворков
· Участие в проектах с реальной ценностью для бизнеса компании
· Загрузкой данных из систем источников в узел данных и обеспечением их доступности
· Автоматизацией аналитических задач
· Разработкой и оптимизацией алгоритмов операционного анализа данных
· Взаимодействием с аналитиками данных (data scientists), производственными и функциональными экспертами для определения требований к выгрузке, конвертации и представления данных
📌 ЧЕГО МЫ ЖДЁМ ОТ КАНДИДАТА:
· Знание SQL, опыт работы с реляционными СУБД (Oracle, MySQL, PostgreSQL и пр.)
· Навыки проектирования и реализации системы сбора и обработки данных
· Опыт работы с *nix системами
📌 БУДЕТ ПЛЮСОМ:
· Знание хотя бы 1 языка программирования (желательно Java, Python)
· Знание и умение работы ETL/ELT инструментами, Apache NiFi будет дополнительным плюсом
· Знание и умение работы с AMQP (Kafka, RabbitMQ)
· Понимание и умение работы со стеком продуктов на платформе Hadoop. Желательно Spark, Spark Streaming, HBase, Impala, Hive; другие технологии тоже пойдут в зачёт
· Управление кластером Hadoop (развёртывание, мониторинг, оптимизация)
☎️ За подробностями: @nastasya_it_recruiter (Анастасия)
#вакансия #vacancy #fulltime #etl #elt #dataengineer
👍1
Вакансия: Аналитик данных
Локация: г. Москва
Вилка: 100-120 000р гросс, готовы обсуждать
FinTech компания – у нас много проектов в финансовой сфере на основе анализа больших данных.
Будущие задачи:
• Анализ, проверка на качество и загрузка данных в БД Бюро;
• Выполнение расчетов/аналитики данных по требованию регулятора и внутренним запросам;
• Формирование обратных квитанций о загрузке/не загрузке данных;
• Участие в проектах по развитию аналитической платформы бюро в части загрузки и правил проверки качества данных, проекту создания личного кабинета клиента и др.
Преимуществом будет:
• Опыт работы аналитиком в банке не менее 2-х лет, понимание процессов кредитования;
• Высшее техническое или экономическое образование;
• Уверенно знание SQL, владение PL/SQL (Oracle) как преимущество;
• Уверенно знание win и linux;
• Желание развиваться в направлении – Data Analytics / Data Science;
• Уверенное владение MS Office (MS Excel);
• Умение работать с большими массивами данных.
Ключевые навыки:
• Oracle Pl/SQL;
• SQL, win и linux;
• Аналитические исследования.
Что можем предложить:
• Оформление по ТК РФ, ДМС с первого месяца работы;
• Выдаём технику для работы;
• Поддерживаем гибридный формат работы, офис в центре Москвы;
• Годовой бонус до 20% от годового оклада;
• Компенсируем затраты на спорт или обучение.
Для резюме: @An_Kulikova_na
Локация: г. Москва
Вилка: 100-120 000р гросс, готовы обсуждать
FinTech компания – у нас много проектов в финансовой сфере на основе анализа больших данных.
Будущие задачи:
• Анализ, проверка на качество и загрузка данных в БД Бюро;
• Выполнение расчетов/аналитики данных по требованию регулятора и внутренним запросам;
• Формирование обратных квитанций о загрузке/не загрузке данных;
• Участие в проектах по развитию аналитической платформы бюро в части загрузки и правил проверки качества данных, проекту создания личного кабинета клиента и др.
Преимуществом будет:
• Опыт работы аналитиком в банке не менее 2-х лет, понимание процессов кредитования;
• Высшее техническое или экономическое образование;
• Уверенно знание SQL, владение PL/SQL (Oracle) как преимущество;
• Уверенно знание win и linux;
• Желание развиваться в направлении – Data Analytics / Data Science;
• Уверенное владение MS Office (MS Excel);
• Умение работать с большими массивами данных.
Ключевые навыки:
• Oracle Pl/SQL;
• SQL, win и linux;
• Аналитические исследования.
Что можем предложить:
• Оформление по ТК РФ, ДМС с первого месяца работы;
• Выдаём технику для работы;
• Поддерживаем гибридный формат работы, офис в центре Москвы;
• Годовой бонус до 20% от годового оклада;
• Компенсируем затраты на спорт или обучение.
Для резюме: @An_Kulikova_na
💩17🤡13👍1👎1
ML Ops (text2image, image2image) в MPCard
📍 Remote
💎 Stable Diffusion + workflows, ControlNet, LLMs, OpenAI API, Python, REST API
💲 $4000-6000
MPCard — AI-стартап, помогающий продавцам на маркетплейсах с товарным фото и инфографикой.
Наша цель — создать лучшее в мире решение по генеративной графике для товарных изображений.
Мы ищем ML энтузиаста в области генеративной графики, с опытом адаптации и настройки Stable Diffusion и других моделей, который поможет нам сначала создать MVP-решение на основе существующих моделей, а в дальнейшем развивать его до топового уровня и исследовать все новые решения/возможности в этой области.
У нас маленькая мотивированная remote-команда без бюрократии, с возможностью работать из любой точки мира и получать оплату удобным способом.
Размер команды – 1-10 | Финансирование: стартап финансируется существующей прибыльной компанией.
Контакт: @Eugenia_13
📍 Remote
💎 Stable Diffusion + workflows, ControlNet, LLMs, OpenAI API, Python, REST API
💲 $4000-6000
MPCard — AI-стартап, помогающий продавцам на маркетплейсах с товарным фото и инфографикой.
Наша цель — создать лучшее в мире решение по генеративной графике для товарных изображений.
Мы ищем ML энтузиаста в области генеративной графики, с опытом адаптации и настройки Stable Diffusion и других моделей, который поможет нам сначала создать MVP-решение на основе существующих моделей, а в дальнейшем развивать его до топового уровня и исследовать все новые решения/возможности в этой области.
У нас маленькая мотивированная remote-команда без бюрократии, с возможностью работать из любой точки мира и получать оплату удобным способом.
Размер команды – 1-10 | Финансирование: стартап финансируется существующей прибыльной компанией.
Контакт: @Eugenia_13
🔥4❤3
Подборка каналов для поиска удаленной работы в сфере IT 🌐
Все мы сталкиваемся с досадной ситуацией, когда после многочисленных откликов на вакансию ответ так и не приходит. Хочется откликаться только на проверенные вакансии у надежных работодателей, а не фильтровать вакансии на сайтах по поиску работы? Именно для вас мы предлагаем подборку каналов в телеграме для поиска работы в IT.
В папке также есть каналы в которых есть рекомендации по поиску работы, прохождению собеседований и анализу рынка труда!
Подпишись на все интересующие каналы и получи возможность первым откликнуться на самые привлекательные вакансии в сфере IT.
➡️ Ссылка на папку
Успехов в поиске работы!
Все мы сталкиваемся с досадной ситуацией, когда после многочисленных откликов на вакансию ответ так и не приходит. Хочется откликаться только на проверенные вакансии у надежных работодателей, а не фильтровать вакансии на сайтах по поиску работы? Именно для вас мы предлагаем подборку каналов в телеграме для поиска работы в IT.
В папке также есть каналы в которых есть рекомендации по поиску работы, прохождению собеседований и анализу рынка труда!
Подпишись на все интересующие каналы и получи возможность первым откликнуться на самые привлекательные вакансии в сфере IT.
Успехов в поиске работы!
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤2🔥1
#вакансия #vacancy #DE #DWH #SQL #Python #fulltime #middle #senior #Tinkoff
Компания: Тинькофф
Вакансия: Data engineer
Грейд: Middle и Senior
Занятость: Full-Time
Локация: Россия, Беларусь, Казахстан, Армения (гибрид или удаленно — по договоренности)
Вилка: 150 000—400 000 ₽
Мы ищем в команду дата-инженера. В Тинькофф можно развиваться в одном из двух направлений — системном анализе или ETL-разработке. Или совмещать их, если интересны оба. У нас большое и продвинутое хранилище данных: это 8000 объектов, более 6 000 000 SQL-запросов в сутки, 800 ТБ в Greenplum и 110 ТБ в Clickhouse 🙂
🔸Вы будете:
- Участвовать в формировании модели данных
- Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
- Участвовать в проектах по развитию нашей Data Platform
- Писать скрипты SQL и Python, это опционально
- Прорабатывать интеграции с внешними системами для Data Platform
🔸Мы ждем от вас:
- Свободное владение SQL
- Опыт работы с базами данных в качестве аналитика или разработчика как минимум 2 года
- Понимание теории СУБД- и ETL-процессов
- Опыт проектирования объектов БД на основании бизнес-требований
🔸Мы предлагаем:
- Возможность работать в аккредитованной ИТ-компании
- Платформу обучения и развития «Тинькофф Апгрейд». Курсы, тренинги, вебинары и базы знаний по различным направлениям
- ДМС со стоматологией и страховку от несчастных случаев + льготное страхование вашим близким
- Частичную компенсацию затрат на спорт
- Три дополнительных дня отпуска в год
Отклик и по всем вопросам - @angel_gilmutdinova
Компания: Тинькофф
Вакансия: Data engineer
Грейд: Middle и Senior
Занятость: Full-Time
Локация: Россия, Беларусь, Казахстан, Армения (гибрид или удаленно — по договоренности)
Вилка: 150 000—400 000 ₽
Мы ищем в команду дата-инженера. В Тинькофф можно развиваться в одном из двух направлений — системном анализе или ETL-разработке. Или совмещать их, если интересны оба. У нас большое и продвинутое хранилище данных: это 8000 объектов, более 6 000 000 SQL-запросов в сутки, 800 ТБ в Greenplum и 110 ТБ в Clickhouse 🙂
🔸Вы будете:
- Участвовать в формировании модели данных
- Проектировать и разрабатывать витрины и потоки данных на основе потребностей бизнес-пользователей
- Участвовать в проектах по развитию нашей Data Platform
- Писать скрипты SQL и Python, это опционально
- Прорабатывать интеграции с внешними системами для Data Platform
🔸Мы ждем от вас:
- Свободное владение SQL
- Опыт работы с базами данных в качестве аналитика или разработчика как минимум 2 года
- Понимание теории СУБД- и ETL-процессов
- Опыт проектирования объектов БД на основании бизнес-требований
🔸Мы предлагаем:
- Возможность работать в аккредитованной ИТ-компании
- Платформу обучения и развития «Тинькофф Апгрейд». Курсы, тренинги, вебинары и базы знаний по различным направлениям
- ДМС со стоматологией и страховку от несчастных случаев + льготное страхование вашим близким
- Частичную компенсацию затрат на спорт
- Три дополнительных дня отпуска в год
Отклик и по всем вопросам - @angel_gilmutdinova
👍1
#вакансия #аналитик_данных #удаленнаяработа #аналитик
❇️Должность: Ведущий аналитик данных
Работодатель: ООО "ПУЛЬС АЙТИМ"
Опыт: работы аналитиком – от 3-х лет.
Формат работы: офис Химки, БЦ "Технопарк" (возможен гибрид) либо удаленно (гражданство и резиденты России).
Заработная плата: от 250 000 до 300 000 руб.
Ключевая задача: проектирование и оптимизация структуры хранилища данных.
Задачи:
- Анализ метрик, предложение новых решений и бизнесу, и разработке.
- Общение с внутренним заказчиком продукта, получение бизнес-требований и функциональных требований.
- Руководство аналитической командой, включая распределение задач, контроль качества аналитических моделей и отчетов, а также обучение и развитие сотрудников.
- Взаимодействие с менеджерами продукта, маркетологами, менеджерами проекта, дизайнерами, разработчиками в процессе разработки продукта.
Требования:
- Глубокое понимание принципов проектирования и построения хранилищ данных (Data Warehousing), включая знание методологий и лучших практик.
- Опыт работы с различными ETL (Extract, Transform, Load) инструментами, такими как Informatica, Talend, SSIS и другими, для интеграции данных из различных источников в DWH.
- Умение разрабатывать и оптимизировать OLAP (Online Analytical Processing) кубы для поддержки аналитических запросов и отчетности.
- Умение оптимизировать запросы и процессы для обеспечения высокой производительности хранилища данных.
Условия:
- Аккредитованная ИТ компания.
- График работы: полная занятость, 5/2.
- Трудоустройство по ТК РФ.
- Корпоративный транспорт от станции Химки, м. Речной Вокзал, м. Планерная.
- Инвестирование в обучение и развитие сотрудников.
- ДМС после испытательного срока.
- Система материальной поддержки в особых семейных ситуациях и на день рождения сотрудника.
- Корпоративная столовая на территории офиса, кафе самообслуживания и кофейня-кондитерская и другие программы.
Отклики с резюме - Юлия @jkomaroff_hr
❇️Должность: Ведущий аналитик данных
Работодатель: ООО "ПУЛЬС АЙТИМ"
Опыт: работы аналитиком – от 3-х лет.
Формат работы: офис Химки, БЦ "Технопарк" (возможен гибрид) либо удаленно (гражданство и резиденты России).
Заработная плата: от 250 000 до 300 000 руб.
Ключевая задача: проектирование и оптимизация структуры хранилища данных.
Задачи:
- Анализ метрик, предложение новых решений и бизнесу, и разработке.
- Общение с внутренним заказчиком продукта, получение бизнес-требований и функциональных требований.
- Руководство аналитической командой, включая распределение задач, контроль качества аналитических моделей и отчетов, а также обучение и развитие сотрудников.
- Взаимодействие с менеджерами продукта, маркетологами, менеджерами проекта, дизайнерами, разработчиками в процессе разработки продукта.
Требования:
- Глубокое понимание принципов проектирования и построения хранилищ данных (Data Warehousing), включая знание методологий и лучших практик.
- Опыт работы с различными ETL (Extract, Transform, Load) инструментами, такими как Informatica, Talend, SSIS и другими, для интеграции данных из различных источников в DWH.
- Умение разрабатывать и оптимизировать OLAP (Online Analytical Processing) кубы для поддержки аналитических запросов и отчетности.
- Умение оптимизировать запросы и процессы для обеспечения высокой производительности хранилища данных.
Условия:
- Аккредитованная ИТ компания.
- График работы: полная занятость, 5/2.
- Трудоустройство по ТК РФ.
- Корпоративный транспорт от станции Химки, м. Речной Вокзал, м. Планерная.
- Инвестирование в обучение и развитие сотрудников.
- ДМС после испытательного срока.
- Система материальной поддержки в особых семейных ситуациях и на день рождения сотрудника.
- Корпоративная столовая на территории офиса, кафе самообслуживания и кофейня-кондитерская и другие программы.
Отклики с резюме - Юлия @jkomaroff_hr
#вакансия #удаленка
Позиция:Senior Data Engineer
Компания: Петрович-Тех строит и развивает цифровую экосистему для крупного ретейла в области строительства и DIY (28 лет на рынке, №1 среди DIY-магазинов в России)
Занятость: Full-time
Формат: удаленка
З/п вилка: до 400-450 т.р.
➡️Задачи:
-разработка хранилища данных на базе ClickHouse;
-построение ETL-процессов;
-написание / оптимизация / профилирование SQL/NoSQL запросов;
-расчет сложных аналитических показателей в витринах данных;
-настройка ClickHouse (шардинг, репликация) в т.ч. взаимодействия с Kafka (попадание сырых данных, решение возможных проблем с очередностью сообщений, валидностью данных);
-написание backend сервисов на Java;
-участие в разработке архитектуры, процессов и инструментов для работы с данными;
⬆️Каким мы видим нашего нового члена команды:
-глубокие знания SQL;
-умение работать с планами запросов;
-опыт работы с ClickHouse;
-опыт работы с брокерами сообщений (Kafka);
-опыт работы с Kubernetes проектами;
-опыт работы с Java;
-практический опыт участия в проектах по созданию DWH, Data lake;
-практический опыт построения и развития высоконагруженных систем.
✅Условия:
-официальное трудоустройство в аккредитованную ИТ компанию ООО "Петрович-Тех";
-полис ДМС через 3 месяца, ДМС+стоматология через год;
-участие в конференциях и обучение;
-йога в офисе, команды по баскетболу, волейболу, футболу;
-классные корпоративы;
-график работы: 5/2, удаленный формат работы, но можно работать в нашем уютном офисе на Парнасе, у нас есть парковка, велопарковка и корпоративный транспорт от м. Парнас, м. Просвещения, м. Гражданский проспект до офиса и обратно;
По всем вопросам — @helen_ithr
Позиция:Senior Data Engineer
Компания: Петрович-Тех строит и развивает цифровую экосистему для крупного ретейла в области строительства и DIY (28 лет на рынке, №1 среди DIY-магазинов в России)
Занятость: Full-time
Формат: удаленка
З/п вилка: до 400-450 т.р.
➡️Задачи:
-разработка хранилища данных на базе ClickHouse;
-построение ETL-процессов;
-написание / оптимизация / профилирование SQL/NoSQL запросов;
-расчет сложных аналитических показателей в витринах данных;
-настройка ClickHouse (шардинг, репликация) в т.ч. взаимодействия с Kafka (попадание сырых данных, решение возможных проблем с очередностью сообщений, валидностью данных);
-написание backend сервисов на Java;
-участие в разработке архитектуры, процессов и инструментов для работы с данными;
⬆️Каким мы видим нашего нового члена команды:
-глубокие знания SQL;
-умение работать с планами запросов;
-опыт работы с ClickHouse;
-опыт работы с брокерами сообщений (Kafka);
-опыт работы с Kubernetes проектами;
-опыт работы с Java;
-практический опыт участия в проектах по созданию DWH, Data lake;
-практический опыт построения и развития высоконагруженных систем.
✅Условия:
-официальное трудоустройство в аккредитованную ИТ компанию ООО "Петрович-Тех";
-полис ДМС через 3 месяца, ДМС+стоматология через год;
-участие в конференциях и обучение;
-йога в офисе, команды по баскетболу, волейболу, футболу;
-классные корпоративы;
-график работы: 5/2, удаленный формат работы, но можно работать в нашем уютном офисе на Парнасе, у нас есть парковка, велопарковка и корпоративный транспорт от м. Парнас, м. Просвещения, м. Гражданский проспект до офиса и обратно;
По всем вопросам — @helen_ithr
#вакансия #аналитик_данных #удаленнаяработа #аналитик
❇️Должность: Ведущий аналитик данных
Работодатель: ООО "ПУЛЬС АЙТИМ"
Опыт: работы аналитиком – от 3-х лет.
Формат работы: офис Химки, БЦ "Технопарк" (возможен гибрид) либо удаленно (гражданство и резиденты России).
Заработная плата: до 300 000 руб.
Ключевая задача: проектирование и оптимизация структуры хранилища данных.
Задачи:
- Анализ метрик, предложение новых решений и бизнесу, и разработке.
- Общение с внутренним заказчиком продукта, получение бизнес-требований и функциональных требований.
- Руководство аналитической командой, включая распределение задач, контроль качества аналитических моделей и отчетов, а также обучение и развитие сотрудников.
- Взаимодействие с менеджерами продукта, маркетологами, менеджерами проекта, дизайнерами, разработчиками в процессе разработки продукта.
Требования:
- Глубокое понимание принципов проектирования и построения хранилищ данных (Data Warehousing), включая знание методологий и лучших практик.
- Опыт работы с различными ETL (Extract, Transform, Load) инструментами, такими как Informatica, Talend, SSIS и другими, для интеграции данных из различных источников в DWH.
- Умение разрабатывать и оптимизировать OLAP (Online Analytical Processing) кубы для поддержки аналитических запросов и отчетности.
- Умение оптимизировать запросы и процессы для обеспечения высокой производительности хранилища данных.
Условия:
- Аккредитованная ИТ компания.
- График работы: полная занятость, 5/2.
- Трудоустройство по ТК РФ.
- Корпоративный транспорт от станции Химки, м. Речной Вокзал, м. Планерная.
- Инвестирование в обучение и развитие сотрудников.
- ДМС после испытательного срока.
- Система материальной поддержки в особых семейных ситуациях и на день рождения сотрудника.
- Корпоративная столовая на территории офиса, кафе самообслуживания и кофейня-кондитерская и другие программы.
Отклики с резюме - Юлия @jkomaroff_hr
❇️Должность: Ведущий аналитик данных
Работодатель: ООО "ПУЛЬС АЙТИМ"
Опыт: работы аналитиком – от 3-х лет.
Формат работы: офис Химки, БЦ "Технопарк" (возможен гибрид) либо удаленно (гражданство и резиденты России).
Заработная плата: до 300 000 руб.
Ключевая задача: проектирование и оптимизация структуры хранилища данных.
Задачи:
- Анализ метрик, предложение новых решений и бизнесу, и разработке.
- Общение с внутренним заказчиком продукта, получение бизнес-требований и функциональных требований.
- Руководство аналитической командой, включая распределение задач, контроль качества аналитических моделей и отчетов, а также обучение и развитие сотрудников.
- Взаимодействие с менеджерами продукта, маркетологами, менеджерами проекта, дизайнерами, разработчиками в процессе разработки продукта.
Требования:
- Глубокое понимание принципов проектирования и построения хранилищ данных (Data Warehousing), включая знание методологий и лучших практик.
- Опыт работы с различными ETL (Extract, Transform, Load) инструментами, такими как Informatica, Talend, SSIS и другими, для интеграции данных из различных источников в DWH.
- Умение разрабатывать и оптимизировать OLAP (Online Analytical Processing) кубы для поддержки аналитических запросов и отчетности.
- Умение оптимизировать запросы и процессы для обеспечения высокой производительности хранилища данных.
Условия:
- Аккредитованная ИТ компания.
- График работы: полная занятость, 5/2.
- Трудоустройство по ТК РФ.
- Корпоративный транспорт от станции Химки, м. Речной Вокзал, м. Планерная.
- Инвестирование в обучение и развитие сотрудников.
- ДМС после испытательного срока.
- Система материальной поддержки в особых семейных ситуациях и на день рождения сотрудника.
- Корпоративная столовая на территории офиса, кафе самообслуживания и кофейня-кондитерская и другие программы.
Отклики с резюме - Юлия @jkomaroff_hr
👍3❤2🔥2🤗1
🔥Подборка лучших обучающих каналов для программистов.
➡️ Делитесь с коллегами и сохраняйте себе, чтобы не потерять
⚡Машинное обучение
Machine Learning - запускаем лучшие ИИ модели, пишем код, погружаемся в нейросети
Ml Собеседование - подготовка к собесу по мл, алгоритмам, коду
Ml ru - актуальные статьи, новости, код и обучающие материалы
Ml Jobs - вакансии ML
ML Книги - актуальные бесплатные книги МО
ML чат
🏆 Golang
Golang - изучи один из самых перспективных языков на ит-рынке
Golang собеседование - разбор задач и вопросов с собесов
Golang вакансии -работа для Go разработчика
Golang книги библиотека книг
Golang задачи и тесты
Golang чат
Golang news - новости из мира go
Golang дайджест
💥 Linux /Этичный хакинг
Linux Academy - гайды, секреты и лучшие материалы по Linux
Kali linux - погрузись в мир этичного хакинга и кибербезопасности
linux_kal - kali чат
Информационная безопасность
🚀 Data Science
Анализ данных - полезные фишки, код, гайды и советы, маст-хэв датасаентиста
Data Jobs - ds вакансии
Аналитик данных
Data Science книги - актуальные бесплатные книги
Big data
🛢Базы данных
Sql базы данных - научим работе с базами данных профессионально
Библиотека баз данных
SQL чат
Вакансии Sql аналитик данных
#️⃣C#
С# академия - лучший канал по c#
С# заметки — код, лучшие практики, заметки программиста c#
С# задачи и тесты
С# библиотека - актуальные бесплатные книги
C# вакансии - работа
🐍 Python
Python/django - самый крупный обучающий канал по Python
Python Собеседование - подготовка к собеседовению python и разбор алгоритмов
Pro python - статьи, новости, код и обучающие материалы
Python Jobs - вакансии Python
Python чат
Python книги
☕ Java
Java академия - java от Senior разработчика
Java вакансии
Java чат
Java вопросы с собеседований
Java книги
💻 C++
C++ академия
С++ книги
C++ задачи - подготовка к собеседовению мл, алгоритмам
C++ вакансии
⚡️ Frontend
Javascript академия - крупнейший js канал
React - лучшие гайды и советы по работе с react
Frontend - тутрориалы, уроки, гайды, код
PHP
Книги frontend
Задачи frontend
🦀 Rust
Rust программирование
Rust чат
Rust книги для программистов
📲 Мобильная разработка
Android разработка
Мобильный разработчик гайды и уроки
🇬🇧 Английский для программистов
🧠 Искусственный интеллект
ИИ и технологии
Neural - нейросети для работы и жизни
Книги ИИ
Artificial Intelligence
🔥 DevOPs
Devops для программистов
Книги Devops
🌟 Docker/Kubernets
Docker
Kubernets
📓 Книги
Библиотеки Книг для программситов
💼 Папка с вакансиями:
Папка Go разработчика:
Папка Python разработчика:
Папка Data Science
Папка Java разработчика
Папка C#
Папка Frontend
➡️ Делитесь с коллегами и сохраняйте себе, чтобы не потерять
⚡Машинное обучение
Machine Learning - запускаем лучшие ИИ модели, пишем код, погружаемся в нейросети
Ml Собеседование - подготовка к собесу по мл, алгоритмам, коду
Ml ru - актуальные статьи, новости, код и обучающие материалы
Ml Jobs - вакансии ML
ML Книги - актуальные бесплатные книги МО
ML чат
🏆 Golang
Golang - изучи один из самых перспективных языков на ит-рынке
Golang собеседование - разбор задач и вопросов с собесов
Golang вакансии -работа для Go разработчика
Golang книги библиотека книг
Golang задачи и тесты
Golang чат
Golang news - новости из мира go
Golang дайджест
💥 Linux /Этичный хакинг
Linux Academy - гайды, секреты и лучшие материалы по Linux
Kali linux - погрузись в мир этичного хакинга и кибербезопасности
linux_kal - kali чат
Информационная безопасность
🚀 Data Science
Анализ данных - полезные фишки, код, гайды и советы, маст-хэв датасаентиста
Data Jobs - ds вакансии
Аналитик данных
Data Science книги - актуальные бесплатные книги
Big data
🛢Базы данных
Sql базы данных - научим работе с базами данных профессионально
Библиотека баз данных
SQL чат
Вакансии Sql аналитик данных
#️⃣C#
С# академия - лучший канал по c#
С# заметки — код, лучшие практики, заметки программиста c#
С# задачи и тесты
С# библиотека - актуальные бесплатные книги
C# вакансии - работа
🐍 Python
Python/django - самый крупный обучающий канал по Python
Python Собеседование - подготовка к собеседовению python и разбор алгоритмов
Pro python - статьи, новости, код и обучающие материалы
Python Jobs - вакансии Python
Python чат
Python книги
☕ Java
Java академия - java от Senior разработчика
Java вакансии
Java чат
Java вопросы с собеседований
Java книги
💻 C++
C++ академия
С++ книги
C++ задачи - подготовка к собеседовению мл, алгоритмам
C++ вакансии
⚡️ Frontend
Javascript академия - крупнейший js канал
React - лучшие гайды и советы по работе с react
Frontend - тутрориалы, уроки, гайды, код
PHP
Книги frontend
Задачи frontend
🦀 Rust
Rust программирование
Rust чат
Rust книги для программистов
📲 Мобильная разработка
Android разработка
Мобильный разработчик гайды и уроки
🇬🇧 Английский для программистов
🧠 Искусственный интеллект
ИИ и технологии
Neural - нейросети для работы и жизни
Книги ИИ
Artificial Intelligence
🔥 DevOPs
Devops для программистов
Книги Devops
🌟 Docker/Kubernets
Docker
Kubernets
📓 Книги
Библиотеки Книг для программситов
💼 Папка с вакансиями:
Папка Go разработчика:
Папка Python разработчика:
Папка Data Science
Папка Java разработчика
Папка C#
Папка Frontend
👍3🔥3❤2
#вакансия #аналитикданных #аналитик #удалёнка #remote #аналитик_данных #финтех
Всем привет!
Финтех-проект🔺 А ДЕНЬГИ (компания холдинга Альфа-Банк) в поиске аналитика данных в отдел продвинутой аналитики, занимающийся созданием модели ML
Оклад: от 180 000 рублей на руки
Оформление: в штат по Трудовому Договору
Полная занятость
Чем предстоит заниматься:
* Проводить ресерчи, анализировать и сегментировать клиентскую базу;
* Строить взаимосвязи и систему иерархии основных метрик, определять степень их влияния на бизнес;
* Считать такие метрики, как Retention Rate, Churn Rate, LTV и пр., искать точки роста, формулировать гипотезы;
* Проводить план-факторные анализы бизнес-показателей;
* Контролировать запуск и проводить анализ A/B-тестов;
* Оценивать эффект от внедрения продуктовых фич (как до запуска, так и после);
* Ad-hoc аналитика.
Каким мы тебя видим:
* SQL на уровне разработки сложных запросов;
* Успешный опыт построения систем метрик для глубокого анализа продукта (в частности лояльности клиента);
* Знание и понимание основ unit-экономики;
* Опыт в построении моделей по прогнозированию метрик продукта;
* Продвинутый пользователь Microsoft Office (DAX-формулы, построение отчетов, визуализация данных, презентация результатов);
* Знание математической статистики и теории вероятностей;
* Понимание принципов A/B-тестирования
* Проактивность, желание довести задачу до конца и разобраться в деталях.
Будет плюсом:
* Опыт в предиктивной аналитике;
* Знание Python (библиотеки анализа данных, визуализации, автоматизации, прогнозных моделей);
* Знание основ ML;
* Опыт работы в финансовой сфере.
Мы предлагаем:
* Официальное трудоустройство в штат компании по ТК РФ.
* Расширенная программа ДМС со стоматологией или компенсацию расходов на оплату спорта;
* Корпоративная программа профессионального обучения совместно с Альфа Групп (внутренние и внешние программы);
* Программа наставничества;
* Профессиональные коммьюнити.
* Корпоративные мероприятия и тимбилдинги в онлайн и оффлайн формате;
* + 3 дня 100% оплачиваемых day off в году.
Буду рада вашим откликам и рекомендациям
тг для связи: @Lebedeva
Всем привет!
Финтех-проект
Оклад: от 180 000 рублей на руки
Оформление: в штат по Трудовому Договору
Полная занятость
Чем предстоит заниматься:
* Проводить ресерчи, анализировать и сегментировать клиентскую базу;
* Строить взаимосвязи и систему иерархии основных метрик, определять степень их влияния на бизнес;
* Считать такие метрики, как Retention Rate, Churn Rate, LTV и пр., искать точки роста, формулировать гипотезы;
* Проводить план-факторные анализы бизнес-показателей;
* Контролировать запуск и проводить анализ A/B-тестов;
* Оценивать эффект от внедрения продуктовых фич (как до запуска, так и после);
* Ad-hoc аналитика.
Каким мы тебя видим:
* SQL на уровне разработки сложных запросов;
* Успешный опыт построения систем метрик для глубокого анализа продукта (в частности лояльности клиента);
* Знание и понимание основ unit-экономики;
* Опыт в построении моделей по прогнозированию метрик продукта;
* Продвинутый пользователь Microsoft Office (DAX-формулы, построение отчетов, визуализация данных, презентация результатов);
* Знание математической статистики и теории вероятностей;
* Понимание принципов A/B-тестирования
* Проактивность, желание довести задачу до конца и разобраться в деталях.
Будет плюсом:
* Опыт в предиктивной аналитике;
* Знание Python (библиотеки анализа данных, визуализации, автоматизации, прогнозных моделей);
* Знание основ ML;
* Опыт работы в финансовой сфере.
Мы предлагаем:
* Официальное трудоустройство в штат компании по ТК РФ.
* Расширенная программа ДМС со стоматологией или компенсацию расходов на оплату спорта;
* Корпоративная программа профессионального обучения совместно с Альфа Групп (внутренние и внешние программы);
* Программа наставничества;
* Профессиональные коммьюнити.
* Корпоративные мероприятия и тимбилдинги в онлайн и оффлайн формате;
* + 3 дня 100% оплачиваемых day off в году.
Буду рада вашим откликам и рекомендациям
тг для связи: @Lebedeva
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤2👎2🔥1
Ищем Data Engineer на проектную занятость в Dodo Engineering (возможен неполный рабочий день)
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
писать можно мне в тг: @AKoronnova
Компания: Dodo Engineering
Локация: Remote
Должность: Data Engineer (middle+/senior/lead)
Занятость: проектная, на 3-6 месяцев, возможен вариант на неполный рабочий день (4 часа).
Вилка: 350 000 - 500 000 р
Формат: ГПХ\ИП
О команде
Мы разрабатываем платформу данных для it команд в Dodo. На данный момент перед нами стоит амбициозная задача по оптимизации затрат на дата платформу, поэтому в усиление нашей команде ищем на проектную занятость data engineer. Срок проекта - 3-6 месяцев.
Мы ищем коллегу с бэкграундом в разработке, уверенным знанием Spark, Spark SQL. Если работали с databricks — будет большой плюс.
Наш стек технологий:
У нас современная платформа, которая базируется на облачных сервисах Azure Databricks. Данные загружаем с помощью debezium или принимаем события в Event Hub (Kafka). Храним в Delta Lake, всё раскладываем по слоям и Data Vault. Витрины храним в Kusto, а визуализация в Superset. Основной язык — python.
Чем предстоит заниматься:
- Оптимизация витрин, помощь другим командам в работе с данными и нашим инструментом
- Оптимизация процессов в databricks для снижения затрат на compute и storage
- Развертывание и обслуживание data сервисов
Требования:
- Уверенное владение одним из языков программирования: Python, Scala, Java.
- Построение пайплайнов данных с мониторингом и логированием; опыт в оптимизации/изменении существующих пайплайнов.
- Spark, Spark Streaming (у нас Structured Streaming)
- Желателен опыт оптимизации аналитического кода
писать можно мне в тг: @AKoronnova
👍4❤3🔥3