Ищем Главного архитектора данных (Chief Data Architect/CDO) для решения задач на уровне экосистемы
Компания Фалькон.Тех создаёт будущее систем безопасности. Наш интеллектуальный сервис видеомониторинга и аналитики обрабатывает гигантские объёмы данных (20+ TB/день) в реальном времени, объединяя IoT, ML и облака.
Мы ищем не просто архитектора, а стратега данных — ключевую фигуру, которая определит, как данные становятся основным активом компании. Вы будете формировать корпоративную архитектуру данных с нуля, управлять их качеством, доступностью и безопасностью в рамках всей цифровой экосистемы.
Ваша ключевая миссия:
✅ Стратегия: Формирование и реализация Data Strategy, согласованной с бизнес-целями.
✅ Архитектура: Проектирование целевой архитектуры данных для высоконагруженных систем видеомониторинга (DWH, Data Lake, API, потоки).
✅ Управление: Внедрение процессов Data Governance, Data Quality и Data Catalog.
✅ Лидерство: Руководство Data Office и взаимодействие с командами разработки, ML и аналитики.
✅ Стандартизация: Определение технологического стека и корпоративных стандартов работы с данными.
Мы ждём от вас:
✔️ Опыт от 5 лет на ролях Chief Data Architect, CDO, Head of Data.
✔️ Глубокую экспертизу в архитектуре данных (DWH, Data Lake, MDM, CDC, event sourcing).
✔️ Отличное знание принципов Data Governance (DAMA-DMBoK), Data Quality.
✔️ Понимание микросервисной архитектуры, Kafka, ML-платформ и MLOps.
✔️ Системное мышление, стратегический подход и навыки коммуникации с бизнесом.
Мы предлагаем:
🚀 Интерес: Работа над востребованным продуктом на стыке IoT, ML, Cloud и Web в b2b/b2g.
🏢 Условия: Официальное трудоустройство, конкурентоспособная «белая» зарплата, квартальные/годовые премии.
⚖️ Баланс: Гибкий график (гибрид/офис), сокращённая пятница.
🧠 Развитие: Обучение, ДМС, корпоративные мероприятия.
По всем вопросам можно писать мне @niksch12
Компания Фалькон.Тех создаёт будущее систем безопасности. Наш интеллектуальный сервис видеомониторинга и аналитики обрабатывает гигантские объёмы данных (20+ TB/день) в реальном времени, объединяя IoT, ML и облака.
Мы ищем не просто архитектора, а стратега данных — ключевую фигуру, которая определит, как данные становятся основным активом компании. Вы будете формировать корпоративную архитектуру данных с нуля, управлять их качеством, доступностью и безопасностью в рамках всей цифровой экосистемы.
Ваша ключевая миссия:
✅ Стратегия: Формирование и реализация Data Strategy, согласованной с бизнес-целями.
✅ Архитектура: Проектирование целевой архитектуры данных для высоконагруженных систем видеомониторинга (DWH, Data Lake, API, потоки).
✅ Управление: Внедрение процессов Data Governance, Data Quality и Data Catalog.
✅ Лидерство: Руководство Data Office и взаимодействие с командами разработки, ML и аналитики.
✅ Стандартизация: Определение технологического стека и корпоративных стандартов работы с данными.
Мы ждём от вас:
✔️ Опыт от 5 лет на ролях Chief Data Architect, CDO, Head of Data.
✔️ Глубокую экспертизу в архитектуре данных (DWH, Data Lake, MDM, CDC, event sourcing).
✔️ Отличное знание принципов Data Governance (DAMA-DMBoK), Data Quality.
✔️ Понимание микросервисной архитектуры, Kafka, ML-платформ и MLOps.
✔️ Системное мышление, стратегический подход и навыки коммуникации с бизнесом.
Мы предлагаем:
🚀 Интерес: Работа над востребованным продуктом на стыке IoT, ML, Cloud и Web в b2b/b2g.
🏢 Условия: Официальное трудоустройство, конкурентоспособная «белая» зарплата, квартальные/годовые премии.
⚖️ Баланс: Гибкий график (гибрид/офис), сокращённая пятница.
🧠 Развитие: Обучение, ДМС, корпоративные мероприятия.
По всем вопросам можно писать мне @niksch12
❤1
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 Хотите научиться собирать собственные датасеты для моделей? На открытом уроке от OTUS вы научитесь парсить сайты на Python, обрабатывать данные и ускорять весь процесс с помощью LLM. 🚀
🗓️ Урок пройдёт 15 декабря в 18:00 МСК — всего один вечер, который может кардинально изменить ваш подход к подготовке данных.
Что вас ждет?
✅ Разбор реальных кейсов и современных инструментов парсинга
✅ Советы по обходу технических ограничений
✅ Обучение превращать LLM в мощного помощника для написания и отладки кода
После урока вы будете знать:
🔹 Какие библиотеки сейчас актуальны для парсинга
🔹 Как самостоятельно собирать данные
🔗 Присоединяйтесь к открытому уроку курса «NLP / Natural Language Processing» и получите специальные условия на обучение: https://otus.pw/8NrI/?erid=2W5zFGrntBS
🎁 Выберите обучение на ближайшие месяцы — и получите максимальную выгоду: один курс по тающей скидке до 20% или комплект из 2–3 курсов со скидкой 25–30%
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🗓️ Урок пройдёт 15 декабря в 18:00 МСК — всего один вечер, который может кардинально изменить ваш подход к подготовке данных.
Что вас ждет?
✅ Разбор реальных кейсов и современных инструментов парсинга
✅ Советы по обходу технических ограничений
✅ Обучение превращать LLM в мощного помощника для написания и отладки кода
После урока вы будете знать:
🔹 Какие библиотеки сейчас актуальны для парсинга
🔹 Как самостоятельно собирать данные
🔗 Присоединяйтесь к открытому уроку курса «NLP / Natural Language Processing» и получите специальные условия на обучение: https://otus.pw/8NrI/?erid=2W5zFGrntBS
🎁 Выберите обучение на ближайшие месяцы — и получите максимальную выгоду: один курс по тающей скидке до 20% или комплект из 2–3 курсов со скидкой 25–30%
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
❤3
🚀 Вакансия: Data Analyst со знанием Power BI (Senior)
🏢 Компания: Top Selection
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Часовой пояс МСК
💼 Формат работы: дистанционная
💰 Зарплата: 250-270k Gross
📊 Отрасли: финтех
🎯 Требования:
✅Требования:
▪️Опыт в финтехе (желательно);
▪️Опыт работы именно Data Analyst (не только системного аналитика или ML-инженера) от 5 лет;
▪️Уверенные навыки SQL: сложные запросы, оконные функции, оптимизация, витрины;
▪️Опыт моделирования данных; Знание Data Vault 2.0 - как плюс;
▪️Навыки работы с витринами данных и построения аналитических слоев;
▪️Опыт работы с Power BI (Самостоятельное создание: дашборды, визуализации, полевые модели, оптимизация);
▪️Умение совмещать аналитику данных и визуализацию для бизнеса;
▪️Опыт работы с другими BI - инструментами (Tableau, Qlik, Superset) - как плюс;
▪️Опыт сбора и формализации бизнес - требований;
▪️Умение переводить бизнес - задачи в технические задания и логику отчетов;
▪️Навыки общения с заказчиками: интервью, воркшопы, презентации;
▪️Понимание, как аналитика влияет на процессы и принятие решений;
▪️Кейсы внедрения аналитических отчетов с ощутимой бизнес - ценностью (сокращение времени, рост прозрачности, уменьшение ручного труда);
▪️Опыт работы "от требований до готового отчета/дашборда";
▪️Примеры инициатив: автоматизация, перевод Excel - отчетности в BI, внедрение методологий.
✅ Рабочие задачи:
-
📌 Условия:
Удаленная работа, оформление по ИП
📩 Контакты:
@AnastasyaSad
#SQL #PowerBI #Tableau #ETL #BI #DWH #НСИ #Middle #Middle+ #Удаленка #ИП
🏢 Компания: Top Selection
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Часовой пояс МСК
💼 Формат работы: дистанционная
💰 Зарплата: 250-270k Gross
📊 Отрасли: финтех
🎯 Требования:
✅Требования:
▪️Опыт в финтехе (желательно);
▪️Опыт работы именно Data Analyst (не только системного аналитика или ML-инженера) от 5 лет;
▪️Уверенные навыки SQL: сложные запросы, оконные функции, оптимизация, витрины;
▪️Опыт моделирования данных; Знание Data Vault 2.0 - как плюс;
▪️Навыки работы с витринами данных и построения аналитических слоев;
▪️Опыт работы с Power BI (Самостоятельное создание: дашборды, визуализации, полевые модели, оптимизация);
▪️Умение совмещать аналитику данных и визуализацию для бизнеса;
▪️Опыт работы с другими BI - инструментами (Tableau, Qlik, Superset) - как плюс;
▪️Опыт сбора и формализации бизнес - требований;
▪️Умение переводить бизнес - задачи в технические задания и логику отчетов;
▪️Навыки общения с заказчиками: интервью, воркшопы, презентации;
▪️Понимание, как аналитика влияет на процессы и принятие решений;
▪️Кейсы внедрения аналитических отчетов с ощутимой бизнес - ценностью (сокращение времени, рост прозрачности, уменьшение ручного труда);
▪️Опыт работы "от требований до готового отчета/дашборда";
▪️Примеры инициатив: автоматизация, перевод Excel - отчетности в BI, внедрение методологий.
✅ Рабочие задачи:
-
📌 Условия:
Удаленная работа, оформление по ИП
📩 Контакты:
@AnastasyaSad
#SQL #PowerBI #Tableau #ETL #BI #DWH #НСИ #Middle #Middle+ #Удаленка #ИП
🖕4💊4
Вакансия: 3D Fit & ML Engineer (Sizing / Garment–Body Matching)
Мы — LOOKSY. Уже сделали 2D виртуальную примерку (тысячами людей используется на сайте и в боте) и базовую 3D визуализацию одежды на аватаре по одной фотографии.
Сейчас ищем конкретного человека, который сможет решить главную задачу следующего этапа —
сопоставить реальные размеры тела и одежды и добиться корректной посадки (fit) в 3D.
Что нужно делать
- Построить пайплайн size-matching: сопоставление параметров тела и параметров одежды.
- Реализовать алгоритмы garment–body alignment: подгонка одежды под тело, деформация, корректный fit.
- Работать с mesh-структурами аватара и одежды; внедрять fit-логику в наш текущий 3D пайплайн.
- Находить и адаптировать решения из GitHub/исследований (SMPL, cloth deformation, TailorNet и т.п.).
Требования
- Хорошее знание Python + опыт ML/DL от 2-х лет (Pytorch, CatBoost, Git, GAN, Diffusion).
Практический опыт в 3D/cloth/mesh-задачах: garment fitting, SMPL, deformations и др.
- Умение разбираться в чужом коде и быстро ресерчить новые направления.
Понимание основ 3D-моделирования или сильный интерес к теме.
- Будет плюсом: опыт с PyTorch3D/Kaolin/Open3D, CLO3D/MD/Blender; работа с size charts, опыт проведения экспериментов (информативное логгирование, профилирование и анализ).
Мы предлагаем
- Задачу с высокой степенью влияния — создание точного sizing-модуля для виртуальной примерки
- Быстрые решения, минимум процессов, возможность влиять на финальный продукт
- Возможность совмещения с другими проектами (в зависимости от навыков и индивидуальной скорости работы)
- Удаленка по всему миру
- Заработная плата выше рынка (будем предлагать исходя из твоего опыта)
Если дочитал до конца и хочешь к нам, пиши 3D-fit вот сюда: @looksy_help
Мы — LOOKSY. Уже сделали 2D виртуальную примерку (тысячами людей используется на сайте и в боте) и базовую 3D визуализацию одежды на аватаре по одной фотографии.
Сейчас ищем конкретного человека, который сможет решить главную задачу следующего этапа —
сопоставить реальные размеры тела и одежды и добиться корректной посадки (fit) в 3D.
Что нужно делать
- Построить пайплайн size-matching: сопоставление параметров тела и параметров одежды.
- Реализовать алгоритмы garment–body alignment: подгонка одежды под тело, деформация, корректный fit.
- Работать с mesh-структурами аватара и одежды; внедрять fit-логику в наш текущий 3D пайплайн.
- Находить и адаптировать решения из GitHub/исследований (SMPL, cloth deformation, TailorNet и т.п.).
Требования
- Хорошее знание Python + опыт ML/DL от 2-х лет (Pytorch, CatBoost, Git, GAN, Diffusion).
Практический опыт в 3D/cloth/mesh-задачах: garment fitting, SMPL, deformations и др.
- Умение разбираться в чужом коде и быстро ресерчить новые направления.
Понимание основ 3D-моделирования или сильный интерес к теме.
- Будет плюсом: опыт с PyTorch3D/Kaolin/Open3D, CLO3D/MD/Blender; работа с size charts, опыт проведения экспериментов (информативное логгирование, профилирование и анализ).
Мы предлагаем
- Задачу с высокой степенью влияния — создание точного sizing-модуля для виртуальной примерки
- Быстрые решения, минимум процессов, возможность влиять на финальный продукт
- Возможность совмещения с другими проектами (в зависимости от навыков и индивидуальной скорости работы)
- Удаленка по всему миру
- Заработная плата выше рынка (будем предлагать исходя из твоего опыта)
Если дочитал до конца и хочешь к нам, пиши 3D-fit вот сюда: @looksy_help
❤1
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
❤2
#вакансия #dataengineer #remote #fulltime #senior
КА: luckyhunter
Формат работы: remote
Занятость: Full Time
Вилка: до 5000 usd gross
💼 Международная технологическая компания с более чем 15-летним опытом работы в области обработки данных и искусственного интеллекта, специализирующаяся на аутстаффинге и техническом консалтинге в поисках Senior Data Engineer на крупный проект для энергетической компании из Германии.
👨💻 Какой опыт ожидаем увидеть:
* От 5 лет опыта работы
* Опыт проектирования хранилищ данных и архитектуры данных
* Уверенное владение SQL: написание и оптимизация сложных запросов, работа с большими объёмами данных
* Практический опыт применения методологии Data Vault 2.0
* Владение Python для автоматизации ETL/ELT, обработки и анализа данных
* Опыт с современным стеком: Snowflake (настройка, безопасность, оптимизация), dbt (Core), Apache Airflow (оркестрация пайплайнов)
* Знакомство с Azure DevOps (CI/CD, управление задачами, версионирование)
* Английский — не ниже B2
Что предлагает компания?
* Формат сотрудничества: B2B-договор.
* Полностью удалённая работа из любой точки мира, кроме России, Беларуси и Украины. Доступность в рамках часового пояса CET (до 18:00 CET)
* Рaid bench time.
* Возможность участвовать во внутренних проектах для поддержания загрузки между клиентскими проектами.
* Оплачиваемый больничный.
* Компенсация стоимости сертификаций и обучения.
* Доступ к передовым проектам в области AI и Data.
📩 Хотите узнать больше? Напишите мне в тг @veronikavlasovets
КА: luckyhunter
Формат работы: remote
Занятость: Full Time
Вилка: до 5000 usd gross
💼 Международная технологическая компания с более чем 15-летним опытом работы в области обработки данных и искусственного интеллекта, специализирующаяся на аутстаффинге и техническом консалтинге в поисках Senior Data Engineer на крупный проект для энергетической компании из Германии.
👨💻 Какой опыт ожидаем увидеть:
* От 5 лет опыта работы
* Опыт проектирования хранилищ данных и архитектуры данных
* Уверенное владение SQL: написание и оптимизация сложных запросов, работа с большими объёмами данных
* Практический опыт применения методологии Data Vault 2.0
* Владение Python для автоматизации ETL/ELT, обработки и анализа данных
* Опыт с современным стеком: Snowflake (настройка, безопасность, оптимизация), dbt (Core), Apache Airflow (оркестрация пайплайнов)
* Знакомство с Azure DevOps (CI/CD, управление задачами, версионирование)
* Английский — не ниже B2
Что предлагает компания?
* Формат сотрудничества: B2B-договор.
* Полностью удалённая работа из любой точки мира, кроме России, Беларуси и Украины. Доступность в рамках часового пояса CET (до 18:00 CET)
* Рaid bench time.
* Возможность участвовать во внутренних проектах для поддержания загрузки между клиентскими проектами.
* Оплачиваемый больничный.
* Компенсация стоимости сертификаций и обучения.
* Доступ к передовым проектам в области AI и Data.
📩 Хотите узнать больше? Напишите мне в тг @veronikavlasovets
#вакансия #vacancy #job #remote #AI #deep_research #middle #senior #ML #machine_learning #DS #Data_science #OCR #python #RAG #pytorch
Deep Research engineer (remote)
Skygen.ai — стартап, делаем ИИ-агента который выполняет любую задачу на компьютере.
Нужен инженер (с ресерч-экспертизой), который построит Deep Research — систему, которая сканит интернет, собирает огромные объёмы данных (все сайты, видео, блоги, таблицы, картинки и др. и выдает пользователю ответ на его запрос
Требования (must):
4+ лет инженерного опыта в ML/DS/engineering.
Python, опыт с парсингом, OCR, web crawling.
Опыт с RAG от 3 лет, embeddings / vector DB и retrieval pipelines. Понимание sota архитектур RAG
PyTorch/Transformers — уверенно.
Статьи по RAG/Deep research
Будет плюсом:
Опыт с механизмом self-reflection и memory management в агентах будут плюсом
Для отклика присылайте резюме в телеграм @foreverinlovewithsummer
Deep Research engineer (remote)
Skygen.ai — стартап, делаем ИИ-агента который выполняет любую задачу на компьютере.
Нужен инженер (с ресерч-экспертизой), который построит Deep Research — систему, которая сканит интернет, собирает огромные объёмы данных (все сайты, видео, блоги, таблицы, картинки и др. и выдает пользователю ответ на его запрос
Требования (must):
4+ лет инженерного опыта в ML/DS/engineering.
Python, опыт с парсингом, OCR, web crawling.
Опыт с RAG от 3 лет, embeddings / vector DB и retrieval pipelines. Понимание sota архитектур RAG
PyTorch/Transformers — уверенно.
Статьи по RAG/Deep research
Будет плюсом:
Опыт с механизмом self-reflection и memory management в агентах будут плюсом
Для отклика присылайте резюме в телеграм @foreverinlovewithsummer
👍2❤1
⚖️ Алгоритм LinkedIn и LLM: появился ли скрытый перекос?
В LinkedIn разгорается спор после того, как платформа стала активнее использовать LLM в ранжировании ленты. Поводом стал вирусный эксперимент #WearthePants, где авторы меняли пол, имя и иногда фото в профиле - и наблюдали резкие изменения охватов.
Что заметили создатели контента:
- Одна авторка с 10 000 подписчиков регулярно получала столько же показов, сколько ее муж с ~2 000
- После смены пола в профиле некоторые фиксировали рост показов на 200–238% всего за один день
- Также сообщают о +27% к вовлеченности и похожих скачках у других участников эксперимента
Позиция LinkedIn:
- Пол и другие демографические поля не используются напрямую для ранжирования ленты
- Сравнения «до и после» могут быть некорректными
- Демографические данные применяются только в масштабных fairness-тестах, а не в продакшн-алгоритме
- В реальном ранжировании используется сотни недемографических сигналов
Где начинается сложная часть:
Даже если пол не передается в модель напрямую, LLM может косвенно восстанавливать «gender-like» сигналы:
- стиль письма
- контекст профиля
- реакция аудитории
- история вовлеченности
- паттерны языка и тем
Фактически модель учится не полу, а коррелирующим с ним признакам.
Еще одно наблюдение авторов:
Новая система, похоже, сильнее награждает ясность мысли и ценность текста, а не частоту постинга или количество лайков. Это автоматически меняет баланс выигрывающих авторов, даже если контент кажется «тем же самым».
Это не история про злой умысел, а про сложность LLM-систем. Даже без прямых демографических данных модели могут воспроизводить перекосы через косвенные сигналы. И чем сложнее алгоритм, тем труднее доказать, где именно проходит граница между корреляцией и дискриминацией.
Источник:
https://techcrunch.com/2025/12/12/ok-whats-going-on-with-linkedins-algo/
В LinkedIn разгорается спор после того, как платформа стала активнее использовать LLM в ранжировании ленты. Поводом стал вирусный эксперимент #WearthePants, где авторы меняли пол, имя и иногда фото в профиле - и наблюдали резкие изменения охватов.
Что заметили создатели контента:
- Одна авторка с 10 000 подписчиков регулярно получала столько же показов, сколько ее муж с ~2 000
- После смены пола в профиле некоторые фиксировали рост показов на 200–238% всего за один день
- Также сообщают о +27% к вовлеченности и похожих скачках у других участников эксперимента
Позиция LinkedIn:
- Пол и другие демографические поля не используются напрямую для ранжирования ленты
- Сравнения «до и после» могут быть некорректными
- Демографические данные применяются только в масштабных fairness-тестах, а не в продакшн-алгоритме
- В реальном ранжировании используется сотни недемографических сигналов
Где начинается сложная часть:
Даже если пол не передается в модель напрямую, LLM может косвенно восстанавливать «gender-like» сигналы:
- стиль письма
- контекст профиля
- реакция аудитории
- история вовлеченности
- паттерны языка и тем
Фактически модель учится не полу, а коррелирующим с ним признакам.
Еще одно наблюдение авторов:
Новая система, похоже, сильнее награждает ясность мысли и ценность текста, а не частоту постинга или количество лайков. Это автоматически меняет баланс выигрывающих авторов, даже если контент кажется «тем же самым».
Это не история про злой умысел, а про сложность LLM-систем. Даже без прямых демографических данных модели могут воспроизводить перекосы через косвенные сигналы. И чем сложнее алгоритм, тем труднее доказать, где именно проходит граница между корреляцией и дискриминацией.
Источник:
https://techcrunch.com/2025/12/12/ok-whats-going-on-with-linkedins-algo/
🥱2❤1👍1😁1😡1
🚀 Вакансия: Продуктовый аналитик (Middle)
🏢 Компания: ООО Фаст Софт
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Санкт-Петербург
💼 Формат работы: гибрид
💰 Зарплата: 180-200k net
📊 Отрасли: e-commerce, foodtech
🎯 Требования:
- Опыт продуктовой аналитики от 2х лет - в ecom, back office продуктах будет преимуществом;
- Знание SQL и Python;
- Разбираетесь в математической статистике и A/B-тестировании;
- Опыт в построении юнит-экономики, метрик, продуктовых дашбордов, желательно опыт с Yandex DataLens;
- Опыт работы продуктовым или data-аналитиком от 2-х лет в сфере IT-продуктов;
- Глубокое понимание и практический опыт расчета всех ключевых продуктовых метрик: DAU/WAU/MAU, Retention (Cohort Analysis), LTV, Conversion Rate, а также умение анализировать воронки событий.
✅ Рабочие задачи:
- Формирование, расчёт метрик продуктов направления доставки (приложение, сайт, продукт для автоматизации доставки) и направления ресторанов;
- Поиск и анализ «узких мест» в пользовательских сценариях на основе метрик и воронок, определение причин прерывания флоу, анализ аномалий в метриках;
- Генерация гипотез для устранения «узких мест», дизайн и проведение A/B-тестов совместно с продуктовой командой, оценка результатов;
- Подготовка инсайтов, дашбордов и отчетов для команды, которые и помогут принимать решения по развитию продукта;
- Сегментация клиентов и расчёт unit-экономики (выручка, маржинальность, прибыльность);
- Участие в развитии продукта: проработка гипотез на функционал, проработка функционала, фиксация продуктовых результатов совместно с продуктовой командой;
- Работа с данными: самостоятельное извлечение и обработка больших массивов данных для проведения комплексного анализа.
📌 Условия:
- Гибридный формат работы с гибким началом рабочего дня;
- Обучение на любой онлайн платформе за счет компании;
- ДМС после 3 месяцев работы;
- 3 дополнительных оплачиваемых выходных в год;
- Занятия корпоративным английским еженедельно;
- Занятия спортом: корпоративный волейбол, футбол, настольный теннис, йога;
- Подарки на день рождения, рождение ребенка и свадьбу;
- Подарки за стаж работы в компании;
- Ежемесячные корпоративные мероприятия;
- Скидку 50% на обеды в ресторанах Токио Сити и Бахрома и карта на скидку 30% в ресторанах франшизы;
- Скидку 30% на проживание на базе отдыха у Ладожского озера;
- Современный офис в пешей доступности от станций метро Чкаловская/Спортивная/Петроградская;
- Уникальную возможность развиваться в команде профессионалов;
- Участие в значимых проектах и дружелюбную атмосферу и поддержку коллег.
📩 Контакты:
v.kondratieva@fssoft.ru
ℹ️ Дополнительно:
Откликнуться на вакансию: https://spb.hh.ru/vacancy/128274983?hhtmFrom=employer_vacancies
#SQL #Python #ECommerce #НСИ #Middle #Гибрид #Офис #ДМС #ИП
🏢 Компания: ООО Фаст Софт
🌎 Локация: 🇷🇺 Россия
🕕 Часовой пояс: Санкт-Петербург
💼 Формат работы: гибрид
💰 Зарплата: 180-200k net
📊 Отрасли: e-commerce, foodtech
🎯 Требования:
- Опыт продуктовой аналитики от 2х лет - в ecom, back office продуктах будет преимуществом;
- Знание SQL и Python;
- Разбираетесь в математической статистике и A/B-тестировании;
- Опыт в построении юнит-экономики, метрик, продуктовых дашбордов, желательно опыт с Yandex DataLens;
- Опыт работы продуктовым или data-аналитиком от 2-х лет в сфере IT-продуктов;
- Глубокое понимание и практический опыт расчета всех ключевых продуктовых метрик: DAU/WAU/MAU, Retention (Cohort Analysis), LTV, Conversion Rate, а также умение анализировать воронки событий.
✅ Рабочие задачи:
- Формирование, расчёт метрик продуктов направления доставки (приложение, сайт, продукт для автоматизации доставки) и направления ресторанов;
- Поиск и анализ «узких мест» в пользовательских сценариях на основе метрик и воронок, определение причин прерывания флоу, анализ аномалий в метриках;
- Генерация гипотез для устранения «узких мест», дизайн и проведение A/B-тестов совместно с продуктовой командой, оценка результатов;
- Подготовка инсайтов, дашбордов и отчетов для команды, которые и помогут принимать решения по развитию продукта;
- Сегментация клиентов и расчёт unit-экономики (выручка, маржинальность, прибыльность);
- Участие в развитии продукта: проработка гипотез на функционал, проработка функционала, фиксация продуктовых результатов совместно с продуктовой командой;
- Работа с данными: самостоятельное извлечение и обработка больших массивов данных для проведения комплексного анализа.
📌 Условия:
- Гибридный формат работы с гибким началом рабочего дня;
- Обучение на любой онлайн платформе за счет компании;
- ДМС после 3 месяцев работы;
- 3 дополнительных оплачиваемых выходных в год;
- Занятия корпоративным английским еженедельно;
- Занятия спортом: корпоративный волейбол, футбол, настольный теннис, йога;
- Подарки на день рождения, рождение ребенка и свадьбу;
- Подарки за стаж работы в компании;
- Ежемесячные корпоративные мероприятия;
- Скидку 50% на обеды в ресторанах Токио Сити и Бахрома и карта на скидку 30% в ресторанах франшизы;
- Скидку 30% на проживание на базе отдыха у Ладожского озера;
- Современный офис в пешей доступности от станций метро Чкаловская/Спортивная/Петроградская;
- Уникальную возможность развиваться в команде профессионалов;
- Участие в значимых проектах и дружелюбную атмосферу и поддержку коллег.
📩 Контакты:
v.kondratieva@fssoft.ru
ℹ️ Дополнительно:
Откликнуться на вакансию: https://spb.hh.ru/vacancy/128274983?hhtmFrom=employer_vacancies
#SQL #Python #ECommerce #НСИ #Middle #Гибрид #Офис #ДМС #ИП
🖕7❤1
#вакансия #vacancy #job #lead #teamlead #backend #python #fulltime #удаленка
💡Компания Devhunt
🔎 Вакансия: Tech Lead (Python, AI/ML)
🌏 Формат работы: Удалённо\гибрид (Москва)
💸 Зарплата: 400-500т.р гросс
✏️Опыт: 5+ лет
Компания занимается глубоким анализом поведения пользователей с применением ИИ: сбор данных из открытых источников, мониторинг упоминаний брендов в соцсетях, аналитика аудитории и персонализация маркетинговых решений.
🧠 Что нужно уметь:
1.Отличное знание Python
2.Опыт внедрения LLM в продукт
3.Умение писать код с помощью нейросетей (не меньше 50%)
4.Опыт руководства командой разработки
⚙️ Чем предстоит заниматься:
Руководить командой: планировать, ревьюить код, наставлять
Проектировать архитектуру backend-сервисов
Разрабатывать ключевые модули и интеграции с внешними API
Написание кода 80%, руководство 20%
Внедрять best practices и CI/CD процессы
💼 Что предлагаем:
Современный стек
Удалённый формат\гибрид
Возможности технического и управленческого роста
📩 Контакт для отклика: @lishersh
💡Компания Devhunt
🔎 Вакансия: Tech Lead (Python, AI/ML)
🌏 Формат работы: Удалённо\гибрид (Москва)
💸 Зарплата: 400-500т.р гросс
✏️Опыт: 5+ лет
Компания занимается глубоким анализом поведения пользователей с применением ИИ: сбор данных из открытых источников, мониторинг упоминаний брендов в соцсетях, аналитика аудитории и персонализация маркетинговых решений.
🧠 Что нужно уметь:
1.Отличное знание Python
2.Опыт внедрения LLM в продукт
3.Умение писать код с помощью нейросетей (не меньше 50%)
4.Опыт руководства командой разработки
⚙️ Чем предстоит заниматься:
Руководить командой: планировать, ревьюить код, наставлять
Проектировать архитектуру backend-сервисов
Разрабатывать ключевые модули и интеграции с внешними API
Написание кода 80%, руководство 20%
Внедрять best practices и CI/CD процессы
💼 Что предлагаем:
Современный стек
Удалённый формат\гибрид
Возможности технического и управленческого роста
📩 Контакт для отклика: @lishersh
❤1🤔1
#Vacancy #DataScience #Python #AI
Ex-McKinsey стартап в AI ищет Senior / Lead Data Scientist
Бутиковый AI-консалтинг, основанный ex-McKinsey, ищет Senior / Lead Data Scientist. Компания работает с B2B и B2C-продуктами, делает персонализацию и CVM-модели, проекты идут сразу в продакшен🚀
Что предстоит делать:
- Полный цикл DS: идея → Python → A/B → production
- Рекомендательные системы и CVM / CRM
- Участие во встречах с клиентами
Кого ищут:
- 4+ лет опыта в Data Science
- Опыт в консалтинге (желательно McKinsey, BCG, Bain)
- Сильный прикладной DS и Python
- Готовность к client-facing формату
Формат:
- 4 дня в неделю в офисе Еревана
- Командировки или релокация — оплачиваются
- Оформление через ОАЭ (Emirates ID) ✈️
Почему стоит смотреть:
- Команда ex-McKinsey, без бюрократии
- Реальный бизнес-импакт
- Возможность влиять на развитие DS-направления
📩 Резюме отправлять сюда @yayaslya
Ex-McKinsey стартап в AI ищет Senior / Lead Data Scientist
Бутиковый AI-консалтинг, основанный ex-McKinsey, ищет Senior / Lead Data Scientist. Компания работает с B2B и B2C-продуктами, делает персонализацию и CVM-модели, проекты идут сразу в продакшен🚀
Что предстоит делать:
- Полный цикл DS: идея → Python → A/B → production
- Рекомендательные системы и CVM / CRM
- Участие во встречах с клиентами
Кого ищут:
- 4+ лет опыта в Data Science
- Опыт в консалтинге (желательно McKinsey, BCG, Bain)
- Сильный прикладной DS и Python
- Готовность к client-facing формату
Формат:
- 4 дня в неделю в офисе Еревана
- Командировки или релокация — оплачиваются
- Оформление через ОАЭ (Emirates ID) ✈️
Почему стоит смотреть:
- Команда ex-McKinsey, без бюрократии
- Реальный бизнес-импакт
- Возможность влиять на развитие DS-направления
📩 Резюме отправлять сюда @yayaslya
❤6👍2🔥2🤣2🥴1
За эти 8 шагов вы легко развернете корпоративную Wiki с AI
Представьте: знания в вашей компании разбросаны по чатам, папкам и разным сервисам. Где искать нужную информацию? Куда складировать новую? Это рождает хаос и увеличивает время решения задач.
Чтобы помочь вам решить эту проблему, эксперты Cloud.ru подготовили гайд. За 8 шагов вы развернете Wiki в облаке и настроите умного AI-ассистента, даже если у вас нет глубоких технических знаний.
Успейте забрать бесплатный гайд
Представьте: знания в вашей компании разбросаны по чатам, папкам и разным сервисам. Где искать нужную информацию? Куда складировать новую? Это рождает хаос и увеличивает время решения задач.
Чтобы помочь вам решить эту проблему, эксперты Cloud.ru подготовили гайд. За 8 шагов вы развернете Wiki в облаке и настроите умного AI-ассистента, даже если у вас нет глубоких технических знаний.
Внутри гайда:➡️ Порядок действий с описанием сервисов, параметров настройки и подключения.➡️ Код и команды, которые можно скопировать и использовать для развертывания.➡️ Последовательность шагов с готовым проектом на GitHub для интеграции AI.
Успейте забрать бесплатный гайд
Please open Telegram to view this post
VIEW IN TELEGRAM
😁1
Инженер по системам хранения данных (Ceph)
Локация: Москва
Формат работы: гибрид
ЗП: от 300 000 на руки
Крупнейшая MedTech компания работает с огромными массивами данных секвенирования и биоинформатики.
Хранилище данных построено на Ceph – 13 кластеров, более 1000 серверов, в которых размещаются геномные данные, пайплайны и сервисы для исследовательских команд. Масштабы растут: впереди план по увеличению объема хранения в 5 раз.
🔹 Задачи:
● Поддержка и развитие распределенной системы хранения данных на базе Ceph (CephFS, RBD).
● Мониторинг и обеспечение стабильной работы 13 кластеров.
● Решение инцидентов и оперативное реагирование на сбои (включая внеплановое).
● Настройка и оптимизация производительности кластеров.
● Масштабирование системы под растущие объемы данных.
● Взаимодействие с биоинформатиками и инженерами для поддержки рабочих процессов.
🔹 Требования:
● Опыт работы с Ceph (CephFS, RBD).
● Опыт администрирования Linux (глубокое понимание внутренней архитектуры, сервисов, сетей).
● Знание принципов работы L2-сетей.
● Понимание принципов серверной инфраструктуры и систем хранения.
● Готовность к обучению и освоению Ceph.
● Ответственность и готовность быстро реагировать на инциденты.
● Опыт администрирования высоконагруженных систем, HPC или дата-центров.
● Навыки автоматизации (bash, python, ansible и др.).
🔹 Условия:
● Формат работы: гибрид.
● Оформление по ТК РФ.
● Корпоративное медицинское обслуживание.
● Бессрочный трудовой договор.
● Высокопрофессиональная команда и передовые технологии.
Резюме отправлять: @lavrenovtolya
#Ceph #Linux #ЦОД #вакансия #работа #PrincipalRecruitment
Локация: Москва
Формат работы: гибрид
ЗП: от 300 000 на руки
Крупнейшая MedTech компания работает с огромными массивами данных секвенирования и биоинформатики.
Хранилище данных построено на Ceph – 13 кластеров, более 1000 серверов, в которых размещаются геномные данные, пайплайны и сервисы для исследовательских команд. Масштабы растут: впереди план по увеличению объема хранения в 5 раз.
🔹 Задачи:
● Поддержка и развитие распределенной системы хранения данных на базе Ceph (CephFS, RBD).
● Мониторинг и обеспечение стабильной работы 13 кластеров.
● Решение инцидентов и оперативное реагирование на сбои (включая внеплановое).
● Настройка и оптимизация производительности кластеров.
● Масштабирование системы под растущие объемы данных.
● Взаимодействие с биоинформатиками и инженерами для поддержки рабочих процессов.
🔹 Требования:
● Опыт работы с Ceph (CephFS, RBD).
● Опыт администрирования Linux (глубокое понимание внутренней архитектуры, сервисов, сетей).
● Знание принципов работы L2-сетей.
● Понимание принципов серверной инфраструктуры и систем хранения.
● Готовность к обучению и освоению Ceph.
● Ответственность и готовность быстро реагировать на инциденты.
● Опыт администрирования высоконагруженных систем, HPC или дата-центров.
● Навыки автоматизации (bash, python, ansible и др.).
🔹 Условия:
● Формат работы: гибрид.
● Оформление по ТК РФ.
● Корпоративное медицинское обслуживание.
● Бессрочный трудовой договор.
● Высокопрофессиональная команда и передовые технологии.
Резюме отправлять: @lavrenovtolya
#Ceph #Linux #ЦОД #вакансия #работа #PrincipalRecruitment
#вакансия #dataengineer #healthtech #фултайм #москва
Вакансия: Data Engineer
Компания: AstraTech
Формат: гибридный (предпочтительно) / удаленный по РФ
Оформление: ГПХ (после ИС возможен переход на ТК)
Локация: Москва-Сити
Занятость: full-time
Вилка: 270 - 320к ₽ гросс
AI HealthTech стартап создает продукт, который трансформирует привычные процессы в здравоохранении, делая их эффективнее и меняя мир к лучшему 🕊
Сейчас команда в поиске Data Engineer, который будет заниматься построением и оптимизацией ETL-пайплайнов для обработки миллионов строк медицинских данных.
Вам предстоит обеспечивать качество и целостность данных, вы будете работать на стыке клиник, поставщиков данных и ML-команды, обеспечивая стандарты для обучения моделей.
Основные задачи:
· Анализ, нормализация и очистка крупных медицинских датасетов (EHR, анализы, диагнозы).
· Разработка и адаптация ETL-пайплайнов под разные источники данных.
· Контроль качества входящих данных, коммуникация с поставщиками и стейкхолдерами.
· Тесная работа с ML-инженерами над форматами данных и улучшением пайплайнов.
Что ожидаем:
· Опыт работы с Python (Pandas, NumPy, PyTorch; PySpark / Dask - плюс).
· Практика работы с данными масштаба миллионов записей.
· Умение ясно доносить идеи как технической, так и нетехнической аудитории.
· Готовность погружаться в медицинскую специфику.
Будет плюсом:
· Опыт в биоинформатике / медицине / HealthTech.
· Понимание конфиденциальности данных (GDPR / HIPAA).
· Знание медицинских систем кодирования (ICD-10, LOINC).
· Опыт с ETL-оркестрацией (Airflow), FHIR / HL7.
Почему стоит откликнуться?
· AstraTech - это действительно мощная команда талантливых специалистов, в которой есть несколько PhD, они драйвят процессы и привносят по своему уникальные решения в реализацию продукта.
· Возможность применить опыт и развить экспертизу в проекте, который реально помогает людям.
· Высокая степень ответственности и влияния на архитектуру данных и конечный продукт.
· Работа со сложными задачами и современным стеком технологий.
Направляйте ваши отклики с резюме — @Inga_IT 📩
Вакансия: Data Engineer
Компания: AstraTech
Формат: гибридный (предпочтительно) / удаленный по РФ
Оформление: ГПХ (после ИС возможен переход на ТК)
Локация: Москва-Сити
Занятость: full-time
Вилка: 270 - 320к ₽ гросс
AI HealthTech стартап создает продукт, который трансформирует привычные процессы в здравоохранении, делая их эффективнее и меняя мир к лучшему 🕊
Сейчас команда в поиске Data Engineer, который будет заниматься построением и оптимизацией ETL-пайплайнов для обработки миллионов строк медицинских данных.
Вам предстоит обеспечивать качество и целостность данных, вы будете работать на стыке клиник, поставщиков данных и ML-команды, обеспечивая стандарты для обучения моделей.
Основные задачи:
· Анализ, нормализация и очистка крупных медицинских датасетов (EHR, анализы, диагнозы).
· Разработка и адаптация ETL-пайплайнов под разные источники данных.
· Контроль качества входящих данных, коммуникация с поставщиками и стейкхолдерами.
· Тесная работа с ML-инженерами над форматами данных и улучшением пайплайнов.
Что ожидаем:
· Опыт работы с Python (Pandas, NumPy, PyTorch; PySpark / Dask - плюс).
· Практика работы с данными масштаба миллионов записей.
· Умение ясно доносить идеи как технической, так и нетехнической аудитории.
· Готовность погружаться в медицинскую специфику.
Будет плюсом:
· Опыт в биоинформатике / медицине / HealthTech.
· Понимание конфиденциальности данных (GDPR / HIPAA).
· Знание медицинских систем кодирования (ICD-10, LOINC).
· Опыт с ETL-оркестрацией (Airflow), FHIR / HL7.
Почему стоит откликнуться?
· AstraTech - это действительно мощная команда талантливых специалистов, в которой есть несколько PhD, они драйвят процессы и привносят по своему уникальные решения в реализацию продукта.
· Возможность применить опыт и развить экспертизу в проекте, который реально помогает людям.
· Высокая степень ответственности и влияния на архитектуру данных и конечный продукт.
· Работа со сложными задачами и современным стеком технологий.
Направляйте ваши отклики с резюме — @Inga_IT 📩
👍3💊2❤1
Откликаешься на ML-вакансии, а в ответ тишина… 🗑
Конечно бывают собесы, но там все равно отказы. А потом заново отказы в откликах и так по кругу.
Если ты в этом цикле, проблема чаще всего не в знаниях и не в стеке.
Проблема в том, как ты составляешь резюме, проходишь собеседования и как продаёшь свой опыт.
В канале разбираю рынок вакансий в ML:
⁃ Почему кандидатов валят
⁃ Какие ответы работают, а какие нет
⁃ Как готовиться к собесам осознанно
👉 Подписывайся , если хочешь выйти из этого круга,
а не просто читать вакансии дальше.
Конечно бывают собесы, но там все равно отказы. А потом заново отказы в откликах и так по кругу.
Если ты в этом цикле, проблема чаще всего не в знаниях и не в стеке.
Проблема в том, как ты составляешь резюме, проходишь собеседования и как продаёшь свой опыт.
В канале разбираю рынок вакансий в ML:
⁃ Почему кандидатов валят
⁃ Какие ответы работают, а какие нет
⁃ Как готовиться к собесам осознанно
а не просто читать вакансии дальше.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
#вакансия #fulltime #remote #senior #dataengineer #llm #rag
Компания Centicore💙 находится в поисках Senior Data Engineer (LLM / RAG).
Мы занимаемся продуктовой и платформенной разработкой под ключ для крупных заказчиков. В рамках проекта команда строит промышленную data-платформу для работы с большими языковыми моделями (LLM) и Retrieval-Augmented Generation (RAG).
Формат работы: Удаленка по РФ
Вилка: 350–380k на руки (в зависимости от опыта и пожеланий кандидата)
Уровень: Senior
🔷 Требования:
Отличное знание Python: структуры данных, итераторы, декораторы,
асинхронное и параллельное программирование, OOP и FP
Уверенное владение SQL: сложные запросы, CTE, оконные функции
Опыт работы с vector DB: OpenSearch, Qdrant
Опыт построения batch и streaming-сервисов для расчёта embeddings и загрузки их в векторные хранилища
Понимание принципов RAG и обогащения LLM контекстными данными
Опыт разработки промышленных ETL-сервисов на Python
Опыт оркестрации пайплайнов: Apache Airflow, Argo Workflows
Хорошее знание Apache Spark / PySpark (производительность, отладка, Spark History Server)
Опыт асинхронного взаимодействия с веб-сервисами по REST API (aiohttp, httpx)
Опыт работы с PostgreSQL, Oracle
Опыт работы с Big Data-хранилищами: Hadoop/HDFS, S3, Hive, Iceberg
Опыт работы в JupyterLab / JupyterHub
🔷 Будет плюсом:
Опыт потоковой обработки данных
Опыт работы в AI / ML / LLM-проектах
Понимание требований к данным для обучения и эксплуатации ML-моделей
Опыт построения отказоустойчивых data-сервисов в enterprise-среде
🔷 Обязанности:
Разработка сервисов пакетной и потоковой обработки данных для вычисления векторных представлений (embeddings)
Загрузка и сопровождение данных в векторных хранилищах для использования в RAG-сценариях
Разработка и поддержка ETL-пайплайнов под управлением Airflow / Argo
Оптимизация SQL-запросов и Spark-приложений
Взаимодействие с командами Data Science, ML/LLM и инфраструктуры
Участие в развитии data-платформы для LLM-решений
💌 Для откликов и вопросов — писать в лс @ktvsk_d
Будем рады знакомству! ❤️
Компания Centicore💙 находится в поисках Senior Data Engineer (LLM / RAG).
Мы занимаемся продуктовой и платформенной разработкой под ключ для крупных заказчиков. В рамках проекта команда строит промышленную data-платформу для работы с большими языковыми моделями (LLM) и Retrieval-Augmented Generation (RAG).
Формат работы: Удаленка по РФ
Вилка: 350–380k на руки (в зависимости от опыта и пожеланий кандидата)
Уровень: Senior
🔷 Требования:
Отличное знание Python: структуры данных, итераторы, декораторы,
асинхронное и параллельное программирование, OOP и FP
Уверенное владение SQL: сложные запросы, CTE, оконные функции
Опыт работы с vector DB: OpenSearch, Qdrant
Опыт построения batch и streaming-сервисов для расчёта embeddings и загрузки их в векторные хранилища
Понимание принципов RAG и обогащения LLM контекстными данными
Опыт разработки промышленных ETL-сервисов на Python
Опыт оркестрации пайплайнов: Apache Airflow, Argo Workflows
Хорошее знание Apache Spark / PySpark (производительность, отладка, Spark History Server)
Опыт асинхронного взаимодействия с веб-сервисами по REST API (aiohttp, httpx)
Опыт работы с PostgreSQL, Oracle
Опыт работы с Big Data-хранилищами: Hadoop/HDFS, S3, Hive, Iceberg
Опыт работы в JupyterLab / JupyterHub
🔷 Будет плюсом:
Опыт потоковой обработки данных
Опыт работы в AI / ML / LLM-проектах
Понимание требований к данным для обучения и эксплуатации ML-моделей
Опыт построения отказоустойчивых data-сервисов в enterprise-среде
🔷 Обязанности:
Разработка сервисов пакетной и потоковой обработки данных для вычисления векторных представлений (embeddings)
Загрузка и сопровождение данных в векторных хранилищах для использования в RAG-сценариях
Разработка и поддержка ETL-пайплайнов под управлением Airflow / Argo
Оптимизация SQL-запросов и Spark-приложений
Взаимодействие с командами Data Science, ML/LLM и инфраструктуры
Участие в развитии data-платформы для LLM-решений
💌 Для откликов и вопросов — писать в лс @ktvsk_d
Будем рады знакомству! ❤️
🖕4
Вакансия: Data Engineer / SQL разработчик
Компания: LIAN
Формат: аутстафф
Занятость: полная
Локация: удаленка строго по РФ
ЗП: от 300 до 380 тыс
Оформление: по ИП/СЗ
Обязанности:
- Разработка и поддержка надежных ETL-пайплайнов в распределенной среде на базе современного open-source стека
- Работа с dbt (Data Build Tool) для управления трансформациями, тестирования и документирования SQL-логики.
- Работа с Apache Airflow для оркестрации, планирования и мониторинга выполнения задач.
- Участие в разработке пайплайнов на Apache Flink для расчетов в реальном времени.
Требования:
- Сильный и опытный SQL-разработчик. Способность писать эффективный, оптимизированный и понятный SQL-код.
- Опыт работы с распределенными системами: знание принципиальных отличий OLAP от OLTP, понимание, как выполняемый код работает в распределенной среде.
- Опыт работы с Apache Airflow для планирования и мониторинга пайплайнов.
- Опыт работы с dbt (Data Build Tool) для управления трансформациями.
- Понимать различия работы между BigData и с данными обычного размера.
- Опыт работы с SAP (понимание данных и логики SAP-систем).
- Опыт работы с Trino
- Опыт работы с Apache Flink
- Опыт работы с Java
- Опыт работы с Git (знание команд git pull/commit/push)
- Опыт работы системным аналитиком или data аналитик, навыки работы с бизнес-логикой от заказчика будет плюсом
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
Компания: LIAN
Формат: аутстафф
Занятость: полная
Локация: удаленка строго по РФ
ЗП: от 300 до 380 тыс
Оформление: по ИП/СЗ
Обязанности:
- Разработка и поддержка надежных ETL-пайплайнов в распределенной среде на базе современного open-source стека
- Работа с dbt (Data Build Tool) для управления трансформациями, тестирования и документирования SQL-логики.
- Работа с Apache Airflow для оркестрации, планирования и мониторинга выполнения задач.
- Участие в разработке пайплайнов на Apache Flink для расчетов в реальном времени.
Требования:
- Сильный и опытный SQL-разработчик. Способность писать эффективный, оптимизированный и понятный SQL-код.
- Опыт работы с распределенными системами: знание принципиальных отличий OLAP от OLTP, понимание, как выполняемый код работает в распределенной среде.
- Опыт работы с Apache Airflow для планирования и мониторинга пайплайнов.
- Опыт работы с dbt (Data Build Tool) для управления трансформациями.
- Понимать различия работы между BigData и с данными обычного размера.
- Опыт работы с SAP (понимание данных и логики SAP-систем).
- Опыт работы с Trino
- Опыт работы с Apache Flink
- Опыт работы с Java
- Опыт работы с Git (знание команд git pull/commit/push)
- Опыт работы системным аналитиком или data аналитик, навыки работы с бизнес-логикой от заказчика будет плюсом
📩Для отклика писать в личные сообщения @yanggilla
Прикрепляйте сразу CV
🌚1
#Вакансия #офис #Москва #ML #fulltime
Вакансия: ML
Компания: АВ Софт
Локация: Москва
Формат: офис
Занятость: полная
Зарплата: 150 000 – 250 000 рублей (NET)
Наша компания – отечественный вендор в области информационной безопасности. Мы разрабатываем продукты для обеспечения безопасности от различных угроз.
ОБЯЗАННОСТИ
• Участвовать в полном цикле разработки — от понимания бизнес-задачи и подготовки данных до обучения, тестирования, деплоя
• Сбор, очистка, нормализация данных, построение признаков (feature engineering) и разработка ETL-пайплайнов для задач классификации и детектирования аномалий.
• Разработка и обучение ML-моделей (включая классические алгоритмы и deep learning) для решения задач классификации, детектирования аномалий и предсказания.
• Упаковка моделей в контейнеры (Docker), их деплой в виде REST-сервисов, оптимизация скорости инференса.
• Обеспечение стабильной работы моделей, мониторинг качества, выявление data drift и concept drift, планирование и проведение переобучения моделей.
ТРЕБОВАНИЯ
• Опыт разработки и деплоя ML-моделей в продакшн.
• Уверенное знание Python и основных библиотек: numpy, pandas, scikit-learn, PyTorch, CatBoost, XGBoost, LightGBM, transformers.
• Опыт работы с классическими ML-моделями (XGBoost, LightGBM, Random Forest) и SOTA-подходами (включая NLP/CV).
• Навыки работы с SQL и системами контроля версий (Git).
• Практический опыт работы с Docker и развертыванием сервисов (REST API).
• Опыт оркестрации пайплайнов (Airflow или аналоги).
• Знание Linux как рабочей среды.
• Понимание принципов MLOps, управления экспериментами и версионирования данных/моделей. Умение писать читаемый, тестируемый и эффективный код.
• Английский язык на уровне чтения технической документации.
БУДЕТ ПЛЮСОМ
• Опыт оптимизации и оптимизации DL-моделей с помощью ONNX, TensorRT
• Проактивная жизненная позиция
• Знание методов интерпретации моделей (SHAP, LIME) и уязвимостей ML-моделей.
• Опыт интеграции ML-моделей в реальные сервисы и взаимодействия с командами разработки.
• Желание расти, предлагать новые решения и улучшать продукты.
УСЛОВИЯ РАБОТЫ
- оформление по ТК в аккредитованной ИТ компании
- график работы 5/2 с началом рабочего дня с 9:00 или 10:00
- возможен гибкий график работы для студентов
(минимум 20 часов в офисе)
- ведение задач в единой системе, актуализация вики и гайдов
- обучение по продуктам компании и корпоративная библиотека
- возможность приобретения обучающих курсов за счет компании
- проекты в области информационной безопасности и коммуникации
Откликнуться: @digrrr89
Вакансия: ML
Компания: АВ Софт
Локация: Москва
Формат: офис
Занятость: полная
Зарплата: 150 000 – 250 000 рублей (NET)
Наша компания – отечественный вендор в области информационной безопасности. Мы разрабатываем продукты для обеспечения безопасности от различных угроз.
ОБЯЗАННОСТИ
• Участвовать в полном цикле разработки — от понимания бизнес-задачи и подготовки данных до обучения, тестирования, деплоя
• Сбор, очистка, нормализация данных, построение признаков (feature engineering) и разработка ETL-пайплайнов для задач классификации и детектирования аномалий.
• Разработка и обучение ML-моделей (включая классические алгоритмы и deep learning) для решения задач классификации, детектирования аномалий и предсказания.
• Упаковка моделей в контейнеры (Docker), их деплой в виде REST-сервисов, оптимизация скорости инференса.
• Обеспечение стабильной работы моделей, мониторинг качества, выявление data drift и concept drift, планирование и проведение переобучения моделей.
ТРЕБОВАНИЯ
• Опыт разработки и деплоя ML-моделей в продакшн.
• Уверенное знание Python и основных библиотек: numpy, pandas, scikit-learn, PyTorch, CatBoost, XGBoost, LightGBM, transformers.
• Опыт работы с классическими ML-моделями (XGBoost, LightGBM, Random Forest) и SOTA-подходами (включая NLP/CV).
• Навыки работы с SQL и системами контроля версий (Git).
• Практический опыт работы с Docker и развертыванием сервисов (REST API).
• Опыт оркестрации пайплайнов (Airflow или аналоги).
• Знание Linux как рабочей среды.
• Понимание принципов MLOps, управления экспериментами и версионирования данных/моделей. Умение писать читаемый, тестируемый и эффективный код.
• Английский язык на уровне чтения технической документации.
БУДЕТ ПЛЮСОМ
• Опыт оптимизации и оптимизации DL-моделей с помощью ONNX, TensorRT
• Проактивная жизненная позиция
• Знание методов интерпретации моделей (SHAP, LIME) и уязвимостей ML-моделей.
• Опыт интеграции ML-моделей в реальные сервисы и взаимодействия с командами разработки.
• Желание расти, предлагать новые решения и улучшать продукты.
УСЛОВИЯ РАБОТЫ
- оформление по ТК в аккредитованной ИТ компании
- график работы 5/2 с началом рабочего дня с 9:00 или 10:00
- возможен гибкий график работы для студентов
(минимум 20 часов в офисе)
- ведение задач в единой системе, актуализация вики и гайдов
- обучение по продуктам компании и корпоративная библиотека
- возможность приобретения обучающих курсов за счет компании
- проекты в области информационной безопасности и коммуникации
Откликнуться: @digrrr89
🥴9😁5💊3🖕1
Вакансия: Data analyst
Грейд: стажер/junior
Формат: гибридный / удаленный
Занятость: full-time
Вилка: 90 - 120к ₽
Похожих вакансий для аналитиков данных с зарплатой от 80к — 44 000+ на HH. Хотите получить такой оффер, но у вас нет опыта?
Пройдите курс "Аналитик данных" от Changellenge >> Education для тех, кто хочет войти в аналитику с нуля или сменить сферу и соберите с нуля портфолио из 21 проекта:
✅ Реальные кейсы от Т-Банка, Авито, МТС
Работаете с настоящими данными, решаете бизнес-задачи топовых компаний.
✅ Все необходимые инструменты: SQL, Python, Excel, BI
Только то, что нужно для работы в индустрии. Практика со второй недели.
✅ Работа с нейросетями
Внедрите в работу ИИ и научитесь решать задачи в 3-5 раз быстрее. Курс обновлен в ноябре 2025 года.
✅ Поддержка в трудоустройстве
Упрощенный отбор в компании-партнеры, помощь с резюме, подготовка к собесам, доступ к закрытыми вакансиям через сообщество выпускников.
Формат: 8 месяцев, онлайн, 8-10 часов в неделю. Можно совмещать с работой.
83% выпускников трудоустраиваются за 3 месяца и работают в: Яндекс, Сбер, Т-Банк, ВТБ, Авито, VK.
По промокоду
Если хотите перейти в аналитику — запишитесь на курс и прокачайтесь в 2026 году: https://clck.ru/3QzVxw
Грейд: стажер/junior
Формат: гибридный / удаленный
Занятость: full-time
Вилка: 90 - 120к ₽
Похожих вакансий для аналитиков данных с зарплатой от 80к — 44 000+ на HH. Хотите получить такой оффер, но у вас нет опыта?
Пройдите курс "Аналитик данных" от Changellenge >> Education для тех, кто хочет войти в аналитику с нуля или сменить сферу и соберите с нуля портфолио из 21 проекта:
✅ Реальные кейсы от Т-Банка, Авито, МТС
Работаете с настоящими данными, решаете бизнес-задачи топовых компаний.
✅ Все необходимые инструменты: SQL, Python, Excel, BI
Только то, что нужно для работы в индустрии. Практика со второй недели.
✅ Работа с нейросетями
Внедрите в работу ИИ и научитесь решать задачи в 3-5 раз быстрее. Курс обновлен в ноябре 2025 года.
✅ Поддержка в трудоустройстве
Упрощенный отбор в компании-партнеры, помощь с резюме, подготовка к собесам, доступ к закрытыми вакансиям через сообщество выпускников.
Формат: 8 месяцев, онлайн, 8-10 часов в неделю. Можно совмещать с работой.
83% выпускников трудоустраиваются за 3 месяца и работают в: Яндекс, Сбер, Т-Банк, ВТБ, Авито, VK.
По промокоду
DSJOBS15 — скидка 15 000₽ на курс "Аналитик данных" до 30 декабря.Если хотите перейти в аналитику — запишитесь на курс и прокачайтесь в 2026 году: https://clck.ru/3QzVxw
🤣7🥱3🐳2❤1🌭1🙈1
#вакансия
Позиция: DS (Causal Inference & Econometrics)
Компания: Х5 Group
Формат: Полный занятость (40 часов в неделю).
Локация: Удаленная работа (но по желанию можно работать из офиса БЦ Оазис, г. Москва)
Вилки: Оклад от 300 до 600 тыс. руб. gross + до 40% премия (уровень оклада обсуждается по итогам интервью)
💡Команда ad-hoc аналитики из X5 (Пятерочка, Перекресток, Чижик и т.д.) в поисках опытных DS-спецов с уклоном в Causal Inference и прикладную эконометрику
🔬Почему у нас интересно?
Более 29 тысяч магазинов, 50 миллионов клиентов, петабайты данных - и все это нужно анализировать
Ты будешь работать в команде нового стрима - никакого легаси, много интересных исследовательских задач - большая часть работы будет именно про 'рисеч': разбор бизнес-механик и формулирование причинных гипотез, чтение свежих статей и имплементация методов оттуда, сравнение этих методов между собой
🔭Чем у нас предстоит заниматься?
В основном - end-to-end разработкой методологий и инструментов для оценки эффектов в случае, когда классические A/B-тесты неприменимы. Сейчас процесс имеет следующий вид:
- встреча с заказчиками, уточнение требований и формализации задачи
- определение подходящего статистического подхода для анализа и конфигурирование статистической модели
- разработка и тестирование модели на синтетических и реальных данных
- презентация результатов заказчикам
- выкатка модели в 'прод' (регулярный расчет эффектов раз в месяц), дальнейшая доработка модели
Также читаем статьи и исследуем разные методы, удачные решения имплементируем в собственную python библиотеку, по итогам особо интересных задачек пишем статьи
Примеры уже решенных задач - оценка эффекта наличия подписки (Пакет) на траты клиента, оценка прироста выручки у клиентов по итогам федеральных акций
😎Ты нам подходишь, если ты:
- Имеешь опыт работы в DS-сфере от двух лет
- Имеешь бэкграунд в Causal Inference / эконометрике (наука, учеба, работа)
- Знаешь, что такое эндогенность, из-за чего она может возникать и как с ней бороться
- Можешь отличить конфаундер от инструмента
- Можешь нарисовать DAG для конкретного DGP, сможешь на нем найти коллайдеры и медиаторы
- Знаком с современными подходами к анализу кросс-секционных и панельных данных (Doubly Robust Estimators (AIPW), DiD, TWFE, IV)
- Умеешь писать чистый и структурированный код на Python, знаешь классические алгоритмы и структуры данных
- Знаешь SQL - умеешь строить оптимальные запросы, знакомство с hadoop-стэком будет плюсом;
🎁Что мы предлагаем:
- возможность работать удалённо или в гибридном формате;
- ежеквартальные премии по результатам работы;
- удобный офис рядом с м. «Добрынинская» / удобный офис с бесплатной парковкой на м. «Волгоградский проспект» / МЦД «Калитники»
- гибкий график работы (с 8/9/10 утра) / График работы: 5/2, с 9:00 до 18:15 (в пятницу — до 17:00);
- широкий пакет ДМС (включая выезд за рубеж и стоматологию), страхование жизни и здоровья;
- возможность учиться и развиваться за счёт компании;
- программы мотивации для спикеров и авторов;
- Классный коллектив, теплая атмосфера и веселые ретро с играми и битвой мемов, а также оффлайн-тимбилдинги.
Свои резюме в формате "Фамилия Имя Резюме DS ad-hoc" направлять сюда: @Zzzelar
Позиция: DS (Causal Inference & Econometrics)
Компания: Х5 Group
Формат: Полный занятость (40 часов в неделю).
Локация: Удаленная работа (но по желанию можно работать из офиса БЦ Оазис, г. Москва)
Вилки: Оклад от 300 до 600 тыс. руб. gross + до 40% премия (уровень оклада обсуждается по итогам интервью)
💡Команда ad-hoc аналитики из X5 (Пятерочка, Перекресток, Чижик и т.д.) в поисках опытных DS-спецов с уклоном в Causal Inference и прикладную эконометрику
🔬Почему у нас интересно?
Более 29 тысяч магазинов, 50 миллионов клиентов, петабайты данных - и все это нужно анализировать
Ты будешь работать в команде нового стрима - никакого легаси, много интересных исследовательских задач - большая часть работы будет именно про 'рисеч': разбор бизнес-механик и формулирование причинных гипотез, чтение свежих статей и имплементация методов оттуда, сравнение этих методов между собой
🔭Чем у нас предстоит заниматься?
В основном - end-to-end разработкой методологий и инструментов для оценки эффектов в случае, когда классические A/B-тесты неприменимы. Сейчас процесс имеет следующий вид:
- встреча с заказчиками, уточнение требований и формализации задачи
- определение подходящего статистического подхода для анализа и конфигурирование статистической модели
- разработка и тестирование модели на синтетических и реальных данных
- презентация результатов заказчикам
- выкатка модели в 'прод' (регулярный расчет эффектов раз в месяц), дальнейшая доработка модели
Также читаем статьи и исследуем разные методы, удачные решения имплементируем в собственную python библиотеку, по итогам особо интересных задачек пишем статьи
Примеры уже решенных задач - оценка эффекта наличия подписки (Пакет) на траты клиента, оценка прироста выручки у клиентов по итогам федеральных акций
😎Ты нам подходишь, если ты:
- Имеешь опыт работы в DS-сфере от двух лет
- Имеешь бэкграунд в Causal Inference / эконометрике (наука, учеба, работа)
- Знаешь, что такое эндогенность, из-за чего она может возникать и как с ней бороться
- Можешь отличить конфаундер от инструмента
- Можешь нарисовать DAG для конкретного DGP, сможешь на нем найти коллайдеры и медиаторы
- Знаком с современными подходами к анализу кросс-секционных и панельных данных (Doubly Robust Estimators (AIPW), DiD, TWFE, IV)
- Умеешь писать чистый и структурированный код на Python, знаешь классические алгоритмы и структуры данных
- Знаешь SQL - умеешь строить оптимальные запросы, знакомство с hadoop-стэком будет плюсом;
🎁Что мы предлагаем:
- возможность работать удалённо или в гибридном формате;
- ежеквартальные премии по результатам работы;
- удобный офис рядом с м. «Добрынинская» / удобный офис с бесплатной парковкой на м. «Волгоградский проспект» / МЦД «Калитники»
- гибкий график работы (с 8/9/10 утра) / График работы: 5/2, с 9:00 до 18:15 (в пятницу — до 17:00);
- широкий пакет ДМС (включая выезд за рубеж и стоматологию), страхование жизни и здоровья;
- возможность учиться и развиваться за счёт компании;
- программы мотивации для спикеров и авторов;
- Классный коллектив, теплая атмосфера и веселые ретро с играми и битвой мемов, а также оффлайн-тимбилдинги.
Свои резюме в формате "Фамилия Имя Резюме DS ad-hoc" направлять сюда: @Zzzelar