Data Secrets | Карьера
6.49K subscribers
1.05K photos
47 videos
1 file
1.16K links
Вакансии Data Science | Machine Learning | Big Data | Deep Learning | Neural Networks

Прислать вакансию/сотрудничество: @veron_28

https://telega.in/c/data_secrets_career
Download Telegram
Data Scientist в ИТМО
От 120.000₽
Офис в Санкт-Петербурге

Предстоит: разработка и имплементация новых ML/DL-архитектур для задач химии материалов, drug-дизайна и кристаллохимии (GNN, трансформеры, диффузионные модели); построение и ведение исследовательских пайплайнов: подготовка датасетов, воспроизводимое обучение/валидация, оптимизация гипер-параметров, интерпретация моделей…. Узнать подробнее 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
9
Подготовка к собеседованиям для MLE

Наткнулись на блог Андрея Лукьяненко — ML-инженера, проработавшего на этой должности 6 лет. Совсем недавно он поделился тем, как готовился к собеседованиям в разные компании.

Андрей выделил основные типы собеседований: Leetcode, ML System Design, вопросы по теории ML и статистике и поведенческое интервью.

➡️ Leetcode — один из самых популярных этапов собеседований. Хоть многие его и не любят, этот этап может продемонстрировать вашу подготовку: либо вы из тех, кто целенаправленно нарешивал задачи, либо из тех, кто просто способен быстро их решать, а может и вовсе не тот и не другой, но тогда ваши шансы на получение офера снижаются.

Задачи делятся по уровню сложности: легкие, средние и сложные. Если с легкими все проще: в них нужно знать базовые структуры данных, то на среднем и сложном уровнях необходимо знать подходы к решению определенных проблем или уметь применять сразу несколько методов.

Просто решить задачу по программированию — полдела, ведь нужно решить ее эффективно, оптимизировав время и память, а для этого как раз и нужны знания структур данных и алгоритмов.

К такому собеседованию Андрей готовился так: давал себе время на решение задачи (например, 15 минут), если решить ее не получалось, то изучал решение, воспроизводил его, а потом нарешивал похожие задачи.

Еще здорово, когда вы знаете, в какой компании проходите собеседование — тогда можно посмотреть, какие вопросы часто задают на интервью.

Несколько советов:
Потратьте на размышления не больше минуты-двух, а затем озвучьте свои мысли.
Задавайте уточняющие вопросы об ограничениях и крайних случаях.
Сначала представьте решение методом перебора, объясните его сложность, а затем предложите варианты оптимизации.
Объясняйте, что вы делаете, когда пишете код. Не молчите.
Внимательно прислушивайтесь к подсказкам интервьюера: скорее всего, они намекают на ошибку.
Рассмотрите пример входных данных и объясните, как ваш код будет их обрабатывать.


➡️ Теория по статистике и ML
Считается, что это самый непредсказуемый этап, так как никогда не знаешь заранее, какие вопросы зададут. Можно лишь догадываться, исходя из компании или команды.

Самое неприятное, что интервьюеры сильно различаются по глубине своих ожиданий. Некоторым достаточно общих объяснений, другим нужны формулы. Некоторые могут спросить о чём-то, что они прочитали накануне.

Помнить абсолютно все практически невозможно. Поэтому перед собеседованиями Андрей просто освежал в памяти теорию. Но такой подход дает сбой, когда забываешь то, чем не пользуешься регулярно, поэтому он старается делать заметки по теории. Кстати, они открыты для всех желающих.

Совет:
Если вы не применяете какие-то знания на практике, вы их забудете. Поэтому либо применяйте их, либо документируйте, либо хотя бы добавляйте в закладки необходимые материалы для повторения перед собеседованиями.
Please open Telegram to view this post
VIEW IN TELEGRAM
20
Research Engineer in Google DeepMind
From 166,000$ + bonus + benefits
Office in California


What To Do: ou’ll be applying the most promising models and research to high-impact real world problems, by rapid-prototyping initial concepts, and designing and running experiments to evaluate the opportunity..... find out more 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
11
Media is too big
VIEW IN TELEGRAM
Сэм Альтман о замене человека ИИ и навыках 💬

Сейчас многие студенты переживают по поводу поиска работы, так как ИИ активно внедряют на позиции джуна, да и эффективность образования в эпоху ИИ многие ставят под сомнение. На недавнем интервью Альтману задали о том, какие навыки нужны человеку, чтоб оставаться востребованным.
Мета-навык — учиться тому, как учиться, учиться адаптироваться, учиться быть устойчивым к постоянным изменениям. Я упоминал об этом ранее: умение понимать, чего хотят люди, как создавать для них полезные продукты и услуги, как взаимодействовать с миром. Я абсолютно уверен, что люди по-прежнему будут оставаться в центре повествования друг для друга. И всё, что будет в этом мире, я считаю, будет прекрасным.


Также Сэм немного успокаивает студентов, упоминаю о том, что технологический прогресс никогда не стоял на месте.
Я легко могу представить себе мир, в котором 40% задач, выполняемых сегодня в экономике, в недалёком будущем будут выполняться искусственным интеллектом.. Примерно каждые 75 лет половина рабочих мест в обществе меняется, и это даже без учета ИИ. Возможно, это произойдет, но я ожидаю, что теперь это будет происходить быстрее.
Please open Telegram to view this post
VIEW IN TELEGRAM
12
Подборка открытых вакансий 🔵

Data Scientist в Авито
Удаленно / Гибрид / Офис в Москве

Data Analyst в Авиасейлс
Удаленно


Middle Data Engineer в МТС
Офис в Москве

Middle Data Scientist в Lamoda
Офис в Москве

Team Lead Data Scientist в Bia Technologies
Удаленно / Гибрид / Офис в СПб, Москве, Омске, Владимире

Senior Data Engineer в VK Team
Офис в Москве
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Наткнулись на крик души одного рекрутера, который говорит об основных ошибках при подаче резюме:

2-страничные резюме. Нет никаких причин, по которым ваше резюме не помещается на 1 странице. Указывайте релевантные роли для желаемой компании должности. Если рекрутер увидит, что у вас было слишком много компаний в последнее время, это является тревожным сигналом для HR.

Резюме с двойным интервалом. Это делает невозможным быстро прочитать резюме и сбивает с толку ATS при разборе. Это не рукопись, никто ее не аннотирует, используйте одинарный интервал.

Маркеры - это одна строка текста, может быть две. Если у вас есть 3+ строки или абзац, единственное, что мы понимаем, это то, что вы не знаете, как использовать маркеры.

Хорошо, если ваше имя стилистически больше (честно говоря, оно даже предпочтительнее), но оно не должно быть 72pt. То же самое относится и к местоположению.

Дважды проверьте все свои URL-адреса. Рекрутеры як то видят много опечаток linekdin и gtihub, устаревших ссылок и т. д.

Не перечисляйте навыки, которые вы никогда не использовали. Никто не хочет видеть "Vue.js" в ваших навыках, если ваш опыт React. При большом количестве навыком рекрутеры просто предположат, что вы лжете/преувеличиваете, и сбрасывают это со счетов.

Держите свой список навыков в одной или двух строках в качестве основных моментов или просто опустите его вообще. Это также распространяется на список Word, Photoshop и т. д., они не имеют значения. Не перечисляйте их вертикально, потому что вы будете использовать половину страницы для наименее важного раздела вашего резюме.

Согласуйте шрифты! Если маркеры в одном разделе 14pt, затем 10pt в следующем, затем 24pt в следующем, это просто выглядит так, как будто вы не приложили усилий в свое резюме.

Ваше образование должно быть легко читаемым. Лучший формат образования это «университет - степень, специальность».
Please open Telegram to view this post
VIEW IN TELEGRAM
18
Половина российских айтишников работают, не имея профильного образования

Согласно исследованию HHru и T1, в ходе которого было опрошено 1000 специалистов, 55% айтишников работают не по специальности.

🔷Более половины (57%) пришли в профессию благодаря «самообразованию», еще 51% — получили необходимые навыки уже после трудоустройства. Лишь треть российских айтишников имеют диплом о профильном образовании — чаще всего это разработчики, аналитики и специалисты по кибербезопасности.

🔷Среди молодежи 18–24 лет две трети уже работают или стажируются по профессии, «нарабатывая портфолио». Среди респондентов старше 25 лет таких оказалось всего 40%. Таким образом, старшее поколение айтишников — люди, пришедшие из других сфер экономики.

🔷Среди айтишников более трети (38%) предпочитают формат удаленной работы на столичные компании. 62% опрошенных признались, что выбирают родной регион ради экономии расходов. 54% не хотят разлучаться с семьей. Переезд в Москву или Санкт-Петербург рассматривали единицы: каждый четвертый получал такое предложение, но согласились только 7%.
Please open Telegram to view this post
VIEW IN TELEGRAM
20
И так каждый раз 🥲
Please open Telegram to view this post
VIEW IN TELEGRAM
33
Middle Data Scientist в Мегафон
Гибрид / Офис в Москве

Предстоит: Разрабатывать, тестировать и улучшать алгоритмы и модели NLP в задачах обработки, понимания и генерации естественного языка; Внедрять передовые методы в области NLP и их интеграция в существующие системы... Узнать подробнее 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
6
Куда бы сходить в октябре? 🚀

Avito.tech.conf — хорошая возможность послушать доклады и про то, как собеседуют руководителей в Автито, и то как ребята внедряют инструменты ИИ в свои рабочие процессы. Ну и конечно сходить на афтепати!
17 октября в Москве.

IVI.tech — еще одно классное мероприятие, на котором опытные специалисты расскажут о сложности внедрения ClickHouse для хранения агрегированных данных и то, как ребята сократили время выкатки A/B-тестов с месяца до нескольких дней.
16 октября в Москве.

Серия митапов для джунов от T-Банка. Сотрудники Т-Банка поделятся своим опытом и расскажут про старт карьеры в разных ИТ-направлениях: frontend-разработка, машинное обучение и системный анализ.
8 октября в Новосибирске.

IT Talk by Sber. Ребята из Сбера расскажут про современные тенденции в генеративных сетях, создающих изображения и видео, а также обсудят эволюции ИИ — от инструмента, помогающего в написании кода, до полноценного автономного агента.
9 октября в Екатеринбурге.
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Подборка открытых вакансий 🔵

Middle/Senior Data Scientist в Авито
Удаленно / Гибрид / Офис в Москве

Middle/Senior ML-разработчик в Яндекс
Офис в Москве

Middle Data Engineer в МТС
Офис в Москве


Junior/Middle MLOps Engineer в Lamoda
Офис в Москве

Data Analyst в Сбер
От 110.000₽
Офис в Санкт-Петербурге

Junior/Middle Data Engineer в Wildberries
Удаленно
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Middle/Senior Data Scientist в Raft Digital Solutions
Удаленно

Предстоит: Создание и оптимизация RAG-систем; Разработка, обучение и внедрение моделей машинного обучения в связке с LLM... Узнать подробнее 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
5
😵‍💫Ваши пайплайны работают безупречно, но бизнес почему-то плачет? Виноват не код, а хаос в требованиях!

Приглашаем на бесплатный вебинар курса «Data Warehouse Analyst» — «Искусство сбора требований: мастерство дата инженера против хаоса бизнеса»: https://otus.pw/VthQ/

🔈Спикер — Александра Гамаева, TeamLead в крупном банке. Она научит вас:
— Выявлять скрытые требования, которые бизнес не озвучил (но обязательно вспомнит после деплоя).
— Задавать правильные вопросы, чтобы ваш ETL не превратился в технический долг.
— Проектировать устойчивую архитектуру, которая переживет даже самые безумные правки.

Это вебинар курса, где вы прокачаете не только hard skills, но и главный софт-скилл дата-инженера — общение с бизнесом.

👉Регистрируйтесь сейчас - напомним перед занятием: https://otus.pw/VthQ/

🎁 Понравится вебинар — приходите на курс с выгодой по промокоду DWH10.

Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Сколько получают ML-инженеры в России?

По данным Habr, джуны на должности ML-инженера в среднем получают от 83 до 168 тысяч рублей, мидлы — от 167 до 297 тысяч, сеньоры — от 313 до 474 тысяч.

Однако, если верить GeekLink, по сравнению с 24-м годом зарплаты снизились: средний размер оплаты труда инженера машинного обучения на 1 сентября 2025 года составляет 275 448 рублей в месяц. По сравнению с прошлым месяцем это значение уменьшилось на 3%.

Год назад в этот период средняя зарплата инженера машинного обучения составляла 352 133 рубля в месяц, что означает падение на 76 685 рублей (или на 22% в процентном соотношении).
22
Middle Data Scientist в Korona Tech
Удаленно / Гибрид / Офис в Санкт-Петербурге

Предстоит: обработка сырых данных; генерация гипотез; построение пайплайна обработки данных; подготовка и проведение А/В тестов... Узнать подробнее 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Карьерный апгрейд: куда сейчас двигаться ML-специалисту

Возможно, многие уже заметили, что рынок хочет видеть инженеров, которые умеют создавать работающие LLM-системы в продакшене.

Если вы тоже задумывались о таком шаге, ловите находку — возможно, самый хардовый осенний курс по LLM от AI Talent Hub x GIGASCHOOL.

Главный плюс: он не про "попробовать LLM", а про то, как начать строить полноценные системы. Именно этот навык сейчас в жестком дефиците.

Что прокачаете:
Дообучение моделей: от классического fine-tuning до современных PEFT, LoRA и RLHF.
Инструменты пайплайна: работа с LangChain, LangGraph и векторными БД.
Сборка RAG-систем: от инфопоиска до защиты моделей от вредоносных промптов.
Проектирование и деплой: как собирать рабочие архитектуры, пайплайны, деплоить, трекать и версионировать.

По сути, это полный цикл работы LLM-инженера. И это не просто теория — каждая тема разбирается на практике, так что по итогу у вас будет не только сертификат, но и опыт с готовыми наработками в виде кода.

Кто будет вести? Здесь тоже всё серьезно — лекции читают практики из крупных AI-команд:
— Александр Потехин (NLP Lead, X5 Tech)
— Кристина Желтова (Директор по разработке моделей, Газпромбанк)
— Евгений Кокуйкин (CEO HiveTrace)

Такой состав спикеров гарантирует, что вы будете учиться на реальных кейсах, а не на абстрактных примерах.

Занятия стартуют 15 октября, но не стоит расслабляться, ведь совсем скоро (10 числа) стоимость курса повысится.
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Data Secrets | Карьера
Еще один гайд по написанию идеальной научной статьи Ранее мы уже говорили о том, как написать статью так, чтобы ее приняли к публикации. Помимо содержательной части (всевозможных доказательств и описания проделанной работы), важно помнить: идеальная статья…
Советы по написанию научной статьи

Распространённое и часто запутанное требование к статьям — новизна результатов, то есть то, что ранее не было описано. Что это значит? Это означает, что ваша работа существует в контексте уже созданного, а новизна в данном случае расширяет уже созданное.

Чтобы не попасть впросак и не создать очередной велосипед — задайте себе вопросы:
Используются ли инновационные методы или это стандартные приёмы?
Является ли это глубоким концептуальным прорывом?
Это простое расширение стандартных идей?
Является ли работа естественным следствием более амбициозного заявления из другой статьи?

Ключевое решение — предельно ясно обозначить, что является новым, а что нет, особенно во введении и разделе «Связанные работы». Щедро цитируйте релевантные статьи и объясняйте, чем ваша работа от них отличается.

Если с идей все хорошо и она действительно новая, то ее хорошо бы и доказать. В ML в качестве доказательств обычно используют эксперименты. Ваша цель — обосновать результат со всеми техническими подробностями для заинтересованного, но скептически настроенного читателя.

Уделите много времени на этапе первоначального исследования. Главная ловушка при попытке «написать отличный научный рассказ — искушение игнорировать неудобные, противоречивые результаты. Не позволяйте этому случиться.

Советы:
Предположите, что вы совершили ошибку. В чём именно она заключается? Представьте, что в ваших доказательствах есть пробел. Где он? Попытайтесь его найти.
Привлекайте к обсуждению других исследователей, особенно более опытных.
Подробно разбирайте ограничения. Если вы заметили проблемы, разрабатывайте и проводите новые эксперименты для их проверки. Это особенно важно для амбициозных или неожиданных заявлений.
Хорошие эксперименты позволяют различать гипотезы: для одного явления часто существует несколько правдоподобных объяснений. Смысл эксперимента в том, чтобы его результаты значительно различались в зависимости от истинности той или иной гипотезы (то есть обеспечивали байесовское доказательство). Если результаты достаточно различны, а эксперимент надёжен, то одна хорошая работа может опровергнуть множество гипотез.

Обязательно спросите себя:
🟦 Можете ли вы доверять своим результатам? Обязательно спросите себя:
🟦 Насколько надёжен мой эксперимент?
🟦 Насколько он зашумлён?
🟦 Существует ли альтернативное объяснение моим результатам?

⁉️ Важно учитывать: Частая ошибка при выборе метода доказательства — вы начинаете доказывать эффективность методики, показывая, что она даёт хорошие результаты, вместо того чтобы продемонстрировать, что она даёт лучшие результаты, чем альтернативные варианты.
Please open Telegram to view this post
VIEW IN TELEGRAM
7
Senior Data Engineer
Удаленно / Гибрид / Офис в Москве

Предстоит: Проведение аудита существующих дата-пайплайнов, выявление узких мест и точек отказа; Проектирование и реализация целевой архитектуры загрузки, трансформации и хранения данных под высокую нагрузку... Узнать подробнее 🔵
Please open Telegram to view this post
VIEW IN TELEGRAM
4
LLM вылетает из GPU-памяти в длинных диалогах. Ваши действия?

Правильный ответ — не «докупить GPU» и не «обрезать контекст».

Проблема обычно кроется в KV Cache — его объем растет линейно с каждым токеном.
GPU Память = Веса модели + KV Cache

При длинном контексте KV Cache может съедать в 10 раз больше памяти, чем сама модель. Модель на 7B параметров с контекстом 8K? Это ~4GB только под кэш.

Главная ошибка: KV Cache простаивает в дорогой GPU-памяти между запросами пользователя. Пока он думает 30 секунд, его кэш на 2GB блокирует новые запросы.

Диагностика от Senior инженера:
Высокая загрузка GPU + низкая пропускная способность = Узкое место — KV Cache
OOM-ошибки на длинных контекстах = Нужна стратегия оффлоудинга (выгрузки)
Простаивающие сессии = Убитые ресурсы GPU

Метрика, отличающая сеньера от джуна: Time-to-First-Token (TTFT) при переиспользовании кэша. NVIDIA сообщает об ускорении TTFT в 14x при перезагрузке кэша против его пересчета.

Но тут интервьюер может уточнить:
Какой размер KV Cache для 32K токенов?
Как вы handlingите многопользовательские сессии?
Куда выгружаете неактивный кэш?

Иерархия памяти, которая приведет к повышению:
Junior: Держит всё в GPU памяти до самого OOM.
Senior: Выгружает по схеме: GPU → Оперативная память → SSD → Сетевое хранилище.
Principal: Внедряет predictive offloading на основе аналитики использования.

Но и этого интревьюеру может быть недостаточно, он может задать и такой вопрос:
«Как вы рассчитываете оптимальные пороги для выгрузки?»

Правильный ответ: «По формуле: Стоимость_передачи < Стоимости_пересчета. Профилируем шаблоны доступа, замеряем задержки хранилищ и внедряем predictive offloading».

Масштабирование инференса в большинстве случаев это на 80% управление памятью и на 20% оптимизация вычислений.
26