Дорогие девушки, с 8 Марта! 🌷
Желаю вам профессиональных побед, весеннего настроения и огромного количества приятных моментов в жизни. Пусть каждый день приносит счастья, радость, любовь и теплые эмоции.
Просто будьте сами собой и цените себя!
Желаю вам профессиональных побед, весеннего настроения и огромного количества приятных моментов в жизни. Пусть каждый день приносит счастья, радость, любовь и теплые эмоции.
Просто будьте сами собой и цените себя!
❤43
Как мы нашли аналитика в команду
Про новый проект и почему искали человека
С начала года я перешел на другой проект в Сравни. Переход был не запланированным, так сложились обстоятельства. А если быть точнее, то единственный аналитик приняла решение двигаться дальше по карьере вне компании и нужно было быстро найти того, кто подхватит работу.
Этим человеком оказался я) Но при этом у меня в команде на тот момент было 3 аналитика. В итоге
🔹меня начинают погружать в новое направление
🔹вся моя команда переходит в смежные команды, продолжая заниматься +- похожими задачами что мы вместе делали
На новом проекте сразу обсуждаем, что будем искать еще одного аналитика, чтобы нас было двое. Задач и планов много, поэтому нужно расширяться.
Составили вакансию, сбились по условиям и по критериям кого конкретно ищем и что нам важно.
Мы искали аналитика уровня middle с максимально уверенным владением Python и SQL. При чем в этот раз Python при поиске поставили приоритетом, т.к. много скриптов автоматизации с которыми нужно работать написаны именно на нем.
Также важно было, чтобы кандидат понимал полный цикл решения аналитической задачи и мог искать методы оптимизации процессов обработки данных.
Этапы отбора
1. скрининг HR
Здесь прям Юля (рекрутер) хорошо сработала и мне выдавала резюме действительно подходящие под то что мы обсуждали. Был скрининговый созвон рекрутер-кандидат, после него кто подходит по основным критериям резюме уже попадали мне.
2. техническое интервью
Буквально через 3-4 дня у нас сформировался график с первыми кандидатами на интервью. Проводил я его по 1-1.5 часа с частично теоретическими и по большей части практическими вопросами, чтобы понять по кандидату
- как размышляет
- с какими задачами/инструментами работал
- какой опыт и насмотренность на разнообразие решений
В качестве задания практического давал python-скрипт с реально нашей задачи, время на то чтобы в него погрузиться и рассказать что в скрипте происходит. Еще спрашивал что в этом скрипте можно переписать для оптимизации. Проверял понимание кода в целом
3. финальное интервью
На финале были еще руководители с проекта, чтобы познакомиться с кандидатом, задать свои вопросы. Немного посмотреть на стрессоустойчивость и в целом на софты как человек умеет строить диалог.
Мы готовились к достаточно долгим поискам, но для нас все сложилось максимально удачно и оффер мы сделали буквально через неделю от старта поиска. Теперь у нас есть Влад, который вышел к нам с начала марта, проходит онбординг и за это время уже успел реализовать 2 свои задачи 🙂
Кто я | Навигация | Обучение
Про новый проект и почему искали человека
С начала года я перешел на другой проект в Сравни. Переход был не запланированным, так сложились обстоятельства. А если быть точнее, то единственный аналитик приняла решение двигаться дальше по карьере вне компании и нужно было быстро найти того, кто подхватит работу.
Этим человеком оказался я) Но при этом у меня в команде на тот момент было 3 аналитика. В итоге
🔹меня начинают погружать в новое направление
🔹вся моя команда переходит в смежные команды, продолжая заниматься +- похожими задачами что мы вместе делали
На новом проекте сразу обсуждаем, что будем искать еще одного аналитика, чтобы нас было двое. Задач и планов много, поэтому нужно расширяться.
Составили вакансию, сбились по условиям и по критериям кого конкретно ищем и что нам важно.
Мы искали аналитика уровня middle с максимально уверенным владением Python и SQL. При чем в этот раз Python при поиске поставили приоритетом, т.к. много скриптов автоматизации с которыми нужно работать написаны именно на нем.
Также важно было, чтобы кандидат понимал полный цикл решения аналитической задачи и мог искать методы оптимизации процессов обработки данных.
Этапы отбора
1. скрининг HR
Здесь прям Юля (рекрутер) хорошо сработала и мне выдавала резюме действительно подходящие под то что мы обсуждали. Был скрининговый созвон рекрутер-кандидат, после него кто подходит по основным критериям резюме уже попадали мне.
2. техническое интервью
Буквально через 3-4 дня у нас сформировался график с первыми кандидатами на интервью. Проводил я его по 1-1.5 часа с частично теоретическими и по большей части практическими вопросами, чтобы понять по кандидату
- как размышляет
- с какими задачами/инструментами работал
- какой опыт и насмотренность на разнообразие решений
В качестве задания практического давал python-скрипт с реально нашей задачи, время на то чтобы в него погрузиться и рассказать что в скрипте происходит. Еще спрашивал что в этом скрипте можно переписать для оптимизации. Проверял понимание кода в целом
3. финальное интервью
На финале были еще руководители с проекта, чтобы познакомиться с кандидатом, задать свои вопросы. Немного посмотреть на стрессоустойчивость и в целом на софты как человек умеет строить диалог.
Мы готовились к достаточно долгим поискам, но для нас все сложилось максимально удачно и оффер мы сделали буквально через неделю от старта поиска. Теперь у нас есть Влад, который вышел к нам с начала марта, проходит онбординг и за это время уже успел реализовать 2 свои задачи 🙂
Кто я | Навигация | Обучение
👍19🔥5
Под капотом каждого технического продукта есть еще целый мир под названием "Инфраструктура"
Так и у меня на курсе Продвинутый SQL настроено куча всего, чтобы на практике можно было работать с реальными инструментами для построения потоков данных.
Для этого проделал много работы по настройке и дальнейшему администрированию:
✅ арендовал серверы на Linux
✅ установил на них Docker
✅ написал docker-compose файлы для нужных сервисов
✅ сделал план бэкапов
✅ настроил роли и доступы
✅ создал облако и сервисные аккаунты
✅ сделал процесс деплоя DAGов в Airflow через Github
✅ продумал модель данных
✅ разработал и автоматизировал скрипты загрузки сырых данных в базу
✅ подключил загрузку данных из Яндекс Метрики
✅ автоматизировал выдачу доступов к ресурсам
✅ настроил технический мониторинг
✅ использую биллинг, сколько сервисы потребляют💰
Объем работы уже тянет на стартап, но для меня важно чтобы каждый, кто приходит учиться, погружался прям в эту реальную техническую песочницу инструментов, а не пытался разворачивать инструменты у себя локально (если только в этом не заключается само обучение), проклиная все на свете.
Или еще хуже просто писать запросы в формате тренажера, что вообще от практики и реальной работы сильно далеко. Тренажеры для базового изучения любого языка - ОК. Но на следующем уровне нужна практика в виде проектов с применением рабочих инструментов.
Кто я | Навигация | Обучение
Так и у меня на курсе Продвинутый SQL настроено куча всего, чтобы на практике можно было работать с реальными инструментами для построения потоков данных.
Для этого проделал много работы по настройке и дальнейшему администрированию:
✅ арендовал серверы на Linux
✅ установил на них Docker
✅ написал docker-compose файлы для нужных сервисов
✅ сделал план бэкапов
✅ настроил роли и доступы
✅ создал облако и сервисные аккаунты
✅ сделал процесс деплоя DAGов в Airflow через Github
✅ продумал модель данных
✅ разработал и автоматизировал скрипты загрузки сырых данных в базу
✅ подключил загрузку данных из Яндекс Метрики
✅ автоматизировал выдачу доступов к ресурсам
✅ настроил технический мониторинг
✅ использую биллинг, сколько сервисы потребляют💰
Объем работы уже тянет на стартап, но для меня важно чтобы каждый, кто приходит учиться, погружался прям в эту реальную техническую песочницу инструментов, а не пытался разворачивать инструменты у себя локально (если только в этом не заключается само обучение), проклиная все на свете.
Или еще хуже просто писать запросы в формате тренажера, что вообще от практики и реальной работы сильно далеко. Тренажеры для базового изучения любого языка - ОК. Но на следующем уровне нужна практика в виде проектов с применением рабочих инструментов.
Кто я | Навигация | Обучение
🔥10👍5❤1🆒1
Как считать Retention Rate через Когортный анализ
🔎 Retention Rate - метрика, которая показывает долю клиентов, которые продолжают пользоваться продуктом (покупать или совершать другое целевое действие) спустя какое-то время после их первого взаимодействия с продуктом. Эта метрика позволяет бизнесу оценить по-другому насколько долго клиент остается с компанией.
🔎 Когорты и когортный анализ - это метод анализ, когда клиентов объединяют одним признаком по дате совершения действия в одну группу (когорту) и считают метрику для когорты в целом, а не для конкретного клиента.
Давай разберем картинку, на которой приведен пример анализа Retention Rate для оценки подписок с момента регистрации пользователя. Например, нас интересует
Формируется когорта: в марте зарегистрировалось 1000 человек - это наши 100%
Идем читать retention по первой строке слева направо (March 2019 и по номеру месяцев 0,1,2,3...)
🔹91% из них оформили подписку в марте (0 месяц). Остальные значит ее либо вообще не оформили, либо оформили в последующие месяцы
🔹через месяц также 91% оформили подписку (1 месяц). Это считается от общего числа зарегистрированных еще в марте, по этому списку клиентов проверяем кто купил подписку а кто нет и считаем долю.
🔹а вот спустя 10 месяцев только 59% клиентов купили подписку из той самой 1000, кто зарегистрировался в марте.
Таким образом у бизнеса благодаря анализу данных есть понятный инструмент по отслеживанию эффективности удержания клиентов.
Как считать Retention Rate с помощью SQL и визуализировать в Datalens разбираем на курсе Продвинутый SQL.
Кто я | Навигация | Обучение
🔎 Retention Rate - метрика, которая показывает долю клиентов, которые продолжают пользоваться продуктом (покупать или совершать другое целевое действие) спустя какое-то время после их первого взаимодействия с продуктом. Эта метрика позволяет бизнесу оценить по-другому насколько долго клиент остается с компанией.
🔎 Когорты и когортный анализ - это метод анализ, когда клиентов объединяют одним признаком по дате совершения действия в одну группу (когорту) и считают метрику для когорты в целом, а не для конкретного клиента.
Давай разберем картинку, на которой приведен пример анализа Retention Rate для оценки подписок с момента регистрации пользователя. Например, нас интересует
как много клиентов и как долго оформляли ежемесячную подписку, которые зарегистрировались в марте 2019?
Формируется когорта: в марте зарегистрировалось 1000 человек - это наши 100%
Идем читать retention по первой строке слева направо (March 2019 и по номеру месяцев 0,1,2,3...)
🔹91% из них оформили подписку в марте (0 месяц). Остальные значит ее либо вообще не оформили, либо оформили в последующие месяцы
🔹через месяц также 91% оформили подписку (1 месяц). Это считается от общего числа зарегистрированных еще в марте, по этому списку клиентов проверяем кто купил подписку а кто нет и считаем долю.
🔹а вот спустя 10 месяцев только 59% клиентов купили подписку из той самой 1000, кто зарегистрировался в марте.
Таким образом у бизнеса благодаря анализу данных есть понятный инструмент по отслеживанию эффективности удержания клиентов.
Как считать Retention Rate с помощью SQL и визуализировать в Datalens разбираем на курсе Продвинутый SQL.
Кто я | Навигация | Обучение
❤14👍2🔥2😁1
Терпение и труд всё перетрут 💪
К этой пословице еще хочу добавить
- гибкость к внешним факторам, но ловить фокус на том что важно именно тебе
- упорство повторять то, что с первого раза не получается
- рефлексию и анализ что сделано и что нужно улучшить, чтобы достичь цели
У нас у всех всё получится!
Кто я | Навигация | Обучение
К этой пословице еще хочу добавить
- гибкость к внешним факторам, но ловить фокус на том что важно именно тебе
- упорство повторять то, что с первого раза не получается
- рефлексию и анализ что сделано и что нужно улучшить, чтобы достичь цели
У нас у всех всё получится!
Кто я | Навигация | Обучение
👍11🔥6❤1🎉1
Я получил образовательную лицензию! 🎉
С 2022 года я обучил больше 200 аналитиков в разном формате. Все это время меня не покидала мысль, чтобы получить документ, который не просто будет подтверждать мой практический опыт и компетенции, а будет являться маркером образовательного стандарта для моих авторских курсов.
В целом мог бы продолжать работать и без этого, ведь форма ИП дает возможность давать дополнительное образование детям и взрослым, а также иметь возможность получить налоговый вычет ученикам.
Это повышает доверие к обучению, а также усиливает ценность именно сертификата после завершения курса. Сертификат можно показывать при трудоустройстве или на текущей работе, чтобы подтвердить свои навыки.
Пусть лицензия будет ценным дополнением к моему вкладу в вас, а для вас приятным бонусом и аргументом чтобы прокачивать свои технические навыки)
Но самым главным хочу отметить всегда остаются ваши приобретенные навыки и знания 😉
Кто я | Навигация | Обучение
С 2022 года я обучил больше 200 аналитиков в разном формате. Все это время меня не покидала мысль, чтобы получить документ, который не просто будет подтверждать мой практический опыт и компетенции, а будет являться маркером образовательного стандарта для моих авторских курсов.
В целом мог бы продолжать работать и без этого, ведь форма ИП дает возможность давать дополнительное образование детям и взрослым, а также иметь возможность получить налоговый вычет ученикам.
Но при получении лицензии курс проверяет Министерство Образования на все требуемые стандарты: формат обучения, способ предоставления материалов, достаточное кол-во практических заданий, общий объем обучающих материалов и их качество. Это не просто бюрократия, а действительно проверка материалов на соответствие высокому качеству.
Это повышает доверие к обучению, а также усиливает ценность именно сертификата после завершения курса. Сертификат можно показывать при трудоустройстве или на текущей работе, чтобы подтвердить свои навыки.
Пусть лицензия будет ценным дополнением к моему вкладу в вас, а для вас приятным бонусом и аргументом чтобы прокачивать свои технические навыки)
Но самым главным хочу отметить всегда остаются ваши приобретенные навыки и знания 😉
Кто я | Навигация | Обучение
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥33🎉15❤8👍2
С чего начать в аналитике? Самый частый вопрос у меня в ЛС
Вот 3 шага:
1. Найди 20-30 вакансий на аналитика, которые тебе интересны и хотел бы на них откликнуться
2. Из этих вакансий выпиши все требуемые навыки и инструменты, отсортируй их по частоте упоминания в вакансиях. Разметь их по тегам «знаю» / не знаю»
3. Составь план обучения этим навыкам. Сначала бесплатные материалы: видео, курсы, статьи, книги. Для более глубокого и быстрого обучения найди ментора или платный курс
Кто я | Навигация | Обучение
Вот 3 шага:
1. Найди 20-30 вакансий на аналитика, которые тебе интересны и хотел бы на них откликнуться
2. Из этих вакансий выпиши все требуемые навыки и инструменты, отсортируй их по частоте упоминания в вакансиях. Разметь их по тегам «знаю» / не знаю»
3. Составь план обучения этим навыкам. Сначала бесплатные материалы: видео, курсы, статьи, книги. Для более глубокого и быстрого обучения найди ментора или платный курс
Кто я | Навигация | Обучение
🔥22👍9
Оптимизируем аналитические SQL запросы
Написал практическую статью с правилами написания оптимальных SELECT-запросов. Начинающим аналитикам и кто имеет мало опыта с SQL просто must have для прочтения, все правила помогают избавиться от типичных и распространенных ошибок!
Прочитай обязательно если
✅ хочешь ускорить выполнение SELECT-запросов
✅ нужно сократить затраты ресурсов базы/хранилища данных на операции чтения
✅ нужен чистый аналитический код в едином стиле
✅ помнишь что техническая реализация запросов влияет также и на качество данных
P.S. для запуска запросов из статьи есть доступ к базе данных
ЧИТАТЬ СТАТЬЮ
Написал практическую статью с правилами написания оптимальных SELECT-запросов. Начинающим аналитикам и кто имеет мало опыта с SQL просто must have для прочтения, все правила помогают избавиться от типичных и распространенных ошибок!
Прочитай обязательно если
✅ хочешь ускорить выполнение SELECT-запросов
✅ нужно сократить затраты ресурсов базы/хранилища данных на операции чтения
✅ нужен чистый аналитический код в едином стиле
✅ помнишь что техническая реализация запросов влияет также и на качество данных
P.S. для запуска запросов из статьи есть доступ к базе данных
ЧИТАТЬ СТАТЬЮ
vc.ru
Оптимизируем аналитические SQL запросы
Привет! Если ты читаешь эту статью, значит явно интересуешься как писать оптимальные SQL запросы для чтения данных из баз данных или аналитических хранилищ.
❤9🔥7👍3
Возили сегодня кошку в вет-клинику, второй день сильно слюна течет, раньше такого никогда не было.
На приеме Маркиза сильно разнервничалась, не дала осмотреть себя. Сейчас приехали домой, дадим успокоительное и вечером повторно повезем.
Кто с таким сталкивался, напишите в ЛС, если есть мысли. Подозреваем что могли пыльцу от цветов лилий принести в дом, у нас они в лобби стояли. А кошки их не переносят
На приеме Маркиза сильно разнервничалась, не дала осмотреть себя. Сейчас приехали домой, дадим успокоительное и вечером повторно повезем.
Кто с таким сталкивался, напишите в ЛС, если есть мысли. Подозреваем что могли пыльцу от цветов лилий принести в дом, у нас они в лобби стояли. А кошки их не переносят
🙏12❤1
Сегодня поговорим о системах оркестрации рабочих процессов — тех самых инструментах, что держат на себе потоки данных в современных компаниях.
Зачем они нужны? Представьте, что у вас сотни ETL‑процессов, ML‑пайплайнов и отчётов, которые должны запускаться в определённое время или по событию, зависеть друг от друга, перезапускаться при ошибке и логировать всё происходящее. Руками это не уследить, самим разработать такую систему - дорого и долго.
Системы оркестрации решают эти задачи:
✅ выстраивают цепочки задач (DAG — Directed Acyclic Graph)
✅ контролируют зависимости между шагами;
✅ планируют расписание
✅ отслеживают статус выполнения
✅ оповещают о сбоях
✅ дают единую панель мониторинга
Без них в крупной компании с сотнями пайплайнов наступает хаос и бардак
Самые популярные оркестраторы, которые на слуху:
📍Apache Airflow
📍Informatica
📍SAP Data Services
📍Argo Workflows
📍Prefect
📍Dagster
📍Luigi
...Список можно бесконечно продолжать
На работе сейчас Argo Workflows, работает на Kubernetes‑инфраструктуре и позволяет запускать пайплайны в изолированных контейнерах. До этого был опыт с Dagster, Prefect, Informatica и Airflow. Инструментов много, но стоит один раз понять суть работы в одном из них, тогда и переключиться на другой не страшно. Сразу понимаешь в сравнении плюсы/минусы и поднимаешь свою технологическую насмотренность👀
🗓 13 апреля стартует обучение созданию и автоматизации аналитических витрин данных, это отличная возможность изучить как работает ETL и оркестрация в Airflow 🔜 https://datastudy.ru/
Кто я | Навигация | Обучение
Зачем они нужны? Представьте, что у вас сотни ETL‑процессов, ML‑пайплайнов и отчётов, которые должны запускаться в определённое время или по событию, зависеть друг от друга, перезапускаться при ошибке и логировать всё происходящее. Руками это не уследить, самим разработать такую систему - дорого и долго.
Системы оркестрации решают эти задачи:
✅ выстраивают цепочки задач (DAG — Directed Acyclic Graph)
✅ контролируют зависимости между шагами;
✅ планируют расписание
✅ отслеживают статус выполнения
✅ оповещают о сбоях
✅ дают единую панель мониторинга
Без них в крупной компании с сотнями пайплайнов наступает хаос и бардак
Самые популярные оркестраторы, которые на слуху:
📍Apache Airflow
📍Informatica
📍SAP Data Services
📍Argo Workflows
📍Prefect
📍Dagster
📍Luigi
...Список можно бесконечно продолжать
На работе сейчас Argo Workflows, работает на Kubernetes‑инфраструктуре и позволяет запускать пайплайны в изолированных контейнерах. До этого был опыт с Dagster, Prefect, Informatica и Airflow. Инструментов много, но стоит один раз понять суть работы в одном из них, тогда и переключиться на другой не страшно. Сразу понимаешь в сравнении плюсы/минусы и поднимаешь свою технологическую насмотренность
Кто я | Навигация | Обучение
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Что с кошкой 🐈
У пушистой булки все хорошо, понервничала всех вчера, пошипела на врачей, теперь лежит. Анализы в норме, симптомы прошли, видимо внимания не хватало
У пушистой булки все хорошо, понервничала всех вчера, пошипела на врачей, теперь лежит. Анализы в норме, симптомы прошли, видимо внимания не хватало
❤23🙏5
Устали на работе выполнять рутинные задачи или киснуть без роста в профессии и перспектив развития? Хватит тратить свое время на выгрузку данных из Excel, ручные сверки и обновление отчётов! Хотите перейти от monkey job к реальной аналитике и инженерии данных, но не хватает навыков и инструментов?
Я запускаю новый поток курса «Продвинутый SQL и автоматизация витрин данных» — и он создан именно для тебя!
Что освоишь за время обучения:
📍Оптимизацию SQL‑запросов: сократите время выполнения задач с часов до минут. SQL только начинается с простых запросов и джойнах, его возможности сильно шире, а в открытых источниках дают только самую базу, без глубокого погружения в практические детали
📍Построение и автоматизацию витрин данных: забудьте о ручной выгрузке и Excel‑таблицах
📍ETL‑процессы от А до Я: сбор данных из базы, Google-таблиц, через API, очистка, агрегация, загрузка в витрину
📍Современные инструменты: Airflow (оркестрация), ClickHouse и PostgreSQL (базы данных), Git (контроль версий), Python (автоматизация).
📍Лучшие практики: архитектура DWH, документация, масштабируемые структуры данных.
Это не просто курс про SQL, это полноценная база знаний и практическая песочница чтобы научиться создавать аналитическую отчетность по стандартам рынка.
Твой практический результат после курса:
✅ Ты самостоятельно реализуешь полный цикл сборки витрины — от выбора источника данных до автоматизации обновления.
✅ У тебя будет 10 готовых кейсов создания витрин для самых частых аналитических задач в компании, которые легко упаковать в рабочий опыт
✅ Сможешь автоматизировать отчётность на текущем месте работы и выйти на повышение в грейде благодаря своему результату работы
Кому подойдёт курс:
- аналитикам данных, которые хотят перейти на новый уровень;
- BI‑разработчикам и инженерам данных, кому не хватает аналитических знаний;
- специалистам, работающим с базами данных и отчётностью;
- всем, кто хочет систематизировать знания и стать востребованным data-специалистом
Формат обучения:
📖 текстовые уроки с практическими примерами
💬 чат со мной и другими учениками группы, чтобы обсуждать все вопросы
💻 10 реальных практических заданий на разработку и автоматизацию витрин в настроенной инфраструктуре инструментов
🔥 обратная связь от меня по практическим заданиям
🏁 В конце обучения - сертификат, подтвержденный образовательной лицензией
🗓 Старт обучения: 13 апреля
Количество мест в группе ограничено — записывайся прямо сейчас!
Тебя ждет 1.5 месяца максимально сочного практического опыта аналитика-инженера
Программа обучения и детали оплаты со стоимостью на сайте https://datastudy.ru/
Хочу на обучение и консультацию!
Я запускаю новый поток курса «Продвинутый SQL и автоматизация витрин данных» — и он создан именно для тебя!
Что освоишь за время обучения:
📍Оптимизацию SQL‑запросов: сократите время выполнения задач с часов до минут. SQL только начинается с простых запросов и джойнах, его возможности сильно шире, а в открытых источниках дают только самую базу, без глубокого погружения в практические детали
📍Построение и автоматизацию витрин данных: забудьте о ручной выгрузке и Excel‑таблицах
📍ETL‑процессы от А до Я: сбор данных из базы, Google-таблиц, через API, очистка, агрегация, загрузка в витрину
📍Современные инструменты: Airflow (оркестрация), ClickHouse и PostgreSQL (базы данных), Git (контроль версий), Python (автоматизация).
📍Лучшие практики: архитектура DWH, документация, масштабируемые структуры данных.
Это не просто курс про SQL, это полноценная база знаний и практическая песочница чтобы научиться создавать аналитическую отчетность по стандартам рынка.
Твой практический результат после курса:
✅ Ты самостоятельно реализуешь полный цикл сборки витрины — от выбора источника данных до автоматизации обновления.
✅ У тебя будет 10 готовых кейсов создания витрин для самых частых аналитических задач в компании, которые легко упаковать в рабочий опыт
✅ Сможешь автоматизировать отчётность на текущем месте работы и выйти на повышение в грейде благодаря своему результату работы
Кому подойдёт курс:
- аналитикам данных, которые хотят перейти на новый уровень;
- BI‑разработчикам и инженерам данных, кому не хватает аналитических знаний;
- специалистам, работающим с базами данных и отчётностью;
- всем, кто хочет систематизировать знания и стать востребованным data-специалистом
Формат обучения:
📖 текстовые уроки с практическими примерами
💬 чат со мной и другими учениками группы, чтобы обсуждать все вопросы
💻 10 реальных практических заданий на разработку и автоматизацию витрин в настроенной инфраструктуре инструментов
🏁 В конце обучения - сертификат, подтвержденный образовательной лицензией
Количество мест в группе ограничено — записывайся прямо сейчас!
Тебя ждет 1.5 месяца максимально сочного практического опыта аналитика-инженера
Программа обучения и детали оплаты со стоимостью на сайте https://datastudy.ru/
Хочу на обучение и консультацию!
Please open Telegram to view this post
VIEW IN TELEGRAM
datastudy.ru
Продвинутый SQL и автоматизация витрин данных
За 1.5 месяца научитесь создавать витрины данных с помощью SQL и автоматизировать их обновление в Apache Airflow и не только
👍6🔥4❤1🥰1🤓1
Компания Anthropic, разработчик Claude, исследовали долю теоретического и реального на данный момент замещения ИИ профессий в 22 отраслях и сферах деятельности
Ну что, пора становится фермерами 🧑🌾👩🌾 Там ИИ пока бессильно. Нас и так куда-то в каменный век откидывает все больше, еще и технологии вытесняют 😁
Ну что, пора становится фермерами 🧑🌾👩🌾 Там ИИ пока бессильно. Нас и так куда-то в каменный век откидывает все больше, еще и технологии вытесняют 😁
👍11❤4
Где практиковать навык создания аналитических витрин на реальных задачах
У текущей группы идет 2-й практический спринт, на скрине спрашиваю как в целом дела в процессе учебы идут.
Знаете что приятно, ученики с курса по основам анализа приходят на курс по разработке витрин и показывают сильные результаты. Оралбек завершил основы и сразу пошел на следующую ступень.
Ребята, ценю каждого из вас и ваше доверие ♥️
👉 Про курс разработки витрин https://datastudy.ru/
(формат/программа/стоимость/запись в группу)
P.S. а мы на обучении с помощью Яндекс Метрики проанализируем вашу активность на сайте и построим витрину с атрибуцией целевых действий 😉
У текущей группы идет 2-й практический спринт, на скрине спрашиваю как в целом дела в процессе учебы идут.
Знаете что приятно, ученики с курса по основам анализа приходят на курс по разработке витрин и показывают сильные результаты. Оралбек завершил основы и сразу пошел на следующую ступень.
Ребята, ценю каждого из вас и ваше доверие ♥️
👉 Про курс разработки витрин https://datastudy.ru/
(формат/программа/стоимость/запись в группу)
P.S. а мы на обучении с помощью Яндекс Метрики проанализируем вашу активность на сайте и построим витрину с атрибуцией целевых действий 😉
🔥5❤1