Fullstack Developer (Python-focused) | https://teletype.in/@kovesh/hz8iTItswKu #fullstack #remote #itjob
Teletype
Fullstack Developer (Python-focused)
Remote | 230 - 310 т.р. на руки
Специалист по нагрузочному тестированию (Senior) | https://teletype.in/@kovesh/cP3g2HXZGbe #qa #remote #senior #itjob
Teletype
Специалист по нагрузочному тестированию (Senior)
Remote | от 1800/ч
Архитектор Сетевой (C++/SONIC) | https://teletype.in/@kovesh/pjk-kfHTE0X #архитектор #C++ #remote #Itjob
Teletype
Архитектор Сетевой (C++ / SONiC)
Remote
Product Analyst/Data Analyst | https://teletype.in/@kovesh/CDYQaOxznWQ #product #data #analyst #remote #itjob
Teletype
Product Analyst/Data Analyst
Remote | Ostrovok!Tech
Backend Developer (Node.js) | https://teletype.in/@kovesh/6fKFQb2M5lN #backend #node.js #remote #itjob
Teletype
Backend Developer (Node.js)
Remote | Gaba HR
Старший системный аналитик | https://teletype.in/@kovesh/LaXCgIxeenM #системный #аналитик #remote #itjob
Teletype
Старший системный аналитик
Remote
Senior Full-Stack Developer (Python+React) | https://teletype.in/@kovesh/HQ6yU2XeXjZ #senior #fullstack #python #reaft #remote #itjob \
Teletype
Senior Full-Stack Developer (Python + React)
Remote | 3000 – 4000$ net
Ищем Azure Databricks Data Engineer #vacancy #вакансия #remote
📍 Полностью удаленный формат (кроме РФ, РБ и Украины)
Key Responsibilities:
• Разработка и поддержка data pipelines в Azure Databricks
• Построение и оптимизация ETL/ELT процессов для обработки больших объемов данных
• Проектирование и развитие решений в рамках Lakehouse architecture
• Оптимизация производительности обработки данных
• Интеграция с сервисами Microsoft Azure (Data Lake, Synapse и др.)
Requirements:
• 2–5+ лет опыта в роли Data Engineer
• Практический опыт работы с Azure Databricks обязателен❗️
• Уверенное знание Python / PySpark
• Опыт работы с Data Lake и большими данными
• Понимание принципов Lakehouse architecture
• Опыт работы в облаке Microsoft Azure
💌 Отправляй резюме @Liz_Kostina
Key Responsibilities:
• Разработка и поддержка data pipelines в Azure Databricks
• Построение и оптимизация ETL/ELT процессов для обработки больших объемов данных
• Проектирование и развитие решений в рамках Lakehouse architecture
• Оптимизация производительности обработки данных
• Интеграция с сервисами Microsoft Azure (Data Lake, Synapse и др.)
Requirements:
• 2–5+ лет опыта в роли Data Engineer
• Практический опыт работы с Azure Databricks обязателен
• Уверенное знание Python / PySpark
• Опыт работы с Data Lake и большими данными
• Понимание принципов Lakehouse architecture
• Опыт работы в облаке Microsoft Azure
Please open Telegram to view this post
VIEW IN TELEGRAM