Mops DevOps
2.46K subscribers
398 photos
2 videos
3 files
741 links
Kubernetes и Docker 🚢 Облачные сервисы ☁️ Infrastructure as Code ⚙️ DevOps и DevSecOps 😎 SRE 👌 Мониторинг и логирование 🔥


По всем вопросам обращайтесь: mopsdevops @собака gmail.com
Download Telegram
Как управлять сотнями sidecar-контейнеров без боли и сожаления

При использовании дополнительных контейнеров в Kubernetes важно развернуть их так, чтобы сократить количество YAML-кода и при этом не лишить платформенные команды возможности публиковать sidecar'ы без запроса на обновление приложение. Для этого подходят Sidecar Injector'ы — решения, которые позволяют писать свою логику изменения создаваемых ресурсов «на лету».

👉 https://habr.com/ru/companies/oleg-bunin/articles/768224

#kubernetes
Опыт масштабирования Kubernetes на 2k узлов и на 400k подов

Достаточно старая, но от этого не менее интересная статья чтобы разобраться с некоторыми аспектами производительности действительно больших Kubernetes кластеров. Рассмотрено как масштабируется Kubernetes и как можно улучшить масштабируемость, настраивая параметры кластера.

👉https://habr.com/ru/companies/timeweb/articles/787774/

#kubernetes
Kubernetes: шпаргалка для собеседования

Вопросы по Kubernetes достаточно часты на собеседованиях на инженерные вакансии, связанные с администрированием и эксплуатацией. Они могут варьироваться от базовых, рассчитанных на механическую проверку теоретических знаний («объясните, что такое service») до более сложных и комплексных, требующих глубинного понимания внутренних принципов работы Kubernetes.

Часть 1
Часть 2

#kubernetes
🔥83🐳2
Квоты в Kubernetes: очевидные, менее очевидные и совсем не очевидные

Разберемся как работают квоты в Kubernetes. Там есть немало граблей. Чем квоты хороши, что у них под капотом, в каких задачах используются и почему нужны даже в среде single-tenant?

👉 https://habr.com/ru/companies/oleg-bunin/articles/790112/

#kubernetes
🔥71
There are only 12 binaries in Talos Linux

Наверно многие уже слышали про Talos Linux - дистрибутив который может запускать только Kubernetes? Так какой минимальный набор инструментов и исполняемых файлов необходим?

👉 https://www.siderolabs.com/blog/there-are-only-12-binaries-in-talos-linux/

#kubernetes #talos
🔥7
Как ускорить кластер Kubernetes на 100 тысяч подов в 10 раз

Первым шагом на пути к построению кластеров большого объема может стать разделение etcd. А что дальше? Дальше возьмемся за controller-manager.

👉 https://habr.com/ru/companies/dbraincloud/articles/799573/

#kubernetes
🔥5
Что делать, когда кластер превращается в тыкву?

Обсудим с какими потенциальными проблемами можно столкнуться при значительном росте размеров K8s кластеров. Вопрос не праздный потому что зачастую командам эксплуатации приходится решать их самостоятельно не полагаясь на community и известные best practices.

👉 https://habr.com/ru/companies/dbraincloud/articles/793180/

#kubernetes
💊1
Будущее Kubernetes и DevOps: строим прогнозы на 10 лет

Мнение инженеров «Фланта» и экспертов из индустрии, как, по их мнению, будут развиваться Kubernetes, DevOps, Ops и Cloud Native-экосистема в ближайшее десятилетие. Наша задача была спрогнозировать будущее на основе тенденций в настоящем, а не просто «заглянуть в хрустальный шар» и пофантазировать. 

👉 https://habr.com/ru/companies/flant/articles/800959/

#kubernetes
1🦄1
Ваше собственное облако на базе Kubernetes

Обзор ключевых подходов к построению собственного облака на база Kubernetes от создателей CozyStack.

🔹 Часть 1 (Talos, Flux): Подготавливаем плацдарм для вашего облака. Проблемы с которыми придётся столкнуться при подготовке и эксплуатации Kubernetes на bare metal и готовый рецепт провижининга инфраструктуры.
🔹 Часть 2 (KubeVirt, LINSTOR и Kube-OVN): Сеть, хранилище и виртуализация. Как превратить Kubernetes в средство запуска виртуальных машин и что для этого необходимо.
🔹 Часть 3 (Cluster API, Kamaji, KubeVirt): Как начать провиженить Kubernetes-кластера по кнопке. Как работает автоскейлинг, динамический провиженинг томов и сеть.

#kubernetes #cluster_api #kamaji
🔥2
Официальный релиз Kubernetes 1.32

Сегодня официально выпустили новую версию Kubernetes — 1.32. Среди главных нововведений — возможность задавать ресурсы на уровне пода, асинхронное вытеснение подов планировщиком, нулевое ожидание (sleep) для PreStop-хуков, новые эндпоинты /statusz и /flagz для ключевых компонентов K8s, более гранулярная авторизация для API kubelet’а, внешнее управление ключами сервисных учётных записей и специальная функция, с помощью которой плагины смогут подсказывать планировщику, когда стоит повторить попытку планирования.

Всего в новом релизе 43 изменения.

👉 https://habr.com/ru/companies/flant/articles/864988/

#kubernetes
🔥5
Kubernetes в изоляции: когда ваш кластер не должен знать о существовании интернета

Вы думаете, что развернуть Kubernetes без интернета — это просто kubeadm init плюс пара манифестов? Посмотрим, как скрипты решают проблемы, о которых вы даже не задумывались.

Спойлер: здесь есть чему удивиться.
И философский вопрос: зачем это всё?

Потому что настоящий DevOps — не тот, кто умеет копировать команды из интернета, а тот, кто может развернуть production‑кластер:
- на заброшенной арктической станции,
- на сервере с доступом только через 3G‑модем,
- в подвале банка с железобетонными стенами.

👉 https://habr.com/ru/companies/slsoft/articles/897102/

#kubernetes
🔥3🦄2
Kubernetes как PaaS: максимум возможностей без разработки

Kubernetes — это не просто оркестратор контейнеров, а целая экосистема инструментов, которые позволяют построить PaaS без написания кода. Helm, ArgoCD, Crossplane, Knative и другие решения делают управление приложениями и инфраструктурой настолько простым, что разработка собственной платформы превращается в задачу конфигурации, а не программирования. Разберем, как создать PaaS, используя мощь Kubernetes и его экосистему.

#kubernetes
OS Talos Linux. Хайп или реальный продукт

OS Talos Linux спроектирован специально под Kubernetes.
На трансляции разберем почему поднялся хайп вокруг этой OS и на сколько она функциональна, а так же:
• архитектуру и философию проекта
• эксплуатацию
• кейсы
• примеры решений

👉 https://www.youtube.com/watch?v=liso5CNn4G4&t=1458s

#kubernetes #talos
🏆1
Как мог бы выглядеть Kubernetes 2.0

В преддверии 10-летней годовщины со дня выхода Kubernetes 1.0 поразмышляем о том, что могло бы войти в релиз 2.0. Например, заменить YAML и etcd, а также существенно переработать пакетный менеджер.

👉 https://habr.com/ru/companies/flant/articles/922242/

#kubernetes
💊3
Как работает ingress-nginx: нырнем поглубже

В этой серии статей, созданной по мотивам выступления на DevOpsConf’25, подробно разберемся как работает сам ingress-nginx контроллер и почему это не совсем классический nginx. Погрузимся в дебри LUA-кода чтобы понять, как реализована балансировка. А также затронем тему сниппетов, как их включить если они вам очень нужны, и почему этого делать не стоит 😀

🔹 Часть 1 — basics
🔹 Часть 2 — балансировка

#kubernetes #nginx
🔥123
Kubernetes v1.35: Timbernetes (The World Tree Release)

Вышла новая версия Kubernetes. Основные изменения:
🔹Stable: In-place update of Pod resources
Возможность менять requests/limits (CPU/RAM) без рестарта пода. Давно ждали 🎉
🔹Stable: PreferSameNode traffic distribution
Локализация трафика внутри узла, если эндпоинт есть локально
🔹Stable: Configurable NUMA node limit for topology manager
Возможнось использовать больше 8 NUMA nodes
🔹Beta: maxUnavailable for StatefulSets
Возможность определить максимальное количество подов, которые могут быть недоступны во время обновления. Этот параметр наиболее эффективен в сочетании с параметром .spec.podManagementPolicy, для которого установлено значение Parallel. В этом случае для приложений с отслеживанием состояния (которые могут допускать отключение более одного модуля) обновление завершится быстрее.
🔹Больше не поддерживаются cgroup v1

Релиз, включает 60 улучшений, из которых 17 стали стабильными, 19 — бета-версиями и 22 — альфа-версиями.

👉 https://kubernetes.io/blog/2025/12/17/kubernetes-v1-35-release/

#kubernetes
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11🏆2
Kubernetes кластер на миллион узлов. Обзор проекта k8s-1m

Кейса о том, как не догадки, а измерения двигают пределы Kubernetes. Ключевые идеи: изоляция QPS по типам ресурсов, смягчение гарантий хранения для эфемерных данных, и шардирование планировщика. Полезно всем, кто проектирует крупные кластеры или хочет работать с ними.

👉 https://habr.com/ru/articles/958074/

#kubernetes
Перенос кластера kubernetes на другие ip адреса

Предположим, вам необходимо мигрировать ваш кластер k8s в другой vlan или просто сменить ip адреса. Насколько это необходимо каждый решает сам. Будем считать, что перенос нагрузки ямлами на другой кластер затруднён или у кластера специфические настройки.

В качестве начальных условий: кластер on prem с root доступом на узлы, установлен через kubeadm или kubespray, в качестве cni calico. В нашем случае под ногами ubuntu в качестве системы. Если у вас кластер установлен the hard way , то статья вам не нужна, вы сами всё умеете.

👉 https://habr.com/ru/articles/980976/

#kubernetes
Прощай, Ingress. Здравствуй, Gateway API

Когда проект Kubernetes только начинал свой путь, вопрос как пустить трафик в кластер решался просто: как-нибудь. Сервисы торчали наружу через NodePort, потом появился LoadBalancer, а чуть позже — объект Ingress, который на долгие годы стал стандартной точкой входа в HTTP-мир Kubernetes.

Ingress был своевременным решением. Он дал декларативный способ описывать маршрутизацию, TLS и виртуальные хосты, не заставляя инженеров напрямую настраивать nginx-конфиги или HAProxy руками. Для своего времени — шаг вперёд, и весьма заметный. Проблема в том, что Kubernetes рос быстрее, чем сам Ingress.

Со временем выяснилось, что спецификация Ingress намеренно минималистична. В ней нет ни чёткого разделения ответственности, ни расширяемой модели, ни нормального способа описывать сложные сценарии маршрутизации. Всё, что выходило за рамки базового use case, уезжало в аннотации ingress-контроллеров. В результате у нас появился единый стандарт, который на практике вёл себя по-разному в зависимости от того, какой контроллер стоял в кластере. Формально — Ingress, фактически — vendor-specific конфигурация с YAML-обвязкой.

👉 https://habr.com/ru/companies/gnivc/articles/992366/

#kubernetes
🔥5