https://tech.aabouzaid.com/2022/11/set-openapi-patch-strategy-for-kubernetes-custom-resources-kustomize.html?m=1
#kustomize #patch
#kustomize #patch
Aabouzaid
Set OpenAPI patch strategy for Kubernetes Custom Resources - Kustomize
Kustomize supports 2 main client-side patching methods for Kubernetes manifests, JSON Patching and Strategic Merge Patch . In the JSON Pat...
Forwarded from k8s (in)security (Дмитрий Евдокимов)
- Спокойно запускаете
- Уверены что ваши
- Собственными руками организовали
Специально для проверки качества таких реализаций и был создан Multi-Tenancy Benchmarks. А к нему в придачу для автоматизации проверки плагин для
Так все проверки разбиты на 2 класса:
-
DEV
и PROD
окружения в одном кластере?- Уверены что ваши
namespaces
хорошо изолированы друг от друга?- Собственными руками организовали
multitenancy
уровня Namespaces as a Service
?Специально для проверки качества таких реализаций и был создан Multi-Tenancy Benchmarks. А к нему в придачу для автоматизации проверки плагин для
kubectl
под названием kubectl-mtb.Так все проверки разбиты на 2 класса:
-
Configuration Checks (CC)
- Behavioral Checks (BC)
К сожалению, 7
проверок из 23
так и не автоматизировали. НО их можно подсмотреть в документации проекта Capsule и дописать или сделать ручками ;)Forwarded from Код и Капуста
Auto-Updating VM OS Base Images with KubeVirt’s Containerised Data… – Miscellaneous Knowledge
https://blog.kingj.net/2022/06/02/how-to/auto-updating-vm-os-base-images-with-kubevirts-containerised-data-importer/
#kubevirt
https://blog.kingj.net/2022/06/02/how-to/auto-updating-vm-os-base-images-with-kubevirts-containerised-data-importer/
#kubevirt
Miscellaneous Knowledge
Auto-Updating VM OS Base Images with KubeVirt’s Containerised Data...
KubeVirt is a great way to run virtual machines on top of an existing Kubernetes cluster - and is useful for situations where you have an existing bare-metal Kubernetes cluster, but still have a...
Forwarded from k8s (in)security (Дмитрий Евдокимов)
Хорошо проиллюстрированная статья "Kubernetes: Security Contexts", объясняющая назначение, специфику и отличия
В официальной документации этому вопросу посвящен раздел "Configure a Security Context for a Pod or Container".
Pod Security Context
и Security Context
.В официальной документации этому вопросу посвящен раздел "Configure a Security Context for a Pod or Container".
Forwarded from Записки админа
🛠 SSHLog - инструмент для логирования (и мониторинга в реальном времени) всей активности пользователя после установки им SSH подключения...
https://github.com/sshlog/agent
Реализовано всё с помощью eBPF. Авторы позаботились, и собрали пакеты для популярных дистрибутивов. Достаточно просто добавить репозиторий и установить из него необходимое.
#ssh #security #logs
https://github.com/sshlog/agent
Реализовано всё с помощью eBPF. Авторы позаботились, и собрали пакеты для популярных дистрибутивов. Достаточно просто добавить репозиторий и установить из него необходимое.
#ssh #security #logs
Forwarded from Код и Капуста
Отличная статья про балансировку и разные алгоритмы балансировки. Еще и с анимацией!
https://samwho.dev/load-balancing/
https://samwho.dev/load-balancing/
Forwarded from Инженер Тяпкин (Clear Gray)
На днях ко мне пришёл коллега с интересным вопросом, для понимания которого придётся начать издалека.
Вот есть у нас в кубере securityContext и можно в нём выставлять списочек всяких линуксовых capabilies, ну знаете, setuid, setowner, setpcap... Все наши, короче.
И есть задача давать контейнерам одного публичного приложения только те capabilities, которые ему нужны, а те, что не нужны - отобрать. Делается это всё, традиционно, helm чартом от мейнтейнеров приложения. Чарт нормальный и в нём есть нужная шаблонизация и вот такой объект в values.yaml:
Но нам-то надо не только отобрать, но ещё и добавить, поэтому коллега дописывает сюда нужных нам вещей, в результате чего готовый объект в values.yaml становится вот таким:
Потом он запускает helm с dry-run, после чего и приходит ко мне, чтобы задать свой вопрос: "А вот смотри, я всегда считал, что drop и add тут должны идти в правильном порядке и ставить сперва add, потом drop нельзя. Ведь затрёт же. А хелм наш на этот блок делает toYaml и у него ключи сортируются по алфавиту, потому в манифест прилетает сперва add, потом drop. Что делать?"
И правда, в итоговом манифесте это выглядит вот так:
Документация кубернетиса на этот счёт не говорит ничего внятного, зато в интернете хватает статей, сообщающих в разных вариация, что:
Из-за этого мы несколько приуныли, ведь вечер только что резко перестал быть томным, и пошли выяснять, как дела обстоят на самом деле.
Так вот, если вдруг вы когда-нибудь зададитесь таким вопросом и пойдёте читать интернет, то знайте: НЕКОТОРЫЕ ЧЕРЕПАШКИ ПИЗДЯТ.
На самом деле API кубера глубоко поебать на порядок ключей в capabilities, он сперва делает drop, а потом уже add.
Такая вот хуйня, ребятки, верить нынче нельзя никому (но мне можно ).
https://music.yandex.ru/album/5792882/track/43516266
Вот есть у нас в кубере securityContext и можно в нём выставлять списочек всяких линуксовых capabilies, ну знаете, setuid, setowner, setpcap... Все наши, короче.
И есть задача давать контейнерам одного публичного приложения только те capabilities, которые ему нужны, а те, что не нужны - отобрать. Делается это всё, традиционно, helm чартом от мейнтейнеров приложения. Чарт нормальный и в нём есть нужная шаблонизация и вот такой объект в values.yaml:
securityContext:
allowPrivilegeEscalation: false
readOnlyRootFilesystem: false
runAsNonRoot: true
privileged: false
capabilities:
drop:
- ALL
Но нам-то надо не только отобрать, но ещё и добавить, поэтому коллега дописывает сюда нужных нам вещей, в результате чего готовый объект в values.yaml становится вот таким:
securityContext:
capabilities:
drop:
- ALL
add:
- CHOWN
- DAC_OVERRIDE
- FOWNER
- SETFCAP
- SETGID
- SETUID
Потом он запускает helm с dry-run, после чего и приходит ко мне, чтобы задать свой вопрос: "А вот смотри, я всегда считал, что drop и add тут должны идти в правильном порядке и ставить сперва add, потом drop нельзя. Ведь затрёт же. А хелм наш на этот блок делает toYaml и у него ключи сортируются по алфавиту, потому в манифест прилетает сперва add, потом drop. Что делать?"
И правда, в итоговом манифесте это выглядит вот так:
securityContext:
capabilities:
add:
- CHOWN
- DAC_OVERRIDE
- FOWNER
- SETFCAP
- SETGID
- SETUID
drop:
- ALL
Документация кубернетиса на этот счёт не говорит ничего внятного, зато в интернете хватает статей, сообщающих в разных вариация, что:
Here the order is very important, if you first provide the add field and then later provide the drop ALL field then all the capabilities would be dropped from the container. So, make sure you use drop first followed by add.
Из-за этого мы несколько приуныли, ведь вечер только что резко перестал быть томным, и пошли выяснять, как дела обстоят на самом деле.
Так вот, если вдруг вы когда-нибудь зададитесь таким вопросом и пойдёте читать интернет, то знайте: НЕКОТОРЫЕ ЧЕРЕПАШКИ ПИЗДЯТ.
На самом деле API кубера глубоко поебать на порядок ключей в capabilities, он сперва делает drop, а потом уже add.
Такая вот хуйня, ребятки, верить нынче нельзя никому (
https://music.yandex.ru/album/5792882/track/43516266
Яндекс Музыка
Пиздеть - не мешки ворочать Bebopovsky And The Orkestry Podyezdov слушать онлайн на Яндекс Музыке
Слушайте на Яндекс Музыке
Forwarded from Zhovner Hub
Оказывается, уже во всю используется новый типа DNS записи SVCB (HTTPS). Смысл в том, что браузер сразу подключается по протоколу HTTP/3 выполняя всего один DNS запрос.
Да, этой штуке уже 3 года, но я только узнал 😊
Раньше для апрегйда на HTTP/3 сначала происходило подключение по старому протоколу и только внутри существующего коннета поднималась версия протокола, на это уходило лишнее время.
Блог Флиппера, кстати поддерживает эту DNS запись. Проверить можно так:
Для нового dig в линуксе:
Для старого dig в макосе:
Да, этой штуке уже 3 года, но я только узнал 😊
Раньше для апрегйда на HTTP/3 сначала происходило подключение по старому протоколу и только внутри существующего коннета поднималась версия протокола, на это уходило лишнее время.
Блог Флиппера, кстати поддерживает эту DNS запись. Проверить можно так:
Для нового dig в линуксе:
dig https blog.flipperzero.one
Для старого dig в макосе:
dig -t type65 blog.flipperzero.one
Forwarded from Код и Капуста
Не самые популярные но полезные HTTP коды
https://blog.frankel.ch/leverage-richness-http-status-codes/
https://blog.frankel.ch/leverage-richness-http-status-codes/
https://gist.github.com/mcastelino/b8ce9a70b00ee56036dadd70ded53e9f#cpu-resource-management
#k8s #cgroups #cpu #gist #github
#k8s #cgroups #cpu #gist #github
Gist
Kubernetes and cgroups Resource Management/Static cpuManagerPolicy/Memory and Resource Isolation & Scheduling
Kubernetes and cgroups Resource Management/Static cpuManagerPolicy/Memory and Resource Isolation & Scheduling - kcgroups.md