Аудит
Команда: 2 консультанта, 3 человеко-недели.
Найдено проблем: 3 Medium, 7 Low, 3 Info. Проблемы исправлены в версии
Модель угроз вы можете наблюдать на скриншоте.
Helm 3. В начале 2021 года под эгидой CNCF опубликовали результаты второго 3rd party security audit, но уже для Helm 3.3.0-rc.1. В рамках данной работы был проверен анализ исходного кода клиентской части и составлена модель угроз (Threat Model) при использовании Helm. Про прошлый можно почитать здесь.Команда: 2 консультанта, 3 человеко-недели.
Найдено проблем: 3 Medium, 7 Low, 3 Info. Проблемы исправлены в версии
3.3.2.Модель угроз вы можете наблюдать на скриншоте.
Интересное виденье одной из компаний о том, как должен выглядеть процесс работы с
Определенно это некий идеальный пример, но в нем можно найти некоторую систематизацию и что-то перенять на свою компанию и попробовать наложить на собственные процессы.
NetworkPolicy, даже с какой-то стороны их жизненный цикл. На схеме видно как разные команды (Sec, Ops, Dev) для разных уровней/задач в определенной последовательности вводят сетевые политики.Определенно это некий идеальный пример, но в нем можно найти некоторую систематизацию и что-то перенять на свою компанию и попробовать наложить на собственные процессы.
CVE-2021-25735: Validating Admission Webhook does not observe some previous fields
Уровень критичности Medium (CVSS:3.0/AV:N/AC:L/PR:H/UI:N/S:U/C:N/I:H/A:H)
Уязвимость находится в
Под влиянием только сторонние
Уровень критичности Medium (CVSS:3.0/AV:N/AC:L/PR:H/UI:N/S:U/C:N/I:H/A:H)
Уязвимость находится в
kube-apiserver и позволяет при обновлении Node атакующему обойти Validating Admission WebhookПод влиянием только сторонние
validating admission plugins, встроенный NodeRestriction работает как полагается.Сегодня поговорим о
Все, кто стараются максимально использовать возможности
В рамках доклада "Тестирование Kubernetes оператора" докладчик выделяет 3 основных последствия неправильной работы оператора:
-
-
-
Об этих ситуациях соответствующий момент по timecode.
В общем к чему это я?
Во-первых, при написании операторов вопрос их тестирования супер важный.
Во-вторых, при выборе оператора обращайте внимание как он вообще развивается и тестируется.
В-третьих, при исследовании сбоев стоит смотреть что и как делали операторы.
reliability (надежности) в Kubernetes. Ведь когда случается какой-то сбой нельзя мгновенно, однозначно сказать из-за чего он произошёл. Это может быть как внешний нарушитель (DoS решил устроить), так проблемы ПО внутри самого кластера. Все, кто стараются максимально использовать возможности
Kubernetes пытаются как можно больше задач возложить на ПО - они и есть не просят, и работают 24/7. Вот тут и приходят операторы и CRD.В рамках доклада "Тестирование Kubernetes оператора" докладчик выделяет 3 основных последствия неправильной работы оператора:
-
The Infinite Pod Loop Creation-
The Split Brain Situation-
The Double Rolling Upgrade ReactionОб этих ситуациях соответствующий момент по timecode.
В общем к чему это я?
Во-первых, при написании операторов вопрос их тестирования супер важный.
Во-вторых, при выборе оператора обращайте внимание как он вообще развивается и тестируется.
В-третьих, при исследовании сбоев стоит смотреть что и как делали операторы.
В этой заметке речь пойдет о рисках полной или частичной компрометации
Предположим, что в одном из подов развернуто веб приложение уязвимое к
Поэтому, единственным возможным решением данной проблемы является переход на использованием новой версии сервиса
EKS кластера, а в особо запущенных случаях и всего аккаунта AWS, с помощью эксплуатации SSRF (Server Side Request Forgery) уязвимого веб приложения, с использованием сервиса Instance Metadata (IMDSv1). Для начала несколько слов о самом сервисе метаданных, основной задачей которого является предоставление информации о конфигурации сервисов, включая IAM credentials, настройки Security-groups и пр. Сервис IMDS доступен только по не маршрутизируемому (link local) адресу 169.254.169.254 по умолчанию из любого контейнера/пода кластера AWS EKS.Предположим, что в одном из подов развернуто веб приложение уязвимое к
SSRF атаке, успешная эксплуатация этой уязвимости предоставляет атакующему возможность обратиться к сервису IMDS, чтобы получить temporary credentials для IAM роли worker ноды, чтобы далее проанализировать конфигурацию IAM политик с целью повышения привилегии. При этом даже если используется настроенная AWS в традициях лучших практик - managed IAM политика EKSWorkerNodePolicy, потенциальный злодей все равно может нанести ущерб, просто удалив все сетевые интерфейсы ec2:DeleteNetworkInterface, нарушив доступность и reliability ресурсов кластера. Поэтому, единственным возможным решением данной проблемы является переход на использованием новой версии сервиса
IMDSv2, реализация которой предполагает наличие session token при обращении к сервису метаданных, что обеспечивает надежную защиту от SSRF атак. Но несмотря на то, что прошел уже почти год с момента, когда AWS анонсировал полную поддержку IMDSv2 в EKS, подавляющие большинство клиентов пока не спешат переходить на использование новой версии сервиса...😢Telegram
k8s (in)security
Сегодня поговорим о reliability (надежности) в Kubernetes. Ведь когда случается какой-то сбой нельзя мгновенно, однозначно сказать из-за чего он произошёл. Это может быть как внешний нарушитель (DoS решил устроить), так проблемы ПО внутри самого кластера.…
Чтобы пятница не была будничной - всем владельцам
Envoy посвящается 3 remote code execution/DoS уязвимости высокого уровня критичности.netshoot - a Docker + Kubernetes network trouble-shooting swiss-army container.
Специализированный контейнер для разбирательств с сетевыми проблемами как в контейнерных, так и в хостовых сетевых
С другой стороны, смотрю я на этот набор инструментов и понимаю, что почти все что надо для
Специализированный контейнер для разбирательств с сетевыми проблемами как в контейнерных, так и в хостовых сетевых
namespaces. Вряд ли все нужные инструменты будут на месте, а тут они все собраны (49 штук) в одном месте. Также в репозитории есть немного теории о видах и различиях namespaces и use-cases (12 штук) по решение той или иной проблемы с помощью данного набора инструментов.С другой стороны, смотрю я на этот набор инструментов и понимаю, что почти все что надо для
pentest/audit. При этом все легитимное, хорошо известное - не вызывающее подозрение ;) В отличие от того же botty. Тут благодаря scapy так вообще можно создать любой пакет и провести любую сетевую атаку.GitHub
GitHub - nicolaka/netshoot: a Docker + Kubernetes network trouble-shooting swiss-army container
a Docker + Kubernetes network trouble-shooting swiss-army container - nicolaka/netshoot
Introducing Methodology and System of Cloud Analysis Patterns (CAPS)
Очень интересный пост/взгляд на паттерны анализа памяти в облачных системах, на примере
Где это может пригодится? Да, при анализе дампов памяти после
Очень интересный пост/взгляд на паттерны анализа памяти в облачных системах, на примере
Kubernetes. Здесь хорошо видны разные слои/уровни и абстракции, которые они вводят. При этом всем проводится параллели с классическими системами. Где это может пригодится? Да, при анализе дампов памяти после
crashes, hangs, leaks и т.д. Это должно помочь разобраться с проблемой, устранить ее и повысить reliability системы.В продолжении темы про IMDSv2 хочется добавить что, использование этого сервиса, не защитит от грабить караваны анализировать возможности повышения привилегий.
В качестве общих рекомендаций для такой ситуации можно выделить:
- Контроль поведения/аномалий внутри контейнеров кластера
- Настройку мониторинга
- Настройку мониторинга
- Конфигурацию
- Патч-менеджмент ПО веб-приложений.
- Регулярное проведения аудитов безопасности и тестирований на проникновений.
RCE уязвимости веб-приложения. Если потенциальный злоумышленник попал внутрь контейнера/пода кластера AWS EKS, ничто не помешает ему получить значение $TOKEN из переменных окружения контейнера для формирования валидного запроса при обращении к сервису метаданных curl -H "X-aws-ec2-metadata-token: $TOKEN" -v http://169.254.169.254/latest/meta-data/. И далее получив значение temporary credentials для IAM роли сервиса, уже спокойно В качестве общих рекомендаций для такой ситуации можно выделить:
- Контроль поведения/аномалий внутри контейнеров кластера
AWS EKS.- Настройку мониторинга
CloudWatch, в отношении метрик обращений к IMDSv2 для получения учетных данных IAM.- Настройку мониторинга
CloudWatch, в отношении аномалий использования учетных данных IAM temporary credentials из "неожиданных мест". По опыту знаем:) как отлично работает alert использования IAM temporary credentials, c помощью AWS CLI на системе c user agent Kali/Parrot.- Конфигурацию
IAM политик в соответствии с принципами least privilege.- Патч-менеджмент ПО веб-приложений.
- Регулярное проведения аудитов безопасности и тестирований на проникновений.
Telegram
k8s (in)security
В этой заметке речь пойдет о рисках полной или частичной компрометации EKS кластера, а в особо запущенных случаях и всего аккаунта AWS, с помощью эксплуатации SSRF (Server Side Request Forgery) уязвимого веб приложения, с использованием сервиса Instance Metadata…
Завтра я буду выступать на конференции "Код ИБ" в Санкт-Петербурге с 20мин докладом "Kubernetes: Незнание системы – злейший враг". За основу для названия данного доклада я взял цитату известного специалиста по ИБ Bruce Schneier: “Complexity is the worst enemy of security, and our systems are getting more complex all the time.” Основной посыл доклада заключается в том, что если вы не понимаете и не знаете что и как работает, устроено в вашей
Но есть и хорошая новость заключается в том, что: Контейнеры и сам
P.S. Если кто будет на данном мероприятии буду рад общению и знакомству!
Kubernetes инфраструктуре, то атакующие (и другие не порядочные сотрудники) могут пользоваться вашим незнанием. Но есть и хорошая новость заключается в том, что: Контейнеры и сам
Kubernetes предоставляет большие возможности по организации observability происходящего и не использовать этого это большое упущение при работе с микросервисными приложениями. P.S. Если кто будет на данном мероприятии буду рад общению и знакомству!
Как вы помните реализация концепции NetworkPolicy лежит на
В
CNI, а не самом Kubernetes. Но при этом разработчики разных CNI на этот вопрос смотрят по-разному и расширяют эту концепцию также по-разному. В низу представлена небольшая сводная табличка по данному вопросу.
APIGROUP NAMESPACED KIND
cilium
cilium.io false CiliumClusterwideNetworkPolicy
cilium.io true CiliumNetworkPolicy
networking.k8s.io true NetworkPolicy
calico
crd.projectcalico.org false GlobalNetworkPolicy
crd.projectcalico.org true NetworkPolicy
networking.k8s.io true NetworkPolicy
weave
networking.k8s.io true NetworkPolicy
Kube-router
networking.k8s.io true NetworkPolicy
flannel
networking.k8s.io true NetworkPolicy (не умеет)
В
OpenShift благодаря расширению концепции namespace до project, так и во все по умолчанию Pod`’ы в одном `namespace изолированы от всех остальных.Telegram
k8s (in)security
Network Policies - определяет какие Pods и Endpoints могут взаимодействовать по сети друг с другом (такой кластерный firewall). Это очень важная с точки зрения безопасности сущность, которая позволяет реализовать концепцию микросегментации. Сразу стоит учесть…
За последний месяц появилось несколько новых Container Runtime, что кажется, что любой уважающий себя человек/компания должно его выпустить (стандартизация
1) runj - экспериментальный OCI runtime для FreeBSD jails ;) Руководство к проведению эксперимента тут.
2) Quark - OCI runtime на
3) sysbox - модифицированный
4) cri-dockerd - заявлен как возможность использовать Docker в качестве runtime после удаления его из поддержки (1.23). Подробнее о судьбе
Что, по-вашему, интересно и имеет перспективу, а что нет? А может с чем-то из этого вы успели уже плотно поработать?
CRI, OCI творит чудеса) на тот или иной случай из жизни. Сильно не уверен, что в проде стоит использовать малоизвестный, малораспространённый Container Runtime, но иметь ввиду и быть в курсе определенно стоит.1) runj - экспериментальный OCI runtime для FreeBSD jails ;) Руководство к проведению эксперимента тут.
2) Quark - OCI runtime на
Rust на базе VM изоляции и безопасности, использующий shared memory queues и io_uring для улучшения IO performance. 3) sysbox - модифицированный
runc с отсутствием совместимости с OCI (90%) и наличием платной версии. Позволяет запускать в контейнере Systemd, Docker и Kubernetes с высокой степенью простоты и изоляции, базирующейся на Linux user-namespace, в общем rootless.4) cri-dockerd - заявлен как возможность использовать Docker в качестве runtime после удаления его из поддержки (1.23). Подробнее о судьбе
Dockershim можно прочитать тут. По сути, это и будет обертка над Dockershim, позволяющая стартовать его как отдельный демон: kubelet -> cri-dockerd -> dockershim -> docker (1 версия).Что, по-вашему, интересно и имеет перспективу, а что нет? А может с чем-то из этого вы успели уже плотно поработать?
Telegram
k8s (in)security
При проектирование своего Kubernetes кластера чрезвычайно важным его элементом является Container Runtime. При этом мало кто знает, что он, по сути, состоит из 2 частей: High-level Runtime и Low-level Runtime.
High-level Runtime (CRI Implementations):
•…
High-level Runtime (CRI Implementations):
•…
Из коробки
1)
2)
3)
Естественно вопрос безопасности не был оставлен без внимания и были упомянуты: image scanning, RBAC, Network Policy, Kubernetes Pod Security Standards, CIS Benchmarks for Kubernetes, policy engines, runtime scanners, VM-based container sandboxing. Часть более общей информации вынесено в скриншот данного поста.
P.S. Также в рамках
Kubernetes не предоставляет Multi-Tenancy. И для улучшения, данного вопросы была даже создана специальная рабочая группа. Данная группа недавно в рамках блога опубликовала 3 возможных модели/реализации:1)
Namespaces as a Service - на основе проекта Hierarchical Namespace Controller (HNC) + Multi-Tenancy Benchmarks (MTB) (проводит и ряд security проверок).2)
Clusters as a Service - на основе проекта Cluster API (CAPI).3)
Control planes as a Service - на основе проекта Virtual Cluster + Cluster API Nested (расширение CAPI).Естественно вопрос безопасности не был оставлен без внимания и были упомянуты: image scanning, RBAC, Network Policy, Kubernetes Pod Security Standards, CIS Benchmarks for Kubernetes, policy engines, runtime scanners, VM-based container sandboxing. Часть более общей информации вынесено в скриншот данного поста.
P.S. Также в рамках
Kubecon EU 2021 будет панельная дискуссия "Multi-tenancy vs. Multi-cluster: When Should you Use What?" по данному вопросу.Kubernetes продолжает развиваться и расширятся. Так концепция Ingress постепенно эволюционирует в Gateway API (Alpha стадия). Данной теме и посвящена последняя запись в официальном блоге. Если оставить за скобками введение для этого новых типов ресурсов (
HTTP/TCP/UDP/TLSRoute, BackendPolicy, Gateway, GatewayClass), возможности по манипуляции HTTP заголовками, возможности по пропорциональному управлению трафиком и вообще расширяемости в независимости от используемо Gateway провайдера (реализаций Gateway controller множество, как и для Ingress). То с точки зрения управления и безопасности в глаза бросается старание авторов реализовать в данной концепции Role-oriented design.Это предполагает удобное разделение ответственности между разными членами команды или департаментами в вопросах маршрутизации и взаимодействия
Kubernetes сервисов. По сути, это должно дать возможность безопасно, совместно управлять маршрутизацией несколькими командами, даже в условиях multi-tenant инфраструктур.Реализация NetworkPolicy лежит на плечах разработчиков
Для этого было разработано 2 инструмента для тестирования сетевых политик в различных
1) e2e framework
2) Cyclonus
За время тестов ошибки уже были найдены в
Помимо этого, SIG Network сейчас работает над следующими нововведениями в
- Поддержка диапазона портов [в
- Автоматический лейблинг для namespace [в
- Поддержка
- Поддержка политик для всего кластера
По мне это очень важные и нужные (напрашивающиеся) нововведения, которые для многих закроют почти все потребности по данному механизму.
CNI. У разных CNI своя реализация, что приводит к различиям и, конечно, ошибкам. Kubernetes сообществу же хотелось, чтобы это везде работало одинаково - давало один результат в независимости от реализации.Для этого было разработано 2 инструмента для тестирования сетевых политик в различных
CNI:1) e2e framework
2) Cyclonus
За время тестов ошибки уже были найдены в
OVN Kubernetes,Antrea, Calico, Cilium.Помимо этого, SIG Network сейчас работает над следующими нововведениями в
NetworkPolicy:- Поддержка диапазона портов [в
v1.21 alpha]- Автоматический лейблинг для namespace [в
v1.21 beta] (необходимо и удобно для меж namespace политик)- Поддержка
Fully Qualified Domain Names(FQDNs) в политиках - есть прототип от Google и его можно уже попробовать как CRD FQDNNetworkPolicies.- Поддержка политик для всего кластера
По мне это очень важные и нужные (напрашивающиеся) нововведения, которые для многих закроют почти все потребности по данному механизму.
Telegram
k8s (in)security
Network Policies - определяет какие Pods и Endpoints могут взаимодействовать по сети друг с другом (такой кластерный firewall). Это очень важная с точки зрения безопасности сущность, которая позволяет реализовать концепцию микросегментации. Сразу стоит учесть…
В
Но время идет, подходы к разработке, выкатке приложений начинают выдвигать новые требования к работе и возможностей данных контроллеров становится недостаточно. На пример, для удобных
В комментариях хотелось бы собрать какие вы знаете проекты и их ресурсы, которые способны создать и управлять
Kubernetes самой маленькой вычислительной единицей, которую он создает и управляет, является Pod (отдельной сущностью еще выделяют StaticPod). Но практически никто и никогда Pod'ы сами по себе не создает, а используют вышестоящие ресурсы/контроллеры - хорошо всем известные стандартные: Deployment, ReplicaSet, ReplicationController,StatefulSet, DaemonSet, CronJob и Job. И правильно настраивать PodSecurityContext внутри них, чтобы в дальнейшем Pod это все унаследовал. Но время идет, подходы к разработке, выкатке приложений начинают выдвигать новые требования к работе и возможностей данных контроллеров становится недостаточно. На пример, для удобных
canary или blue-green развертываний. Тем самым сторонние проекты разрабатывают новые контроллеры, которые такое начинают поддерживать. На пример, Rollout из Argo Rollout или Workflow из Argo Workflow. И вот в таких новых ресурсах также стоит не забывать о PodSecurityContext (если, конечно, сами авторы не забыли это учесть в своей реализации) - вот пример из одной документации.В комментариях хотелось бы собрать какие вы знаете проекты и их ресурсы, которые способны создать и управлять
Pod'ами. А так я уверен, что со временем такого будет появляться все больше и больше.Telegram
k8s (in)security
Сегодня еще отдохнем немного от темы сканирования образов (думаю еще 1-2 поста и я закрою данную тему).
Сейчас мы поговорим о Static Pods.
Это Pods, которые управляются не через Kubernetes API server, а kubelet на самой Node. В основном это нужно для служебных…
Сейчас мы поговорим о Static Pods.
Это Pods, которые управляются не через Kubernetes API server, а kubelet на самой Node. В основном это нужно для служебных…
Как-то это прошло мимо меня, но 2 месяца назад в
P.S. Не очень понятно почему авторы во всех переписках это публикуют как "fix for zero day"... Может они видели использование данной уязвимости в реальном мире ?!
Istio закрыли забавную, но при этом классическую уязвимость для подобных механизмов (Подобное можно было видеть и в случаях с saml/oauth.), в проверке JWT токена. Суть: "If a JWT token is presented with an issuer that does not match the issuer field specified in JwtProvider, then the request is mistakenly accepted". Подвержена была версия 1.17, а более младшие версии нет (1.16 и младше). Уязвимость получила идентификатор CVE-2021-21378 и высокий CVSS рейтинг 8.2 CVSS:3.0/AV:N/AC:L/PR:N/UI:N/S:U/C:H/I:L/A:N.P.S. Не очень понятно почему авторы во всех переписках это публикуют как "fix for zero day"... Может они видели использование данной уязвимости в реальном мире ?!
GitHub
JWT authentication bypass with unknown issuer token
### Brief Description
An attacker can bypass authentication by presenting a JWT token with an issuer that is not in the provider list when Envoy’s JWT Authentication filter is configured with the ...
An attacker can bypass authentication by presenting a JWT token with an issuer that is not in the provider list when Envoy’s JWT Authentication filter is configured with the ...
Сегодня с
А завтра будет специальная секция Cloud Native Security Day от
По данным анализа прошлой конференции - тема
10:00 CEST стартует KubeCon + CloudNativeCon Europe 2021 и продлится до 7 мая включительно. Полное расписание можно посмотреть тут.А завтра будет специальная секция Cloud Native Security Day от
CNCF - программу этой секции можно посмотреть тут. Там, как всегда, много всего интересного (будет даже CTF), но этого не значит, что в остальные дни на конференции нет докладов затрагивающий тему безопасности. По данным анализа прошлой конференции - тема
security одна из самых популярных и обсуждаемых - думаю, что и в этом году эта тенденция останется.Совсем недавно компания
Отдельно стоит обратить внимание (применить фильтр) на следующие моменты:
-
-
-
Определенно было бы здорово иметь подобное сопоставление/сравнение и с участием российских облачных провайдеров.
Google на одной из страниц своей официальной документации опубликовала/обновила раздел "Compare AWS and Azure services to Google Cloud". То есть она сопоставила свои облачные сервисы с сервисами своих основных конкурентов. Это может быть полезно как при выборе облачного провайдера, так и при миграции из одного в другой или при создании Multi-cloud.Отдельно стоит обратить внимание (применить фильтр) на следующие моменты:
-
"No equivalent alternative" - так как таблица строится от сервисов Google, то это свойственно только конкурентам. Так что у конкурентов тоже могут быть сервисы, которым нет альтернативы в Google.-
"Security" - быстро посмотреть, что позиционируется как механизм безопасности-
"Kubernetes" - быстро посмотреть, что на прямую связывают с k8s
До этого я встречал только вот такое сравнение "Mapping of On-Premises Security Controls vs. Major Cloud Providers Services" (не со всеми пунктами я там согласен) для решений ON-PREMISES, AWS, AZURE, GOOGLE, ORACLE, IBM и ALIBABA. Определенно было бы здорово иметь подобное сопоставление/сравнение и с участием российских облачных провайдеров.
Google Cloud Documentation
Compare AWS and Azure services to Google Cloud | Get started | Google Cloud Documentation
https://doc.crds.dev/ - очень удобный
Это очень может быть полезно при знакомстве, разбирательстве с чужим проектом, оператором и т.д. до его непосредственной установки. В одном из своих прошлых постов я уже писал о проблеме, которую они привносят и потенциально могут понизить уровень безопасности и сыграть на руку атакующему. А благодаря данному проекта можно очень просто, удобно и быстро ознакомиться с внутренностями любых
online сервис по работе с CRD (Custom Resource Definition). Он очень прост и полезен в использовании - достаточно вбить только github адрес проекта, CRD которого вас интересуют. А далее проект самостоятельно выделит версии проекта и для каждой из них имеющийся там набор CRD с описанием. По сути, это такая автоматическая генерилка документации на CRD сторонних проектов. Это очень может быть полезно при знакомстве, разбирательстве с чужим проектом, оператором и т.д. до его непосредственной установки. В одном из своих прошлых постов я уже писал о проблеме, которую они привносят и потенциально могут понизить уровень безопасности и сыграть на руку атакующему. А благодаря данному проекта можно очень просто, удобно и быстро ознакомиться с внутренностями любых
CRD на просторах github.doc.crds.dev
Automatic documentation for your CustomResourceDefinitions.
В полку
Он:
- Для работы использует
- Для применения политик использует
- Позволяет писать политики на ЛЮБОМ ЯП, компилируемом в
- Для хранения и распространяя политик может использовать как обычный web-сервер, так и любой
Учтите, что проект находится в ранней стадии: "WARNING: Kubewarden is in early development stage, it's not production ready." Но с ним уже можно познакомиться и для этого есть ряд ресурсов:
- Документация
- Policy Hub с примерами политик
policy engine пополнение - к OPA и Kyverno присоединяется Kubewarden.Он:
- Для работы использует
Webhook Admission Control (как и все)- Для применения политик использует
Custom Resources Definition (как и все)- Позволяет писать политики на ЛЮБОМ ЯП, компилируемом в
WebAssembly
- Запускает WebAssembly модуль в независимости от окружения (+ другие фичи wasm)- Для хранения и распространяя политик может использовать как обычный web-сервер, так и любой
container registries, оперируя OCI артефактамиУчтите, что проект находится в ранней стадии: "WARNING: Kubewarden is in early development stage, it's not production ready." Но с ним уже можно познакомиться и для этого есть ряд ресурсов:
- Документация
- Policy Hub с примерами политик
👍2