EKS 1.26-1.27 — end of standard support
❌ В июне закончилась стандартная поддержка EKS 1.26.
⚠️
❗ Если у кого-то крутился три года без обновления EKS 1.21, то у меня для вас две новости, хорошая и плохая.
Хорошая — поздравляю, у вас вчера версия кластера обновилась до EKS 1.22.
Плохая — не работает, потому что у вас вчера версия кластера обновилась до EKS 1.22.
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
#EKS
❌ В июне закончилась стандартная поддержка EKS 1.26.
⚠️
24 июля закончится для EKS 1.27. ❗ Если у кого-то крутился три года без обновления EKS 1.21, то у меня для вас две новости, хорошая и плохая.
Хорошая — поздравляю, у вас вчера версия кластера обновилась до EKS 1.22.
Плохая — не работает, потому что у вас вчера версия кластера обновилась до EKS 1.22.
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
#EKS
😈12😁3🔥1🆒1
Amazon EKS Terraform Workshop
https://catalog.us-east-1.prod.workshops.aws/workshops/afee4679-89af-408b-8108-44f5b1065cc7/en-US
- Install the Sample Application
- Observability
- Automation using Flux
- Using Kyverno Policy Manager
- Enabling GuardDuty
- VPC Lattice
- VPC CNI Network Policy
- Troubleshooting
#EKS #Terraform #workshop
https://catalog.us-east-1.prod.workshops.aws/workshops/afee4679-89af-408b-8108-44f5b1065cc7/en-US
- Install the Sample Application
- Observability
- Automation using Flux
- Using Kyverno Policy Manager
- Enabling GuardDuty
- VPC Lattice
- VPC CNI Network Policy
- Troubleshooting
#EKS #Terraform #workshop
👍17
EKS + Kubernetes 1.31 🎉
Спустя официального релиза 1.31 прошло лишь полтора месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был точным с поправкой на неделю.
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.32 должна официально выйти
На текущий момент на AWS доступны для установки версии Kubernetes: 1.23 - 1.31.
Рекомендации по версиям EKS:
❌ EKS 1.22 и древнее — не поддерживаются.
❗️ EKS 1.23 — принудительно обновится до 1.24 версии
❎ EKS 1.23-1.27 — поддерживаются за дополнительную плату.
⚠️ EKS 1.28 — начнёт взимать дополнительную плату
✔️ EKS 1.29 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
✅ EKS 1.30 — можно спать спокойно до
#EKS
Спустя официального релиза 1.31 прошло лишь полтора месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был точным с поправкой на неделю.
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.32 должна официально выйти
11 декабря, так что поставлю, что 1.31 на AWS появится 28 января 2025 года.На текущий момент на AWS доступны для установки версии Kubernetes: 1.23 - 1.31.
Рекомендации по версиям EKS:
❌ EKS 1.22 и древнее — не поддерживаются.
❗️ EKS 1.23 — принудительно обновится до 1.24 версии
11 октября (перестанет поддерживаться совсем).❎ EKS 1.23-1.27 — поддерживаются за дополнительную плату.
⚠️ EKS 1.28 — начнёт взимать дополнительную плату
27 ноября.✔️ EKS 1.29 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
23 марта 2025).✅ EKS 1.30 — можно спать спокойно до
28 июля 2025 года.#EKS
🎉10👍7
🆕 Amazon EKS Hybrid Nodes
https://aws.amazon.com/blogs/aws/use-your-on-premises-infrastructure-in-amazon-eks-clusters-with-amazon-eks-hybrid-nodes/
Теперь можно поднимать ноды EKS у себя в серверной, по-прежнему управляя кластером в консоли AWS.
#EKS
https://aws.amazon.com/blogs/aws/use-your-on-premises-infrastructure-in-amazon-eks-clusters-with-amazon-eks-hybrid-nodes/
Теперь можно поднимать ноды EKS у себя в серверной, по-прежнему управляя кластером в консоли AWS.
#EKS
👍12🔥9
☸️ EKS автопилот — EKS Auto Mode со встроенным Karpener-ом, dual stack сетью, поддержкой block storage, GPU и автообновлением нод по безопасности:
https://aws.amazon.com/blogs/aws/streamline-kubernetes-cluster-management-with-new-amazon-eks-auto-mode/
К сожалению,это не ECS обновлять EKS кластер на новую версию по-прежнему нужно будет самостоятельно.
#EKS
https://aws.amazon.com/blogs/aws/streamline-kubernetes-cluster-management-with-new-amazon-eks-auto-mode/
К сожалению,
#EKS
👍4🔥2
EKS + Kubernetes 1.32 🎉
Спустя официального релиза 1.32 прошло лишь полтора месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был весьма точным (ошибка 4 дня).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.33 должна официально выйти
На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.29 - 1.32.
▫️ Custom configuration: версии 1.28 - 1.32.
Рекомендации по версиям EKS:
❌ EKS 1.23 и древнее — не поддерживаются.
❎ EKS 1.24-1.28 — поддерживаются за дополнительную плату.
❗️ EKS 1.24 — перестанет поддерживаться совсем
❗️ EKS 1.25 — перестанет поддерживаться совсем
⚠️ EKS 1.29 — начнёт взимать дополнительную плату
⚠️ EKS 1.30 — начнёт взимать дополнительную плату
✔️ EKS 1.31 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
✅ EKS 1.32 — можно спать спокойно до
#EKS
Спустя официального релиза 1.32 прошло лишь полтора месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был весьма точным (ошибка 4 дня).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.33 должна официально выйти
23 апреля, так что поставлю, что 1.33 на AWS появится 7 мая 2025 года.На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.29 - 1.32.
▫️ Custom configuration: версии 1.28 - 1.32.
Рекомендации по версиям EKS:
❌ EKS 1.23 и древнее — не поддерживаются.
❎ EKS 1.24-1.28 — поддерживаются за дополнительную плату.
31 января (будет принудительно обновлён до 1.25)1 мая (будет принудительно обновлён до 1.26)⚠️ EKS 1.29 — начнёт взимать дополнительную плату
23 марта.⚠️ EKS 1.30 — начнёт взимать дополнительную плату
23 июля.✔️ EKS 1.31 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
26 ноября).✅ EKS 1.32 — можно спать спокойно до
23 марта 2026 года.#EKS
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13👍4🤬3❤1🤔1🐳1
Get secrets from Secrets Manager to EKS using Pod Identity instead of IRSA:
▪️ No need to create and manage service accounts for each application.
▪️ More granular control over permissions at the Pod level.
▪️ Easier to implement in large-scale environments.
▪️ Best practices for security.
https://aws.amazon.com/blogs/security/announcing-ascp-integration-with-pod-identity-enhanced-security-for-secrets-management-in-amazon-eks/
There are examples for a single- and cross-account.
#EKS #SecretsManager
▪️ No need to create and manage service accounts for each application.
▪️ More granular control over permissions at the Pod level.
▪️ Easier to implement in large-scale environments.
▪️ Best practices for security.
https://aws.amazon.com/blogs/security/announcing-ascp-integration-with-pod-identity-enhanced-security-for-secrets-management-in-amazon-eks/
There are examples for a single- and cross-account.
#EKS #SecretsManager
5👍16
Бросайте свои ArgoCD и Flux и переходите на тёмную сторону CodePipeline + EKS deployment!
https://docs.aws.amazon.com/codepipeline/latest/userguide/tutorials-eks-deploy.html
Документация:
https://docs.aws.amazon.com/codepipeline/latest/userguide/action-reference-EKS.html
Пока можно лишь накликать в консоли, т.к. Terraform педалит issue выполнения команд в CodePipeline ещё с прошлого года (поставьте лайк, пожалуйста).
#CodePipeline #EKS
https://docs.aws.amazon.com/codepipeline/latest/userguide/tutorials-eks-deploy.html
Документация:
https://docs.aws.amazon.com/codepipeline/latest/userguide/action-reference-EKS.html
Пока можно лишь накликать в консоли, т.к. Terraform педалит issue выполнения команд в CodePipeline ещё с прошлого года (поставьте лайк, пожалуйста).
#CodePipeline #EKS
💩29🥴12😁8
Forwarded from Make. Build. Break. Reflect.
#aws #eks #sqs #CostOptimization
Материал уровня middle.
Снова про экономию.
У нас есть AWS SQS.
В него прилетает миллион вебхуков с полезным и важным payload.
Бывают пики, бывают нет.
У нас есть AWS EKS и приложение в POD-e, который вычитывает SQS, процессит и всё ок.
Нам надо настроить масштабирование не за счёт CPU/memory usage, а за счёт количества сообщений.
В этом нам помогает KEDA. Опустим этапы установки/настройки/прав и авторизации.
У нас есть готовый манифест
Всё работает, всё скейлится, всё ок.
В HPA некрасиво выглядят цифры, хочется видеть точное количество мессаджем. Добавляем
И теперь в
Этого нам мало, нужна точная подстройка.
Читаем дальше доку, у нас есть адвансед настройки.
Теперь у нас всё динамически скейлится, прописаны все триггеры, трешхолды.
Всё отлично и бизнес ликует(не вру, прям ликует, сильно помогло).
Однако меня, как рьяного и верного пса девопс церкви, напрягает, что в период высокой нагрузки всё упирается в максимум реплик. Да, можно поставить не 50, а 100, но я думаю, что настройка неверная.
Углубляемся дальше в доку(вру, я ничо не понял и просто спросил ребят-гуру-AWS-технологий в телеге) и вспоминаем про визибл/анвизибл настройки у sqs.
https://keda.sh/docs/2.14/scalers/aws-sqs/
https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html
Окончательно пилим манифест.
Отлично. Теперь самая точная и потрясающая настройка.
Материал уровня middle.
Снова про экономию.
У нас есть AWS SQS.
В него прилетает миллион вебхуков с полезным и важным payload.
Бывают пики, бывают нет.
У нас есть AWS EKS и приложение в POD-e, который вычитывает SQS, процессит и всё ок.
Нам надо настроить масштабирование не за счёт CPU/memory usage, а за счёт количества сообщений.
В этом нам помогает KEDA. Опустим этапы установки/настройки/прав и авторизации.
У нас есть готовый манифест
scaledobject.---
apiVersion: keda.sh/v1alpha1
kind: ScaledObject
...
spec:
cooldownPeriod: 300
maxReplicaCount: 50
minReplicaCount: 2
pollingInterval: 30
scaleTargetRef:
name: application
triggers:
- authenticationRef:
name: keda-aws-credentials
metadata:
awsRegion: us-east-1
identityOwner: operator
queueLength: "500"
queueURL: https://sqs.us-east-1.amazonaws.com/123456789/sqsname
type: aws-sqs-queue
Всё работает, всё скейлится, всё ок.
В HPA некрасиво выглядят цифры, хочется видеть точное количество мессаджем. Добавляем
metricType---
apiVersion: keda.sh/v1alpha1
kind: ScaledObject
...
spec:
...
metricType: Value
И теперь в
kubectl get hpa blablabla видим точное количество мессаджей в TARGETS(а не системы счисления инопланетян).Этого нам мало, нужна точная подстройка.
Читаем дальше доку, у нас есть адвансед настройки.
---
apiVersion: keda.sh/v1alpha1
kind: ScaledObject
...
spec:
advanced:
horizontalPodAutoscalerConfig:
behavior:
scaleDown:
policies:
- periodSeconds: 15
type: Pods
value: 1
stabilizationWindowSeconds: 300
scaleUp:
policies:
- periodSeconds: 15
type: Pods
value: 1
selectPolicy: Max
stabilizationWindowSeconds: 60
... (остальное так же)
Теперь у нас всё динамически скейлится, прописаны все триггеры, трешхолды.
Всё отлично и бизнес ликует(не вру, прям ликует, сильно помогло).
Однако меня, как рьяного и верного пса девопс церкви, напрягает, что в период высокой нагрузки всё упирается в максимум реплик. Да, можно поставить не 50, а 100, но я думаю, что настройка неверная.
Углубляемся дальше в доку(вру, я ничо не понял и просто спросил ребят-гуру-AWS-технологий в телеге) и вспоминаем про визибл/анвизибл настройки у sqs.
https://keda.sh/docs/2.14/scalers/aws-sqs/
https://docs.aws.amazon.com/AWSSimpleQueueService/latest/SQSDeveloperGuide/sqs-visibility-timeout.html
Окончательно пилим манифест.
---
apiVersion: keda.sh/v1alpha1
kind: ScaledObject
...
spec:
advanced:
...(тут тоже самое)
metadata:
...
scaleOnInFlight: "false" << - - вот это вот важное нам
...
Отлично. Теперь самая точная и потрясающая настройка.
👍14
Forwarded from Make. Build. Break. Reflect.
#aws #eks #sqs #CostOptimization
Благодаря точной настройке мы неслабо экономим:
- во время нагрузки мы не скейлим так много реплик
- нет большого лишнего скейла реплик - нет и скейла нод кластера AWS EKS
- нет скейла нод - платим серьёзно меньше
Всего один параметр и в разы снижаем нагрузку и косты.
❕Прежде чем делать подобное, уточните у девелоперов и бизнеса - подойдёт ли это вам и продукту.
Не все процессинги можно переключить только на инфлайт режим.
Полный пример манифеста(код в телеге неудобно читать).
https://gist.github.com/kruchkov-alexandr/e6328137107e49c6a5e7c05c40851680
scaleOnInFlight - Indication of whether or not to include in-flight messages when calculating the number of SQS messages. (default: true, Optional)Благодаря точной настройке мы неслабо экономим:
- во время нагрузки мы не скейлим так много реплик
- нет большого лишнего скейла реплик - нет и скейла нод кластера AWS EKS
- нет скейла нод - платим серьёзно меньше
Всего один параметр и в разы снижаем нагрузку и косты.
❕Прежде чем делать подобное, уточните у девелоперов и бизнеса - подойдёт ли это вам и продукту.
Не все процессинги можно переключить только на инфлайт режим.
Полный пример манифеста(код в телеге неудобно читать).
https://gist.github.com/kruchkov-alexandr/e6328137107e49c6a5e7c05c40851680
👍14🔥1
EKS Terraform demo
https://github.com/setheliot/eks_demo/
Deploys:
▪️ EKS cluster using EC2 nodes
▪️ DynamoDB table
▪️ EBS volume used as attached storage for the Kubernetes cluster (a PersistentVolume)
▪️ Demo "guestbook" application, deployed via containers
▪️ ALB to access the app
#EKS #Terraform
https://github.com/setheliot/eks_demo/
Deploys:
▪️ EKS cluster using EC2 nodes
▪️ DynamoDB table
▪️ EBS volume used as attached storage for the Kubernetes cluster (a PersistentVolume)
▪️ Demo "guestbook" application, deployed via containers
▪️ ALB to access the app
#EKS #Terraform
👍5💊5
EKS community Add-ons
https://aws.amazon.com/blogs/containers/announcing-amazon-eks-community-add-ons-catalog/
Теперь можно уменьшить набор стандартных чартов для установки и поставить их через эдд-оны:
metrics-server
kube-state-metrics
prometheus-node-exporter
cert-manager
external-dns
#EKS
https://aws.amazon.com/blogs/containers/announcing-amazon-eks-community-add-ons-catalog/
Теперь можно уменьшить набор стандартных чартов для установки и поставить их через эдд-оны:
metrics-server
kube-state-metrics
prometheus-node-exporter
cert-manager
external-dns
#EKS
🔥22👍12💩3❤2
EKS Dashboard — all EKS clusters from all AWS regions/accounts in one place:
https://aws.amazon.com/blogs/aws/centralize-visibility-of-kubernetes-clusters-across-aws-regions-and-accounts-with-eks-dashboard/
#EKS
https://aws.amazon.com/blogs/aws/centralize-visibility-of-kubernetes-clusters-across-aws-regions-and-accounts-with-eks-dashboard/
#EKS
🔥25👍7🎉2
Официальный MCP-server для EKS:
https://aws.amazon.com/blogs/containers/accelerating-application-development-with-the-amazon-eks-model-context-protocol-server/
#EKS #MCP
https://aws.amazon.com/blogs/containers/accelerating-application-development-with-the-amazon-eks-model-context-protocol-server/
#EKS #MCP
Amazon
Accelerating application development with the Amazon EKS MCP server | Amazon Web Services
This blog post was jointly authored by Niall Thomson, Principal Solutions Architect – Containers, Carlos Santana, Solutions Architect – Containers and George John, Senior Product Manager – Amazon EKS Introduction Today, we’re excited to announce the launch…
🔥3
EKS + Kubernetes 1.33 🎉
Спустя официального релиза 1.33 прошло чуть больше месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был весьма неточным (ошибка 3 недели).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.34 должна официально выйти
На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.30 - 1.32.
▫️ Custom configuration: версии 1.26 - 1.33.
Рекомендации по версиям EKS:
❌ EKS 1.25 и древнее — не поддерживаются.
❎ EKS 1.26-1.29 — поддерживаются за дополнительную плату.
❗️ EKS 1.26 — перестанет поддерживаться совсем
❗️ EKS 1.27 — перестанет поддерживаться совсем
⚠️ EKS 1.30 — начнёт взимать дополнительную плату
⚠️ EKS 1.31 — начнёт взимать дополнительную плату
✔️ EKS 1.32 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
✅ EKS 1.33 — можно спать спокойно до
#EKS
Спустя официального релиза 1.33 прошло чуть больше месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был весьма неточным (ошибка 3 недели).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.34 должна официально выйти
27 августа, так что поставлю, что 1.34 на AWS появится 3 октября 2025 года.На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.30 - 1.32.
▫️ Custom configuration: версии 1.26 - 1.33.
Рекомендации по версиям EKS:
❌ EKS 1.25 и древнее — не поддерживаются.
❎ EKS 1.26-1.29 — поддерживаются за дополнительную плату.
11 июня (будет принудительно обновлён до 1.27)24 июля (будет принудительно обновлён до 1.28)⚠️ EKS 1.30 — начнёт взимать дополнительную плату
23 июля.⚠️ EKS 1.31 — начнёт взимать дополнительную плату
26 ноября.✔️ EKS 1.32 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
23 марта 2026 года).✅ EKS 1.33 — можно спать спокойно до
29 июля 2026 года.#EKS
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤1
K8sGPT + EKS
https://aws.amazon.com/blogs/machine-learning/use-k8sgpt-and-amazon-bedrock-for-simplified-kubernetes-cluster-maintenance/
#EKS #Bedrock #AI
https://aws.amazon.com/blogs/machine-learning/use-k8sgpt-and-amazon-bedrock-for-simplified-kubernetes-cluster-maintenance/
#EKS #Bedrock #AI
Amazon
Use K8sGPT and Amazon Bedrock for simplified Kubernetes cluster maintenance | Amazon Web Services
This post demonstrates the best practices to run K8sGPT in AWS with Amazon Bedrock in two modes: K8sGPT CLI and K8sGPT Operator. It showcases how the solution can help SREs simplify Kubernetes cluster management through continuous monitoring and operational…
👍7👎4
Защита EKS кластера от удаления:
https://docs.aws.amazon.com/eks/latest/userguide/deletion-protection.html
#EKS
aws eks update-cluster-config --deletion-protection --name my-eks-cluster
https://docs.aws.amazon.com/eks/latest/userguide/deletion-protection.html
#EKS
Amazon
Protect EKS clusters from accidental deletion - Amazon EKS
Accidentally deleting an EKS cluster may have a large impact, as Kubernetes operations will fail.
❤21👀3
EKS + Kubernetes 1.34 🎉
Спустя официального релиза 1.34 прошло чуть больше месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был очень точным (ошибка 1 день).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.35 должна официально выйти
На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.31 - 1.34.
▫️ Custom configuration: версии 1.28 - 1.34.
Рекомендации по версиям EKS:
❌ EKS 1.27 и древнее — не поддерживаются.
❎ EKS 1.28-1.30 — поддерживаются за дополнительную плату.
❗️ EKS 1.28 — перестанет поддерживаться совсем
❗️ EKS 1.29 — перестанет поддерживаться совсем
⚠️ EKS 1.31 — начнёт взимать дополнительную плату
⚠️ EKS 1.32 — начнёт взимать дополнительную плату
✔️ EKS 1.33 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
✅ EKS 1.34 — можно спать спокойно до
#EKS
Спустя официального релиза 1.34 прошло чуть больше месяца и теперь на AWS снова актуальная версия. 💪 Сделанный в прошлый раз прогноз на эту версию был очень точным (ошибка 1 день).
https://docs.aws.amazon.com/eks/latest/userguide/kubernetes-versions.html
Версия 1.35 должна официально выйти
17 декабря, так что поставлю, что 1.35 на AWS появится 23 января 2026 года.На текущий момент на AWS доступны для установки:
▫️ EKS Auto Mode: версии 1.31 - 1.34.
▫️ Custom configuration: версии 1.28 - 1.34.
Рекомендации по версиям EKS:
❌ EKS 1.27 и древнее — не поддерживаются.
❎ EKS 1.28-1.30 — поддерживаются за дополнительную плату.
26 ноября (будет принудительно обновлён до 1.29)23 марта (будет принудительно обновлён до 1.30)⚠️ EKS 1.31 — начнёт взимать дополнительную плату
27 ноября.⚠️ EKS 1.32 — начнёт взимать дополнительную плату
24 марта.✔️ EKS 1.33 — минимально рекомендуемая на текущий момент (на дефолтной поддержке до
29 июля 2026 года).✅ EKS 1.34 — можно спать спокойно до
2 декабря 2026 года.#EKS
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍3😭1