Balanceo de cargas avanzado en clústeres de GKE
En esta página, se muestra cómo configurar el balanceo de cargas avanzado en clústeres de GKE para usuarios de Cloud Service Mesh (TD) administrado con la API de Kubernetes. Para obtener la guía del usuario correspondiente para configurar el balanceo de cargas avanzado con la API deGoogle Cloud , consulta Configura el balanceo de cargas avanzado.
Puedes usar el balanceo de cargas avanzado para hacer lo siguiente:
- Mantener el tráfico en una zona de servicio hasta que se agote la capacidad local
- Envía tráfico al servicio en una ubicación "principal" con conmutación por error a una ubicación secundaria cuando una cantidad suficiente de extremos en la ubicación principal dejan de estar en buen estado.
- Controla cuándo se produce la conmutación por error (según el porcentaje de hosts en buen estado).
Limitaciones
- Se aplican limitaciones generales en torno al uso del balanceo de cargas avanzado en Google Cloud .
- Esta función solo está disponible para los usuarios de Cloud Service Mesh administrado que usan Traffic Director como plano de control y requiere la versión 1.19.10-asm.22 o posterior del plano de datos.
No todos los campos de GCPTrafficDistributionPolicy y GCPBackendPolicy son compatibles con Cloud Service Mesh administrado (TD). Los campos admitidos son los siguientes:
- GCPTrafficDistributionPolicy
- ServiceLbAlgorithm
- AutoCapacityDrain
- FailoverConfig
- GCPBackendPolicy
- MaxRatePerEndpoint
- BackendPreference
Todos los campos que no se mencionan son campos no admitidos, y una política con al menos un campo no admitido configurado no surte efecto en Cloud Service Mesh .
- GCPTrafficDistributionPolicy
El balanceo de cargas avanzado solo se puede aplicar a los servicios de Kubernetes respaldados por cargas de trabajo que se ejecutan en Google Cloud. No se admiten servicios o cargas de trabajo externos (como ServiceEntry).
Las políticas de balanceo de cargas solo se pueden aplicar a servicios de Kubernetes individuales. No se admiten las políticas de balanceo de cargas a nivel del espacio de nombres o de la malla.
Solo se admite la capacidad de QPS.
Solo se admiten las versiones de GKE >= 1.31.1.
Las políticas avanzadas de balanceo de cargas de la malla de servicios solo se deben aplicar a los servicios que solo atienden el tráfico de la malla. No se debe aplicar a los servicios que actúan como backends de GKE Gateway. Los comportamientos del tráfico no están definidos cuando un destino de tráfico de balanceo de cargas avanzado es un servicio de Kubernetes que entrega tráfico de malla y tráfico desde una puerta de enlace de GKE.
Configura el balanceo de cargas avanzado
Puedes usar los siguientes recursos personalizados para configurar el balanceo de cargas avanzado en GKE. Puedes encontrar la definición detallada del recurso en el repositorio de la API de gke-gateway.
GCPTrafficDistributionPolicy
GCPTrafficDistributionPolicy configura la política de balanceo de cargas a nivel del servicio para los servicios de Kubernetes. Te permite realizar las siguientes acciones:
- Elige un algoritmo de balanceo de cargas personalizado. Los algoritmos admitidos se describen en la tabla de balanceo de cargas avanzado.
- Habilita el desvío de capacidad automático.
- Ajusta el umbral de estado de conmutación por error.
Si varias GCPTrafficDistributionPolicies segmentan el mismo servicio, se aplicará la política más antigua.
GCPBackendPolicy
GCPBackendPolicy configura las propiedades de los backends de servicio que afectan el comportamiento del balanceo de cargas, incluidas las siguientes:
- Es la capacidad del backend del servicio.
- Designar backends preferidos
Si varias GCPBackendPolicies segmentan el mismo servicio en un clúster, se aplicará la política más antigua.
Estado de la política
Tanto GCPTrafficDistributionPolicy como GCPBackendPolicy tienen un campo de estado que indica el estado de vinculación de la política.
Por ejemplo, ejecutar kubectl describe gcpbackendpolicies example-policy -n example
produciría un resultado similar al siguiente:
...
Status:
Ancestors:
Ancestor Ref:
Group:
Kind: Service
Name: example-svc
Namespace: example
Conditions:
Last Transition Time: 2024-10-13T01:15:03Z
Message:
Observed Generation: 1
Reason: Attached
Status: True
Type: Attached
Controller Name: gsmconfig.gke.io/controller
Configuración preliminar
Antes de completar esta guía, debes aprovisionar Cloud Service Mesh en un clúster de GKE.
Verifica que las CRD estén instaladas:
kubectl get crd
El resultado es similar al siguiente:
... gcptrafficdistributionpolicies.networking.gke.io 2024-07-18T21:50:12Z gcpbackendpolicies.networking.gke.io 2024-07-18T21:50:12Z ...
Instala la CRD de GCPBackendPolicy si aún no está instalada:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/gke-gateway-api/refs/heads/main/config/crd/networking.gke.io_gcpbackendpolicies.yaml
Instala la CRD de GCPTrafficDistributionPolicy si aún no está instalada:
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/gke-gateway-api/refs/heads/main/config/crd/networking.gke.io_gcptrafficdistributionpolicies.yaml
Las políticas de ejemplo de esta guía del usuario se dirigen al servicio foo en el espacio de nombres foo con fines de demostración. Puedes ejecutar el siguiente comando para crear el servicio y el espacio de nombres de prueba o, si lo prefieres, puedes usar tu propio servicio y espacio de nombres:
kubectl apply -f - <<EOF
kind: Namespace
apiVersion: v1
metadata:
name: foo
labels:
istio-injection: enabled
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: foo
namespace: foo
spec:
replicas: 2
selector:
matchLabels:
app: test-backend
template:
metadata:
labels:
app: test-backend
spec:
containers:
- name: whereami
image: gcr.io/google-samples/whereami:v1.2.23
ports:
- containerPort: 8080
---
apiVersion: v1
kind: Service
metadata:
name: foo
namespace: foo
spec:
selector:
app: test-backend
ports:
- port: 8080
targetPort: 8080
EOF
Configura el algoritmo de balanceo de cargas
De forma predeterminada, el tráfico a un servicio se distribuye de manera uniforme a cada backend de servicio en buen estado en una malla de servicios de Cloud Service Mesh. Puedes crear la siguiente GCPTrafficDistributionPolicy para que el tráfico se distribuya a la zona más cercana hasta la capacidad del backend:
kubectl apply -f - <<EOF
apiVersion: networking.gke.io/v1
kind: GCPTrafficDistributionPolicy
metadata:
name: lb-policy
namespace: foo
spec:
targetRefs:
- kind: Service
group: ""
name: foo-service
default:
serviceLbAlgorithm: WATERFALL_BY_ZONE
EOF
De forma predeterminada, los backends de servicio se tratan como si tuvieran capacidad infinita. Cuando hay suficientes hosts en buen estado en la zona local o más cercana, el tráfico nunca se distribuirá fuera de esa zona para una determinada localidad del cliente. De manera opcional, puedes configurar la capacidad del backend de tu servicio con GCPBackendPolicy para que una sola zona no se sobrecargue.
kubectl apply -f - <<EOF
apiVersion: networking.gke.io/v1
kind: GCPBackendPolicy
metadata:
name: backend-policy
namespace: foo
spec:
targetRef:
kind: Service
group: ""
name: foo-backend
default:
maxRatePerEndpoint: 5
EOF
Ajusta el comportamiento de la conmutación por error
De forma predeterminada, no se activará la conmutación por error siempre que un porcentaje suficiente de hosts estén en buen estado en los backends principales. Para obtener más información sobre los servidores de backend principales y otros términos, consulta la Descripción general del balanceo de cargas avanzado. GCPTrafficDistributionPolicy te permite configurar el umbral de porcentaje de hosts en buen estado hasta que el tráfico se desvíe de los backends principales a los backends de conmutación por error. La conmutación por error se activa antes con un umbral más grande. Por ejemplo, si deseas que se active la conmutación por error en cuanto el porcentaje de hosts en buen estado descienda por debajo del 90% en los backends principales, puedes configurar la siguiente GCPTrafficDistributionPolicy:
kubectl apply -f - <<EOF
apiVersion: networking.gke.io/v1
kind: GCPTrafficDistributionPolicy
metadata:
name: lb-policy
namespace: foo
spec:
targetRefs:
- kind: Service
group: ""
name: foo-service
default:
failoverConfig:
failoverHealthThreshold: 90
EOF
Configura el balanceo de cargas avanzado en una malla de servicios de varios clústeres
GCPTrafficDistributionPolicy y GCPBackendPolicy se aplican en diferentes ámbitos en una malla de servicios de varios clústeres.
Cuando un GCPTrafficDistributionPolicy segmenta un servicio de varios clústeres, define el comportamiento del balanceo de cargas a nivel del servicio en todos los clústeres. Solo se debe crear una GCPTrafficDistributionPolicy para un servicio de varios clústeres en particular. Si usas la API de Istio para configurar tu malla de servicios, puedes crear GCPTrafficDistributionPolicy en cualquier clúster de la flota. Puedes verificar si una política entra en conflicto con otra inspeccionando su estado.
Cuando una GCPBackendPolicy segmenta un servicio de varios clústeres, define la configuración a nivel del backend (por ejemplo, la capacidad por Pod) para los Pods de backend seleccionados por su servicio de segmentación en su clúster local. Para el mismo servicio de varios clústeres, es posible definir diferentes parámetros de configuración a nivel del backend en diferentes clústeres.
En el siguiente ejemplo, se crea una GCPTrafficDistributionPolicy en el clúster A para definir el algoritmo de balanceo de cargas que se usará en toda la flota, mientras que las GCPBackendPolicies se encuentran en cada clúster. Ambas políticas de GCPBackendPolicy configuran una capacidad de 10 QPS por pod para los pods de backend en su clúster local, mientras que la política de GCPBackendPolicy en el clúster A configura los pods de backend en el clúster A como backend preferido.
En conjunto, estas políticas configuran los comportamientos de balanceo de cargas para el tráfico dentro de la malla que se envía al servicio foo:
- El tráfico de cualquier lugar prefiere los backends del clúster A hasta que los Pods de backend del clúster A necesiten controlar 10 QPS por Pod.
- Este comportamiento se define principalmente en GCPBackendPolicy que establece
backendPreference
enPREFERRED
en el clúster A.
- Este comportamiento se define principalmente en GCPBackendPolicy que establece
- El tráfico que supera la capacidad configurada de los backends en el clúster A se enruta al clúster B con el algoritmo
WATERFALL_BY_ZONE
. Para obtener una explicación más detallada de los servidores de backend preferidos, consulta la Descripción general del balanceo de cargas avanzado.- Este comportamiento se define principalmente con GCPTrafficDistributionPolicy, que define el algoritmo, en el clúster A y GCPBackendPolicy, que define la capacidad del backend, en los clústeres A y B.
En Istio, los servicios regulares de Kubernetes se vuelven "de varios clústeres" de forma implícita cuando hay varios clústeres en la malla de servicios y el servicio se crea a través de los límites del clúster. Si bien la siguiente política de GCPTrafficDistributionPolicy tiene como objetivo el servicio foo de Kubernetes normal, se aplica al servicio foo de varios clústeres que consta de cargas de trabajo correspondientes en dos clústeres.
Crea el objeto GCPTrafficDistributionPolicy para el clúster A:
kubectl apply --context cluster-a-context -f - <<EOF kind: GCPTrafficDistributionPolicy apiVersion: networking.gke.io/v1 metadata: name: foo-traffic-distribution-policy namespace: foo spec: targetRefs: - kind: Service group: "" name: foo-service default: serviceLbAlgorithm: WATERFALL_BY_ZONE EOF
Crea el objeto GCPBackendPolicy para el clúster A:
kubectl apply --context cluster-a-context -f - <<EOF kind: GCPBackendPolicy apiVersion: networking.gke.io/v1 metadata: name: foo-backend-policy namespace: foo spec: default: maxRatePerEndpoint: 100 backendPreference: PREFERRED targetRef: group: "" kind: Service name: foo-service EOF
Crea el objeto GCPBackendPolicy para el clúster B:
kubectl apply --context cluster-b-context -f - <<EOF kind: GCPBackendPolicy apiVersion: networking.gke.io/v1 metadata: name: foo-backend-policy namespace: foo spec: default: maxRatePerEndpoint: 10 targetRef: group: "" kind: Service name: foo-service EOF
Pasos siguientes
- Obtén más información sobre el balanceo de cargas avanzado