Dans ce tutoriel, vous pouvez configurer l'autoscaling en fonction de l'une des métriques suivantes :
Processeur
Utilisation du processeur
Scaling basé sur le pourcentage d'utilisation des processeurs sur les nœuds. Cela peut être économique et peut vous permettre d'optimiser l'utilisation des ressources de processeur. Cependant, comme l'utilisation du processeur est une métrique de fin, vos utilisateurs peuvent rencontrer une latence pendant le scaling.
Pub/Sub
Tâches en attente Pub/Sub
Scaling basé sur une métrique externe qui signale le nombre de messages non confirmés restant dans un abonnement Pub/Sub. Cela peut véritablement réduire la latence avant que cela ne devienne un problème, mais cela peut utiliser relativement plus de ressources que l'autocaling basé sur l'utilisation du processeur.
Métrique personnalisée
Métrique Prometheus personnalisée
Scaling basé sur une métrique personnalisée définie par l'utilisateur, exportée au format Prometheus via le service Prometheus géré par Google. Votre métrique Prometheus doit être de type Gauge.
L'autoscaling consiste essentiellement à trouver un juste équilibre entre coût et latence. Vous pouvez tester une combinaison de ces métriques et d'autres pour identifier une stratégie adaptée à vos besoins.
Objectifs
Ce tutoriel couvre les tâches suivantes :- Découvrez comment déployer l'adaptateur de métriques personnalisées.
- Comment exporter des métriques à partir du code de votre application.
- Découvrez comment afficher vos métriques dans l'interface Cloud Monitoring.
- Comment déployer une ressource HorizontalPodAutoscaler (HPA) pour faire évoluer votre application en fonction des métriques Cloud Monitoring.
Coûts
Dans ce document, vous utilisez les composants facturables suivants de Google Cloud :
Obtenez une estimation des coûts en fonction de votre utilisation prévue à l'aide du simulateur de coût.
Une fois que vous avez terminé les tâches décrites dans ce document, vous pouvez éviter de continuer à payer des frais en supprimant les ressources que vous avez créées. Pour en savoir plus, consultez la section Effectuer un nettoyage.
Avant de commencer
Pour activer l'API Kubernetes Engine, procédez comme suit :- Accédez à la page Kubernetes Engine dans la console Google Cloud .
- Créez ou sélectionnez un projet.
- Patientez le temps de l'activation de l'API et des services associés. Cette opération peut prendre plusieurs minutes.
-
Make sure that billing is enabled for your Google Cloud project.
Vous pouvez suivre ce tutoriel avec Cloud Shell, où sont préinstallés les outils de ligne de commande gcloud
et kubectl
utilisés ici. Si vous utilisez Cloud Shell, vous n'avez pas besoin d'installer ces outils de ligne de commande sur votre poste de travail.
Pour utiliser Cloud Shell, procédez comme suit :
- Accédez à la consoleGoogle Cloud .
Cliquez sur le bouton Activer Cloud Shell
en haut de la fenêtre de la console. Google Cloud
Une session Cloud Shell s'ouvre dans un nouveau cadre en bas de la Google Cloud console et affiche une invite de ligne de commande.
Configurer votre environnement
Définissez la zone par défaut pour Google Cloud CLI :
gcloud config set compute/zone zone
Remplacez les éléments suivants :
zone
: choisissez la zone la plus proche de vous. Pour en savoir plus, consultez la page Régions et zones.
Définissez les variables d'environnement
PROJECT_ID
etPROJECT_NUMBER
sur l'ID et le numéro de votre projetGoogle Cloud :export PROJECT_ID=project-id export PROJECT_NUMBER=$(gcloud projects describe $PROJECT_ID --format 'get(projectNumber)')
Définissez la zone par défaut pour Google Cloud CLI :
gcloud config set project $PROJECT_ID
Créez un cluster GKE.
Bonne pratique: Pour renforcer la sécurité lors de l'accès aux services Google Cloud , activez la fédération d'identité de charge de travail pour GKE sur votre cluster. Bien que cette page comporte des exemples utilisant l'ancienne méthode (avec la fédération d'identité de charge de travail pour GKE désactivée), notez que le fait d'activer cette option offre une meilleure protection.
Workload Identity
Pour créer un cluster avec la fédération d'identité de charge de travail pour GKE activée, exécutez la commande suivante :
gcloud container clusters create metrics-autoscaling --workload-pool=$PROJECT_ID.svc.id.goog
Ancienne méthode d'authentification
Pour créer un cluster sur lequel la fédération d'identité de charge de travail pour GKE est désactivée, exécutez la commande suivante :
gcloud container clusters create metrics-autoscaling
Déployer l'adaptateur de métriques personnalisées
L'adaptateur de métriques personnalisées permet à votre cluster d'échanger des métriques avec Cloud Monitoring.
Processeur
Non applicable : les autoscalers horizontaux de pods peuvent être adaptés en fonction de l'utilisation du processeur en mode natif. Ainsi, l'adaptateur de métriques personnalisées n'est pas requis.
Pub/Sub
La procédure d'installation de l'adaptateur de métriques personnalisées diffère selon que la fédération d'identité de charge de travail pour GKE est activée ou non sur le cluster. Sélectionnez l'option correspondant à la configuration que vous avez choisie lorsque vous avez créé votre cluster.
Workload Identity
Accordez à votre utilisateur la possibilité de créer les rôles d'autorisation requis :
kubectl create clusterrolebinding cluster-admin-binding \
--clusterrole cluster-admin --user "$(gcloud config get-value account)"
Déployez l'adaptateur de métriques personnalisées sur votre cluster :
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml
L'adaptateur utilise le compte de service Kubernetes custom-metrics-stackdriver-adapter
dans l'espace de noms custom-metrics
. Autorisez ce compte de service à lire les métriques Cloud Monitoring en lui attribuant le rôle Lecteur Monitoring :
gcloud projects add-iam-policy-binding projects/$PROJECT_ID \
--role roles/monitoring.viewer \
--member=principal://iam.googleapis.com/projects/$PROJECT_NUMBER/locations/global/workloadIdentityPools/$PROJECT_ID.svc.id.goog/subject/ns/custom-metrics/sa/custom-metrics-stackdriver-adapter
Ancienne méthode d'authentification
Accordez à votre utilisateur la possibilité de créer les rôles d'autorisation requis :
kubectl create clusterrolebinding cluster-admin-binding \
--clusterrole cluster-admin --user "$(gcloud config get-value account)"
Déployez l'adaptateur de métriques personnalisées sur votre cluster :
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml
Métrique personnalisée
La procédure d'installation de l'adaptateur de métriques personnalisées diffère selon que la fédération d'identité de charge de travail pour GKE est activée ou non sur le cluster. Sélectionnez l'option correspondant à la configuration que vous avez choisie lorsque vous avez créé votre cluster.
Workload Identity
Accordez à votre utilisateur la possibilité de créer les rôles d'autorisation requis :
kubectl create clusterrolebinding cluster-admin-binding \
--clusterrole cluster-admin --user "$(gcloud config get-value account)"
Déployez l'adaptateur de métriques personnalisées sur votre cluster :
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml
L'adaptateur utilise le compte de service Kubernetes custom-metrics-stackdriver-adapter
dans l'espace de noms custom-metrics
. Autorisez ce compte de service à lire les métriques Cloud Monitoring en lui attribuant le rôle Lecteur Monitoring :
gcloud projects add-iam-policy-binding projects/$PROJECT_ID \
--role roles/monitoring.viewer \
--member=principal://iam.googleapis.com/projects/$PROJECT_NUMBER/locations/global/workloadIdentityPools/$PROJECT_ID.svc.id.goog/subject/ns/custom-metrics/sa/custom-metrics-stackdriver-adapter
Ancienne méthode d'authentification
Accordez à votre utilisateur la possibilité de créer les rôles d'autorisation requis :
kubectl create clusterrolebinding cluster-admin-binding \
--clusterrole cluster-admin --user "$(gcloud config get-value account)"
Déployez l'adaptateur de métriques personnalisées sur votre cluster :
kubectl apply -f https://raw.githubusercontent.com/GoogleCloudPlatform/k8s-stackdriver/master/custom-metrics-stackdriver-adapter/deploy/production/adapter_new_resource_model.yaml
Déployer une application avec des métriques
Téléchargez le dépôt contenant le code de l'application pour ce tutoriel :
Processeur
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples.git
cd kubernetes-engine-samples/quickstarts/hello-app
Pub/Sub
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples.git
cd kubernetes-engine-samples/databases/cloud-pubsub
Métrique personnalisée
git clone https://github.com/GoogleCloudPlatform/kubernetes-engine-samples.git
cd kubernetes-engine-samples/observability/custom-metrics-autoscaling/google-managed-prometheus
Le dépôt contient du code qui exporte les métriques vers Cloud Monitoring :
Processeur
Cette application répond "Hello, world!" à toutes les requêtes Web sur le port 8080
. Les métriques du processeur Compute Engine sont automatiquement collectées par Cloud Monitoring.
Pub/Sub
Cette application interroge un abonnement Pub/Sub pour rechercher de nouveaux messages, en les confirmant à leur arrivée. Les métriques d'abonnement Pub/Sub sont automatiquement collectées par Cloud Monitoring.
Métrique personnalisée
Cette application répond à toute requête Web sur le chemin /metrics
avec une métrique de valeur constante au format Prometheus.
Le dépôt contient également un fichier manifeste Kubernetes pour déployer l'application sur votre cluster. Un déploiement est un objet d'API Kubernetes qui vous permet d'exécuter plusieurs réplicas de pods répartis entre les nœuds d'un cluster:
Processeur
Pub/Sub
Le fichier manifeste n'est pas le même pour les clusters sur lesquels la fédération d'identité de charge de travail pour GKE est activée que pour ceux où elle est désactivée. Sélectionnez l'option correspondant à la configuration choisie lorsque vous avez créé votre cluster.
Workload Identity
Ancienne méthode d'authentification
Métrique personnalisée
Avec la ressource PodMonitoring, Google Cloud Managed Service pour Prometheus exporte les métriques Prometheus vers Cloud Monitoring :
À compter de la version 1.27 de GKE Standard ou de la version 1.25 de GKE Autopilot, Google Cloud Managed Service pour Prometheus est activé par défaut. Pour activer Google Cloud Managed Service pour Prometheus dans les clusters de versions antérieures, consultez Activer la collecte gérée.
Déployez l'application sur votre cluster :
Processeur
kubectl apply -f manifests/helloweb-deployment.yaml
Pub/Sub
La procédure de déploiement de votre application diffère pour les clusters avec ou sans fédération d'identité de charge de travail pour GKE activée. Sélectionnez l'option correspondant à la configuration que vous avez choisie lorsque vous avez créé votre cluster.
Workload Identity
Activez l'API Pub/Sub sur votre projet :
gcloud services enable cloudresourcemanager.googleapis.com pubsub.googleapis.com
Créez un sujet et un abonnement Pub/Sub :
gcloud pubsub topics create echo gcloud pubsub subscriptions create echo-read --topic=echo
Déployez l'application sur votre cluster :
kubectl apply -f deployment/pubsub-with-workload-identity.yaml
Cette application définit un compte de service Kubernetes
pubsub-sa
. Attribuez-lui le rôle Abonné Pub/Sub afin que l'application puisse publier des messages sur le sujet Pub/Sub.gcloud projects add-iam-policy-binding projects/$PROJECT_ID \ --role=roles/pubsub.subscriber \ --member=principal://iam.googleapis.com/projects/$PROJECT_NUMBER/locations/global/workloadIdentityPools/$PROJECT_ID.svc.id.goog/subject/ns/default/sa/pubsub-sa
La commande précédente utilise un identifiant de compte principal, qui permet à IAM de faire directement référence à un compte de service Kubernetes.
Bonne pratique: Utilisez des identifiants de comptes principaux, mais tenez compte de la limite précisée dans la description d'une autre méthode.
Ancienne méthode d'authentification
Activez l'API Pub/Sub sur votre projet :
gcloud services enable cloudresourcemanager.googleapis.com pubsub.googleapis.com
Créez un sujet et un abonnement Pub/Sub :
gcloud pubsub topics create echo gcloud pubsub subscriptions create echo-read --topic=echo
Créez un compte de service avec accès à Pub/Sub :
gcloud iam service-accounts create autoscaling-pubsub-sa gcloud projects add-iam-policy-binding $PROJECT_ID \ --member "serviceAccount:autoscaling-pubsub-sa@$PROJECT_ID.iam.gserviceaccount.com" \ --role "roles/pubsub.subscriber"
Téléchargez le fichier de clé du compte de service :
gcloud iam service-accounts keys create key.json \ --iam-account autoscaling-pubsub-sa@$PROJECT_ID.iam.gserviceaccount.com
Importez la clé du compte de service dans votre cluster en tant que secret :
kubectl create secret generic pubsub-key --from-file=key.json=./key.json
Déployez l'application sur votre cluster :
kubectl apply -f deployment/pubsub-with-secret.yaml
Métrique personnalisée
kubectl apply -f custom-metrics-gmp.yaml
Après avoir attendu que l'application soit déployée, tous les pods passent à l'état Ready
:
Processeur
kubectl get pods
Sortie :
NAME READY STATUS RESTARTS AGE
helloweb-7f7f7474fc-hzcdq 1/1 Running 0 10s
Pub/Sub
kubectl get pods
Sortie :
NAME READY STATUS RESTARTS AGE
pubsub-8cd995d7c-bdhqz 1/1 Running 0 58s
Métrique personnalisée
kubectl get pods
Sortie :
NAME READY STATUS RESTARTS AGE
custom-metrics-gmp-865dffdff9-x2cg9 1/1 Running 0 49s
Afficher les métriques dans Cloud Monitoring
À mesure que votre application s'exécute, elle écrit vos métriques dans Cloud Monitoring.
Pour afficher les métriques d'une ressource surveillée à l'aide de l'explorateur de métriques, procédez comme suit :
-
Dans la console Google Cloud , accédez à la page leaderboard Explorateur de métriques:
Accéder à l'explorateur de métriques
Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Monitoring.
- Dans l'élément Métrique, développez le menu Sélectionner une métrique, puis sélectionnez un type de ressource et un type de métrique. Par exemple, pour représenter graphiquement l'utilisation du processeur d'une machine virtuelle, procédez comme suit :
- (Facultatif) Pour réduire le nombre d'options du menu, saisissez une partie du nom de la métrique dans la barre de filtre. Pour cet exemple, saisissez
utilization
. - Dans le menu Ressources actives, sélectionnez Instance de VM.
- Dans le menu Catégories de métriques actives, sélectionnez Instance.
- Dans le menu Métriques actives, sélectionnez Utilisation du processeur, puis cliquez sur Appliquer.
- (Facultatif) Pour réduire le nombre d'options du menu, saisissez une partie du nom de la métrique dans la barre de filtre. Pour cet exemple, saisissez
Pour filtrer les séries temporelles affichées, utilisez l'élément Filtre.
Pour combiner des séries temporelles, utilisez les menus de l'élément Agrégation. Par exemple, pour afficher l'utilisation du processeur pour vos VM en fonction de leur zone, définissez le premier menu sur Moyenne et le second sur zone.
Toutes les séries temporelles sont affichées lorsque le premier menu de l'élément Agrégation est défini sur Non agrégé. Les paramètres par défaut de l'élément Aggregation (Agrégation) sont déterminés par le type de métrique que vous avez sélectionné.
Le type de ressource et les métriques sont les suivants :
Processeur
Type de ressource : gce_instance
Métrique : compute.googleapis.com/instance/cpu/utilization
Pub/Sub
Type de ressource : pubsub_subscription
Métrique : pubsub.googleapis.com/subscription/num_undelivered_messages
Métrique personnalisée
Type de ressource : prometheus_target
Métrique : prometheus.googleapis.com/custom_prometheus/gauge
Selon la métrique, vous ne verrez peut-être pas beaucoup d'activité dans l'explorateur de métriques Cloud Monitoring. Ne soyez pas étonné si votre métrique ne se met pas à jour.
Créer un objet HorizontalPodAutoscaler
Une fois que vous avez vu votre métrique dans Cloud Monitoring, vous pouvez déployer un objet HorizontalPodAutoscaler
pour redimensionner votre déploiement en fonction de votre métrique.
Processeur
Pub/Sub
Métrique personnalisée
Déployez HorizontalPodAutoscaler
sur votre cluster :
Processeur
kubectl apply -f manifests/helloweb-hpa.yaml
Pub/Sub
kubectl apply -f deployment/pubsub-hpa.yaml
Métrique personnalisée
kubectl apply -f custom-metrics-gmp-hpa.yaml
Générer la charge
Pour certaines métriques, vous devrez peut-être générer une charge pour surveiller l'autoscaling :
Processeur
Simulez l'envoi de 10 000 requêtes au serveur helloweb
:
kubectl exec -it deployments/helloweb -- /bin/sh -c \
"for i in $(seq -s' ' 1 10000); do wget -q -O- localhost:8080; done"
Pub/Sub
Publiez 200 messages dans le sujet Pub/Sub :
for i in {1..200}; do gcloud pubsub topics publish echo --message="Autoscaling #${i}"; done
Métrique personnalisée
Non applicable : le code utilisé dans cet exemple exporte une valeur constante de 40
pour la métrique personnalisée. L'objet HorizontalPodAutoscaler est défini avec une valeur cible de 20
. Il tente donc de faire évoluer automatiquement le déploiement à la hausse.
Vous devrez peut-être patienter quelques minutes, le temps que l'outil HorizontalPodAutoscaler réponde aux changements de métriques.
Observer le scaling à la hausse de HorizontalPodAutoscaler
Vous pouvez vérifier le nombre d'instances répliquées que comporte actuellement votre déploiement en exécutant la commande suivante :
kubectl get deployments
Après avoir laissé le temps à la métrique de se propager, le déploiement crée cinq pods pour gérer les tâches en attente.
Vous pouvez également inspecter l'état et l'activité récente de l'outil HorizontalPodAutoscaler en exécutant la commande suivante :
kubectl describe hpa
Effectuer un nettoyage
Pour éviter que les ressources utilisées dans ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez chaque ressource individuellement.
Processeur
Supprimez le cluster GKE :
gcloud container clusters delete metrics-autoscaling
Pub/Sub
Nettoyez l'abonnement et le sujet Pub/Sub :
gcloud pubsub subscriptions delete echo-read gcloud pubsub topics delete echo
Supprimez le cluster GKE :
gcloud container clusters delete metrics-autoscaling
Métrique personnalisée
Supprimez le cluster GKE :
gcloud container clusters delete metrics-autoscaling
Étape suivante
Découvrez les métriques personnalisées et externes pour le scaling des charges de travail.
Découvrez d'autres tutoriels Kubernetes Engine.