Ce tutoriel vous explique comment configurer une application App Hub globale pour plusieurs projets, puis comment afficher les ressources de l'application. Vous configurez un équilibreur de charge d'application interne dans un environnement VPC partagé à l'aide de plusieurs projets de service. Ensuite, dans une application globale du projet hôte App Hub, vous enregistrez et surveillez toutes les ressources d'infrastructure des projets de service en tant que services et charges de travail App Hub.
Ce tutoriel est destiné aux personnes qui configurent et administrent App Hub. Vous devez avoir une certaine expérience de Cloud Load Balancing.
Objectifs
- Configurez une application App Hub globale contenant des ressources couvrant plusieurs projets.
- Surveillez les ressources à l'aide des métriques système de l'application.
Coûts
Pour obtenir une estimation du coût des ressources Google Cloud utilisées par la solution de VM gérées avec équilibrage de charge, consultez l'estimation précalculée dans le Simulateur de coûtGoogle Cloud .
Utilisez l'estimation comme point de départ pour calculer le coût de votre déploiement. Vous pouvez modifier l'estimation afin qu'elle reflète les modifications de configuration que vous prévoyez d'apporter aux ressources utilisées dans la solution.
L'estimation précalculée est basée sur des hypothèses pour certains facteurs, y compris les suivants :
- Emplacements Google Cloud où les ressources sont déployées.
- La durée d'utilisation des ressources.
Pour en savoir plus sur les coûts d'App Hub, consultez la page Tarifs.
Avant de commencer
Avant de configurer ce tutoriel, définissez les rôles et les autorisations pour vos projets, puis créez quatre Google Cloud projets. L'un de ces projets est le projet hôte App Hub, et les trois autres sont des projets de service App Hub.Rôles et autorisations requis
Si vous êtes le créateur du projet, vous disposez du rôle de base Propriétaire (roles/owner
). Par défaut, ce rôle Identity and Access Management (IAM) inclut les autorisations nécessaires pour accéder à la plupart des ressources Google Cloud.
Si vous n'êtes pas le créateur du projet, les autorisations requises doivent être accordées au compte principal approprié sur le projet. Par exemple, un compte principal peut être un compte Google (pour les utilisateurs finaux) ou un compte de service (pour les applications et les charges de travail).
Pour obtenir les autorisations nécessaires pour gérer l'accès à un projet, un dossier ou une organisation, demandez à votre administrateur de vous accorder les rôles IAM suivants sur la ressource dont vous souhaitez gérer l'accès (projet, dossier ou organisation) :
-
Pour gérer l'accès à un projet :
-
Administrateur App Hub (
roles/apphub.admin
) -
Cloud Infrastructure Manager (
roles/config.admin
) -
Rôle Administrateur VPC Compute partagé (
roles/compute.xpnAdmin
) -
Administrateur de projet IAM (
roles/resourcemanager.projectIamAdmin
) -
Administrateur Service Usage (
roles/serviceusage.services.enable
) -
Administrateur de compte de service (
roles/iam.serviceAccounts.create
)
-
Administrateur App Hub (
-
Pour gérer l'accès à un dossier :
Rôle Administrateur de VPC Compute partagé (
roles/compute.xpnAdmin
)
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Vous pouvez également obtenir les autorisations requises avec des rôles personnalisés ou d'autres rôles prédéfinis.
Créer des projets hôte et de service App Hub
Console
Dans la console Google Cloud , accédez à la page de sélection du projet.
Sélectionnez ou créez un Google Cloud projet qui servira de projet hôte pour le hub d'applications.
-
Enable the App Hub, Compute Engine, Service Management, and Service Usage APIs.
Dans le même dossier que le projet hôte App Hub, créez trois projets Google Cloud . Il s'agit des projets de service App Hub pour le projet hôte App Hub.
Assurez-vous que la facturation est activée pour tous vos Google Cloud projets.
-
Enable the App Hub, Compute Engine, Service Management, and Service Usage APIs.
gcloud
-
In the Google Cloud console, activate Cloud Shell.
At the bottom of the Google Cloud console, a Cloud Shell session starts and displays a command-line prompt. Cloud Shell is a shell environment with the Google Cloud CLI already installed and with values already set for your current project. It can take a few seconds for the session to initialize.
Assurez-vous que la dernière version de Google Cloud CLI est installée. Exécutez la commande suivante à partir de Cloud Shell :
gcloud components update
Créez ou sélectionnez un projet,
HOST_PROJECT_ID
, qui servira de projet hôte pour App Hub.Créez un projet : Google Cloud
gcloud projects create HOST_PROJECT_ID
Sélectionnez le projet Google Cloud que vous avez créé :
gcloud config set project HOST_PROJECT_ID
Assurez-vous que la facturation est activée pour tous vos Google Cloud projets.
Activez les API App Hub, Compute Engine, Service Management et Service Usage :
gcloud services enable apphub.googleapis.com \ compute.googleapis.com \ servicemanagement.googleapis.com \ serviceusage.googleapis.com
Créez trois projets Google Cloud qui serviront de projets de service App Hub pour le projet hôte App Hub.
Créez un projet de service :
gcloud projects create SERVICE_PROJECT_1_ID
Remplacez
SERVICE_PROJECT_1_ID
par l'ID du projet de service 1.Sélectionnez le projet de service que vous avez créé :
gcloud config set project SERVICE_PROJECT_1_ID
Activez les API Compute Engine, Service Management et Service Usage :
gcloud services enable compute.googleapis.com \ servicemanagement.googleapis.com \ serviceusage.googleapis.com
Définissez la variable de configuration utilisée dans ce tutoriel :
export SERVICE_PROJECT_1_NUMBER= $(gcloud projects describe $(gcloud config get-value project) --format='value(projectNumber)')
Répétez l'étape précédente pour créer SERVICE_PROJECT_2_ID et SERVICE_PROJECT_3_ID, activer les API et définir la variable de configuration.
Préparer l'environnement
Si vous avez déjà configuré un équilibreur de charge d'application interne dans un environnement VPC partagé dans plusieurs projets, passez à la section Accorder des autorisations IAM de ce document.
Sinon, pour configurer un équilibreur de charge d'application interne dans un environnement VPC partagé, procédez comme suit :
- Dans le projet de service 1, configurez un réseau VPC partagé et deux sous-réseaux.
- Dans le projet de service 2, créez le service de backend de l'équilibreur de charge avec deux groupes d'instances gérés comme backends.
- Dans le projet de service 3, créez un autre service de backend d'équilibreur de charge avec deux groupes d'instances gérés comme backends.
- Dans le projet de service 1, créez les composants d'interface et le mappage d'URL de l'équilibreur de charge.
Voici le flux de traitement des requêtes de la topologie déployée par la solution de VM gérées avec équilibrage de charge.
À partir du réseau VPC partagé, la VM cliente envoie une requête HTTP à l'équilibreur de charge d'application interne du projet de service 1.
L'équilibreur de charge utilise les informations du mappage d'URL et des services de backend pour acheminer la requête vers ses backends de groupe d'instances géré.
Configurer le réseau et les sous-réseaux dans le projet hôte de VPC partagé
Vous avez besoin d'un réseau VPC partagé avec deux sous-réseaux : un pour l'interface et les backends de l'équilibreur de charge, un pour les proxys de l'équilibreur de charge.
Cet exemple utilise le réseau, la région et les sous-réseaux suivants :
Réseau Le réseau est nommé
lb-network
.Sous-réseau pour l'interface et les backends de l'équilibreur de charge. Un sous-réseau nommé
lb-frontend-and-backend-subnet
dans la régionus-west1
utilise10.1.2.0/24
pour sa plage d'adresses IP principale.Sous-réseau pour les proxys : un sous-réseau nommé
proxy-only-subnet
dans la régionus-west1
utilise10.129.0.0/23
pour sa plage d'adresses IP principale.
Dans ce tutoriel, désignez le projet de service 1 comme projet hôte de VPC partagé. Toutes les étapes de cette section doivent être effectuées dans le projet de service 1.
Configurer le sous-réseau pour l'interface et les backends de l'équilibreur de charge
Il n'est pas nécessaire de suivre les étapes de cette section chaque fois que vous souhaitez créer un équilibreur de charge. Vous devez simplement vous assurer que les projets de service ont accès à un sous-réseau du réseau VPC partagé (en plus du sous-réseau proxy réservé).
Console
- Dans la console Google Cloud , accédez à la page Réseaux VPC.
- Cliquez sur Créer un réseau VPC.
- Dans le champ Nom, saisissez
lb-network
. - Définissez Mode de création du sous-réseau sur Personnalisé.
Dans la section Nouveau sous-réseau, saisissez les informations suivantes :
Nom :
lb-frontend-and-backend-subnet
Région :
us-west1
Plage d'adresses IP :
10.1.2.0/24
Cliquez sur OK.
Cliquez sur Créer.
gcloud
Définissez le projet comme "Projet de service 1" :
gcloud config set project SERVICE_PROJECT_1_ID
Créez un réseau VPC à l'aide de la commande
gcloud compute networks create
:gcloud compute networks create lb-network --subnet-mode=custom
Créez un sous-réseau sur le réseau
lb-network
, dans la régionus-west1
:gcloud compute networks subnets create lb-frontend-and-backend-subnet \ --network=lb-network \ --range=10.1.2.0/24 \ --region=us-west1
Configurer le sous-réseau proxy réservé
Le sous-réseau proxy réservé est utilisé par tous les équilibreurs de charge régionaux basés sur Envoy dans la région us-west1
du réseau VPC lb-network
. Il ne peut y avoir qu'un seul sous-réseau proxy réservé actif par région et par réseau.
N'effectuez pas cette étape s'il existe déjà un sous-réseau proxy réservé dans la région us-west1
de ce réseau.
Console
- Dans la console Google Cloud , accédez à la page Réseaux VPC.
- Cliquez sur le nom du réseau VPC partagé :
lb-network
. - Cliquez sur l'onglet Sous-réseaux, puis sur Ajouter un sous-réseau.
- Dans le volet Ajouter un sous-réseau, dans le champ Nom, saisissez
proxy-only-subnet
. - Dans la liste Région, sélectionnez
us-west1
. - Définissez le champ Objectif sur Proxy géré régional.
- Dans le champ Plage d'adresses IP, saisissez
10.129.0.0/23
. - Cliquez sur Ajouter.
gcloud
Créez le sous-réseau proxy réservé à l'aide de la commande gcloud compute networks subnets
create
.
gcloud compute networks subnets create proxy-only-subnet \ --purpose=REGIONAL_MANAGED_PROXY \ --role=ACTIVE \ --region=us-west1 \ --network=lb-network \ --range=10.129.0.0/23
Autoriser les administrateurs de projet de service à accéder au sous-réseau backend
Les administrateurs de projet de service ont besoin d'accéder au sous-réseau lb-frontend-and-backend-subnet
pour pouvoir provisionner les backends de l'équilibreur de charge.
Un administrateur du VPC partagé doit accorder l'accès au sous-réseau backend aux administrateurs du projet de service (ou aux développeurs qui déploieront des ressources et des backends qui exploitent le sous-réseau). Pour obtenir des instructions, consultez la section Administrateurs de projet de service pour certains sous-réseaux.
Configurer des règles de pare-feu dans le projet de service 1
Cet exemple utilise les règles de pare-feu suivantes :
fw-allow-health-check
: règle d'entrée, applicable aux instances faisant l'objet d'un équilibrage de charge, qui autorise tout le trafic TCP issu des systèmes de vérification d'état Google Clouddans130.211.0.0/22
et35.191.0.0/16
. Cet exemple utilise le tag cibleload-balanced-backend
pour identifier les instances auxquelles elle doit s'appliquer.fw-allow-proxies
: règle d'entrée applicable aux instances faisant l'objet d'un équilibrage de charge, qui autorise le trafic TCP sur les ports80
,443
et8080
à partir des proxys gérés de l'équilibreur de charge. Cet exemple utilise le tag cibleload-balanced-backend
pour identifier les instances auxquelles la règle doit s'appliquer.fw-allow-ssh
: règle d'entrée, applicable aux instances faisant l'objet d'un équilibrage de charge, qui autorise la connectivité SSH entrante sur le port TCP22
à partir de n'importe quelle adresse. Vous pouvez choisir une plage d'adresses IP sources plus restrictive pour cette règle. Par exemple, vous pouvez spécifier uniquement les plages d'adresses IP du système à partir duquel vous souhaitez lancer des sessions SSH. Cet exemple utilise le tag cibleallow-ssh
pour identifier les machines virtuelles (VM) auxquelles la règle de pare-feu s'applique.
Sans ces règles de pare-feu, la règle d'entrée interdite par défaut bloque le trafic entrant vers les instances backend.
Console
Dans la console Google Cloud , accédez à la page Règles de pare-feu.
- Cliquez sur Créer une règle de pare-feu pour créer la règle autorisant les vérifications d'état Google Cloud :
- Nom :
fw-allow-health-check
- Réseau :
lb-network
- Sens du trafic : entrée
- Action en cas de correspondance : autoriser
- Cibles : tags cibles spécifiés
- Tags cibles :
load-balanced-backend
- Filtre source : plages IPv4
- Plages IPv4 sources :
130.211.0.0/22
et35.191.0.0/16
- Protocols and ports (Protocoles et ports) :
- Choisissez Protocoles et ports spécifiés.
- Cochez la case TCP, puis saisissez
80
pour le numéro de port.
Nous vous recommandons de limiter cette règle aux seuls protocoles et ports qui correspondent à ceux utilisés par votre vérification de l'état#39;état. Si vous utilisez
tcp:80
pour le protocole et le port, Google Cloudpeut contacter vos VM via HTTP sur le port80
, mais pas via HTTPS sur le port443
. - Cliquez sur Créer.
- Cliquez sur Créer une règle de pare-feu pour créer la règle autorisant les vérifications d'état Google Cloud :
- Nom :
fw-allow-proxies
- Réseau :
lb-network
- Sens du trafic : entrée
- Action en cas de correspondance : autoriser
- Cibles : tags cibles spécifiés
- Tags cibles :
load-balanced-backend
- Filtre source : plages IPv4
- Plages IPv4 sources :
10.129.0.0/23
- Protocols and ports (Protocoles et ports) :
- Choisissez Protocoles et ports spécifiés.
- Cochez la case TCP, puis saisissez
80, 443, 8080
pour les numéros de port.
- Cliquez sur Créer.
- Cliquez sur Créer une règle de pare-feu pour créer la règle autorisant les vérifications d'état Google Cloud :
- Nom :
fw-allow-ssh
- Réseau :
lb-network
- Sens du trafic : entrée
- Action en cas de correspondance : autoriser
- Cibles : tags cibles spécifiés
- Tags cibles :
allow-ssh
- Filtre source : plages IPv4
- Plages IPv4 sources :
0.0.0.0/0
- Protocols and ports (Protocoles et ports) :
- Choisissez Protocoles et ports spécifiés.
- Cochez la case TCP, puis saisissez
22
pour le numéro de port.
- Cliquez sur Créer.
gcloud
Créez la règle de pare-feu
fw-allow-health-check
pour autoriser les vérifications de l'étatGoogle Cloud . Cet exemple autorise tout le trafic TCP provenant des vérificateurs d'état. Toutefois, vous pouvez configurer un ensemble de ports plus restreint en fonction de vos besoins.gcloud compute firewall-rules create fw-allow-health-check \ --network=lb-network \ --action=allow \ --direction=ingress \ --source-ranges=130.211.0.0/22,35.191.0.0/16 \ --target-tags=load-balanced-backend \ --rules=tcp
Créez la règle de pare-feu
fw-allow-proxies
pour autoriser le trafic provenant du sous-réseau proxy réservé Envoy à accéder à vos backends :gcloud compute firewall-rules create fw-allow-proxies \ --network=lb-network \ --action=allow \ --direction=ingress \ --source-ranges=10.129.0.0/23 \ --target-tags=load-balanced-backend \ --rules=tcp:80,tcp:443,tcp:8080
Créez la règle de pare-feu
fw-allow-ssh
pour autoriser la connectivité SSH aux VM avec le tag réseauallow-ssh
:gcloud compute firewall-rules create fw-allow-ssh \ --network=lb-network \ --action=allow \ --direction=ingress \ --target-tags=allow-ssh \ --rules=tcp:22
Réserver une adresse IPv4 interne statique
Les administrateurs de projet de service peuvent réserver une adresse IPv4 ou IPv6 interne dans un sous-réseau d'un réseau VPC partagé. L'objet de configuration de l'adresse IP est créé dans le projet de service, alors que sa valeur provient de la plage d'adresses IPv4 disponibles dans le sous-réseau partagé choisi.
Pour réserver une adresse IP interne autonome dans le projet de service, procédez comme suit :
Console
- Configurer un VPC partagé
Dans la console Google Cloud , accédez à la page VPC partagé.
Connectez-vous en tant qu'administrateur de VPC partagé.
Sélectionnez le projet de service dans l'outil de sélection de projets.
Accédez à Réseau VPC > Adresses IP.
Sur la page Adresses IP, cliquez sur Réserver une adresse IP statique interne.
Dans le champ Nom, saisissez
l7-ilb-ip-address
comme nom d'adresse IP.Dans la liste Version IP, sélectionnez IPv4.
Dans Réseau, sélectionnez
lb-network
.Dans les listes Sous-réseau, sélectionnez
lb-frontend-and-backend-subnet
.Cliquez sur Réserver.
gcloud
Si vous ne l'avez pas déjà fait, authentifiez-vous auprès de Google Cloud CLI en tant qu'administrateur de projet de service de VPC partagé.
gcloud auth login SERVICE_PROJECT_ADMIN
Remplacez
SERVICE_PROJECT_ADMIN
par le nom de l'administrateur de projet de service de VPC partagé. Ces valeurs doivent être au format nomdutilisateur@votre domaine, par exemple 222larabrown@gmail.com.Utilisez la commande
compute addresses create
pour réserver une adresse IP :gcloud compute addresses create l7-ilb-ip-address \ --project SERVICE_PROJECT_1_ID \ --subnet=lb-frontend-and-backend-subnet \ --region=us-west1 \ --ip-version=IPV4
Des détails supplémentaires sur la création d'adresses IP sont disponibles dans la documentation du SDK.
Configurer un VPC partagé dans le projet de service 1
Pour configurer un VPC partagé dans le projet de service 1, vous désignez le projet de service 1 comme projet hôte de VPC partagé et les projets de service 2 et 3 comme projets de service de VPC partagé. Plus loin dans ce tutoriel, lorsque vous créerez les backends MIG dans les projets de service 2 et 3, vous pourrez utiliser le même réseau VPC et les mêmes sous-réseaux que ceux créés précédemment dans le projet de service 1.
- Activer un projet hôte
- Associer un projet de service
Attribuez le rôle d'utilisateur de réseau Compute (
roles/compute.networkUser
) aux projets de service 2 et 3 :Console
Dans la console Google Cloud , accédez à la page IAM.
Cliquez sur
Accorder l'accès. Le volet Accorder l'accès s'affiche.Dans le champ Nouvelles entités principales, saisissez
SERVICE_PROJECT_2_NUMBER@cloudservices.gserviceaccount.com
.Notez que vous pouvez obtenir les numéros de projet de service à partir du tableau de bord du projet :
Cliquez sur Sélectionner un rôle, puis saisissez
Compute Network User
dans le champ Filtre.Sélectionnez le rôle Utilisateur de réseau de Compute, puis cliquez sur Enregistrer.
Répétez les étapes précédentes pour attribuer le rôle
Compute Network User
au projet de service 3 (SERVICE_PROJECT_3_NUMBER@cloudservices.gserviceaccount.com
).
gcloud
Dans le projet de service 1, accordez le rôle d'utilisateur de réseau Compute au projet de service 2.
gcloud projects add-iam-policy-binding SERVICE_PROJECT_1_ID \ --member='serviceAccount:SERVICE_PROJECT_2_NUMBER@cloudservices.gserviceaccount.com' \ --role='roles/compute.networkUser'
Remplacez
SERVICE_PROJECT_2_NUMBER
par le numéro du projet de service 2.Dans le projet de service 1, attribuez le rôle d'utilisateur de réseau Compute au projet de service 3.
gcloud projects add-iam-policy-binding SERVICE_PROJECT_1_ID \ --member='serviceAccount::SERVICE_PROJECT_3_NUMBER@cloudservices.gserviceaccount.com' \ --role='roles/compute.networkUser'
Remplacez
SERVICE_PROJECT_3_NUMBER
par le numéro du projet de service 3.
Créer un service de backend et des MIG dans le projet de service 2
Toutes les étapes de cette section doivent être effectuées dans le projet de service 2.
Console
Créez un modèle d'instance. Dans la console Google Cloud , accédez à la page Modèles d'instances.
Accéder à la page Modèles d'instances
- Cliquez sur Créer un modèle d'instance.
- Dans le champ Nom, saisissez le nom du modèle d'instance :
tutorial-ig-template-sp2
. - Dans la section Emplacement, sélectionnez Régional (recommandé) et us-west1(Oregon) comme Région.
- Dans la section Configuration de la machine, sélectionnez N2 comme série.
- Assurez-vous que le disque de démarrage est défini sur une image Debian, telle que Debian GNU/Linux 12 (bookworm). Ces instructions utilisent des commandes uniquement disponibles dans Debian, comme
apt-get
. Si vous devez modifier le disque de démarrage, cliquez sur Modifier.- Pour Système d'exploitation, sélectionnez Debian.
- Pour Version, sélectionnez l'une des images Debian disponibles, telles que Debian GNU/Linux 12 (bookworm).
- Cliquez sur Sélectionner.
- Cliquez sur Options avancées, puis sur Mise en réseau.
- Saisissez les tags réseau suivants :
allow-ssh
,load-balanced-backend
. - Dans la section Interfaces réseau, sélectionnez Réseaux partagés avec moi (depuis le projet hôte : SERVICE_PROJECT_1_ID).
- Sélectionnez le sous-réseau
lb-frontend-and-backend-subnet
dans le réseaulb-network
. - Cliquez sur Gestion. Pour Gestion, insérez le script suivant dans le champ Script de démarrage.
#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | tee /var/www/html/index.html systemctl restart apache2
- Cliquez sur Créer.
Créez un groupe d'instances géré. Dans la console Google Cloud , accédez à la page Groupes d'instances.
Accéder à la page "Groupes d'instances"
- Cliquez sur Créer un groupe d'instances.
- Choisissez Nouveau groupe d'instances géré (sans état). Pour plus d'informations, consultez la page Groupes d'instances gérés (MIG) sans état ou avec état.
- Pour le champ Nom, saisissez le nom du groupe d'instances :
tutorial-sp2-mig-a
. - Pour Modèle d'instance, sélectionnez tutorial-ig-template-sp2.
- Pour Emplacement, sélectionnez Zone unique.
- Pour Région, sélectionnez
us-west1
. Spécifiez le nombre d'instances que vous souhaitez créer au sein du groupe.
Pour cet exemple, spécifiez les options suivantes sous Autoscaling :
- Dans le champ Mode autoscaling, sélectionnez
Off:do not autoscale
. - Dans le champ Nombre maximal d'instances, saisissez
2
.
- Dans le champ Mode autoscaling, sélectionnez
Cliquez sur Créer.
Créez un service de backend régional. Dans le cadre de cette étape, nous allons également créer la vérification de l'état et ajouter des backends au service de backend. Dans la console Google Cloud , accédez à la page Backends.
- Cliquez sur Créer un service de backend.
- Dans la boîte de dialogue Créer un service de backend, cliquez sur Créer à côté de Service de backend régional.
- Dans le champ Nom, saisissez le nom du service de backend :
tutorial-backend-service-sp2
. - Pour le paramètre Région, sélectionnez us-west1.
- Pour Type d'équilibreur de charge, sélectionnez Équilibreur de charge d'application interne régional (INTERNAL_MANAGED).
- Définissez Type de backend sur Groupe d'instances.
- Dans la section Backends, définissez les champs suivants :
- Définissez le Groupe d'instances sur tutorial-sp2-mig-a.
- Saisissez les numéros de port :
80
. - Définissez le Mode d'équilibrage sur Utilisation.
- Cliquez sur OK.
- Dans la section Vérification d'état, cliquez sur Créer une vérification d'état et définissez les champs suivants :
- Nom :
tutorial-regional-health-check
- Protocole :
HTTP
- Port :
80
- Cliquez sur Enregistrer.
- Nom :
- Cliquez sur Continuer.
- Cliquez sur Créer.
Répétez les étapes précédentes pour créer un groupe d'instances géré,
tutorial-sp2-mig-b
, et l'ajouter au service de backend,tutorial-backend-service-sp2
.
gcloud
- Sélectionnez le projet de service que vous avez créé :
gcloud config set project SERVICE_PROJECT_2_ID
Créez un modèle d'instance de VM,
tutorial-ig-template-sp2
, avec un serveur HTTP :gcloud compute instance-templates create tutorial-ig-template-sp2 \ --region=us-west1 \ --network=projects/SERVICE_PROJECT_1_ID/global/networks/lb-network \ --subnet=projects/SERVICE_PROJECT_1_ID/regions/us-west1/subnetworks/lb-frontend-and-backend-subnet \ --tags=allow-ssh,load-balanced-backend \ --image-family=debian-12 \ --image-project=debian-cloud \ --metadata=startup-script='#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" \ http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | \ tee /var/www/html/index.html systemctl restart apache2' \ --project=SERVICE_PROJECT_2_ID
Remplacez les éléments suivants :
SERVICE_PROJECT_1_ID
: ID du projet hôte de VPC partagé.SERVICE_PROJECT_2_ID
: ID du projet de service dans lequel les backends de l'équilibreur de charge et le service de backend sont créés.
Créez un groupe d'instances géré,
tutorial-sp2-mig-a
dans la région :gcloud compute instance-groups managed create tutorial-sp2-mig-a \ --region=us-west1 \ --size=2 \ --template=tutorial-ig-template-sp2 \ --project=SERVICE_PROJECT_2_ID
Définissez la vérification de l'état HTTP,
tutorial-regional-health-check
:gcloud compute health-checks create http tutorial-regional-health-check \ --region=us-west1 \ --use-serving-port \ --project=SERVICE_PROJECT_2_ID
Définissez le service de backend,
tutorial-backend-service-sp2
:gcloud compute backend-services create tutorial-backend-service-sp2 \ --load-balancing-scheme=INTERNAL_MANAGED \ --protocol=HTTP \ --health-checks=tutorial-regional-health-check \ --health-checks-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_2_ID
Ajoutez des backends au service de backend à l'aide de la commande
gcloud compute backend-services add-backend
:gcloud compute backend-services add-backend tutorial-backend-service-sp2 \ --balancing-mode=UTILIZATION \ --instance-group=tutorial-sp2-mig-a \ --instance-group-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_2_ID
Créez un autre groupe d'instances géré,
tutorial-sp2-mig-b
, dans la région :gcloud compute instance-groups managed create tutorial-sp2-mig-b \ --region=us-west1 \ --size=2 \ --template=tutorial-ig-template-sp2 \ --project=SERVICE_PROJECT_2_ID
Ajoutez des backends au service de backend :
gcloud compute backend-services add-backend tutorial-backend-service-sp2 \ --balancing-mode=UTILIZATION \ --instance-group=tutorial-sp2-mig-b \ --instance-group-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_2_ID
Créer un service de backend et des MIG dans le projet de service 3
Toutes les étapes de cette section doivent être effectuées dans le projet de service 3.
Console
Créez un modèle d'instance. Dans la console Google Cloud , accédez à la page Modèles d'instances.
Accéder à la page Modèles d'instances
- Cliquez sur Créer un modèle d'instance.
- Dans le champ Nom, saisissez le nom du modèle d'instance :
tutorial-ig-template-sp3
. - Dans la section Emplacement, sélectionnez Régional (recommandé) et us-west1(Oregon) comme Région.
- Dans la section Configuration de la machine, sélectionnez N2 comme série.
- Assurez-vous que le disque de démarrage est défini sur une image Debian, telle que Debian GNU/Linux 12 (bookworm). Ces instructions utilisent des commandes uniquement disponibles dans Debian, comme
apt-get
. Si vous devez modifier le disque de démarrage, cliquez sur Modifier.- Pour Système d'exploitation, sélectionnez Debian.
- Pour Version, sélectionnez l'une des images Debian disponibles, telles que Debian GNU/Linux 12 (bookworm).
- Cliquez sur Sélectionner.
- Cliquez sur Options avancées, puis sur Mise en réseau.
- Saisissez les tags réseau suivants :
allow-ssh
,load-balanced-backend
. - Dans la section Interfaces réseau, sélectionnez Réseaux partagés avec moi (depuis le projet hôte : SERVICE_PROJECT_1_ID).
- Sélectionnez le sous-réseau
lb-frontend-and-backend-subnet
dans le réseaulb-network
. - Cliquez sur Gestion. Pour Gestion, insérez le script suivant dans le champ Script de démarrage.
#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | tee /var/www/html/index.html systemctl restart apache2
- Cliquez sur Créer.
Créez un groupe d'instances géré. Dans la console Google Cloud , accédez à la page Groupes d'instances.
Accéder à la page "Groupes d'instances"
- Cliquez sur Créer un groupe d'instances.
- Choisissez Nouveau groupe d'instances géré (sans état). Pour plus d'informations, consultez la page Groupes d'instances gérés (MIG) sans état ou avec état.
- Pour le champ Nom, saisissez le nom du groupe d'instances :
tutorial-sp3-mig-a
. - Pour Modèle d'instance, sélectionnez tutorial-ig-template-sp3.
- Pour Emplacement, sélectionnez Zone unique.
- Pour Région, sélectionnez
us-west1
. Spécifiez le nombre d'instances que vous souhaitez créer au sein du groupe.
Pour cet exemple, spécifiez les options suivantes sous Autoscaling :
- Dans le champ Mode autoscaling, sélectionnez
Off:do not autoscale
. - Dans le champ Nombre maximal d'instances, saisissez
2
.
- Dans le champ Mode autoscaling, sélectionnez
Cliquez sur Créer.
Créez un service de backend régional. Dans le cadre de cette étape, nous allons également créer la vérification de l'état et ajouter des backends au service de backend. Dans la console Google Cloud , accédez à la page Backends.
- Cliquez sur Créer un service de backend.
- Dans la boîte de dialogue Créer un service de backend, cliquez sur Créer à côté de Service de backend régional.
- Dans le champ Nom, saisissez le nom du service de backend :
tutorial-backend-service-sp3
. - Pour le paramètre Région, sélectionnez us-west1.
- Pour Type d'équilibreur de charge, sélectionnez Équilibreur de charge d'application interne régional (INTERNAL_MANAGED).
- Définissez Type de backend sur Groupe d'instances.
- Dans la section Backends, définissez les champs suivants :
- Définissez le Groupe d'instances sur tutorial-sp3-mig-a.
- Saisissez les numéros de port :
80
. - Définissez le Mode d'équilibrage sur Utilisation.
- Cliquez sur OK.
- Dans la section Vérification d'état, cliquez sur Créer une vérification d'état et définissez les champs suivants :
- Nom :
tutorial-regional-health-check
- Protocole :
HTTP
- Port :
80
- Cliquez sur Enregistrer.
- Nom :
- Cliquez sur Continuer.
- Cliquez sur Créer.
Répétez les étapes précédentes pour créer un groupe d'instances géré,
tutorial-sp3-mig-b
, et l'ajouter au service de backend,tutorial-backend-service-sp3
.
gcloud
- Sélectionnez le projet de service que vous avez créé :
gcloud config set project SERVICE_PROJECT_3_ID
Créez un modèle d'instance de VM,
tutorial-ig-template-sp3
, avec un serveur HTTP :gcloud compute instance-templates create tutorial-ig-template-sp3 \ --region=us-west1 \ --network=projects/SERVICE_PROJECT_1_ID/global/networks/lb-network \ --subnet=projects/SERVICE_PROJECT_1_ID/regions/us-west1/subnetworks/lb-frontend-and-backend-subnet \ --tags=allow-ssh,load-balanced-backend \ --image-family=debian-12 \ --image-project=debian-cloud \ --metadata=startup-script='#! /bin/bash apt-get update apt-get install apache2 -y a2ensite default-ssl a2enmod ssl vm_hostname="$(curl -H "Metadata-Flavor:Google" \ http://metadata.google.internal/computeMetadata/v1/instance/name)" echo "Page served from: $vm_hostname" | \ tee /var/www/html/index.html systemctl restart apache2' \ --project=SERVICE_PROJECT_3_ID
Remplacez les éléments suivants :
SERVICE_PROJECT_1_ID
: ID du projet hôte de VPC partagé.SERVICE_PROJECT_3_ID
: ID du projet de service dans lequel les backends de l'équilibreur de charge et le service de backend sont créés.
Créez un groupe d'instances géré,
tutorial-sp3-mig-a
dans la région :gcloud compute instance-groups managed create tutorial-sp3-mig-a \ --region=us-west1 \ --size=2 \ --template=tutorial-ig-template-sp3 \ --project=SERVICE_PROJECT_3_ID
Définissez la vérification de l'état HTTP,
tutorial-regional-health-check
:gcloud compute health-checks create http tutorial-regional-health-check \ --region=us-west1 \ --use-serving-port \ --project=SERVICE_PROJECT_3_ID
Définissez le service de backend,
tutorial-backend-service-sp3
:gcloud compute backend-services create tutorial-backend-service-sp3 \ --load-balancing-scheme=INTERNAL_MANAGED \ --protocol=HTTP \ --health-checks=tutorial-regional-health-check \ --health-checks-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_3_ID
Ajoutez des backends au service de backend à l'aide de la commande
gcloud compute backend-services add-backend
:gcloud compute backend-services add-backend tutorial-backend-service-sp3 \ --balancing-mode=UTILIZATION \ --instance-group=tutorial-sp3-mig-a \ --instance-group-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_3_ID
Créez un autre groupe d'instances géré,
tutorial-sp3-mig-b
, dans la région :gcloud compute instance-groups managed create tutorial-sp3-mig-b \ --region=us-west1 \ --size=2 \ --template=tutorial-ig-template-sp3 \ --project=SERVICE_PROJECT_3_ID
Ajoutez des backends au service de backend :
gcloud compute backend-services add-backend tutorial-backend-service-sp3 \ --balancing-mode=UTILIZATION \ --instance-group=tutorial-sp3-mig-b \ --instance-group-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_3_ID
Créer le mappage d'URL et la règle de transfert dans le projet de service 1
Toutes les étapes de cette section doivent être effectuées dans le projet de service 1.
Console
Démarrer la configuration
Dans la console Google Cloud , accédez à la page Équilibrage de charge.
- Cliquez sur Créer un équilibreur de charge.
- Dans le champ Type d'équilibreur de charge, sélectionnez Équilibreur de charge d'application (HTTP/HTTPS), puis cliquez sur Suivant.
- Pour Public ou interne, sélectionnez Interne, puis cliquez sur Suivant.
- Pour Déploiement interrégional ou dans une seule région, sélectionnez Recommandé pour les charges de travail régionales, puis cliquez sur Suivant.
- Cliquez sur Configurer.
Configuration de base
- Saisissez un nom pour l'équilibreur de charge,
tutorial-url-maps
. - Dans la liste Région, sélectionnez
us-west1
. Dans la liste Réseau, sélectionnez lb-network (dans Projet : SERVICE_PROJECT_1_ID).
Si le message d'avertissement Sous-réseau proxy réservé obligatoire dans le réseau VPC partagé s'affiche, confirmez que l'administrateur du projet hôte a créé l'adresse
proxy-only-subnet
dans la régionus-west1
du réseau VPC partagélb-network
. La création de l'équilibreur de charge réussit même si vous ne disposez pas des autorisations nécessaires pour afficher le sous-réseau proxy réservé sur cette page.Laissez la fenêtre ouverte pour continuer.
Configurer le backend
- Cliquez sur Configuration du backend.
- Cliquez sur Services de backend multiprojets.
- Dans le champ ID du projet, saisissez l'ID du projet du projet de service 2.
- Dans le champ Nom du service de backend, saisissez le nom du service de backend du projet de service 2 que vous souhaitez utiliser. Dans cet exemple, il s'agit de
tutorial-backend-service-sp2
. - Cliquez sur Ajouter le service de backend.
- Dans le champ ID du projet, saisissez l'ID du projet du projet de service 3.
- Dans le champ Nom du service de backend, saisissez le nom du service de backend du projet de service 3 que vous souhaitez utiliser. Dans cet exemple, il s'agit de
tutorial-backend-service-sp3
. - Cliquez sur Ajouter le service de backend.
Configurer les règles de routage
- Cliquez sur Règles de routage.
- Dans la section Règles d'hôte et de chemin d'accès, dans le champ Hôte 2, saisissez
*
. - Dans le champ Chemins d'accès 2, saisissez
/*
. - Dans la liste déroulante Backend 2, sélectionnez
tutorial-backend-service-sp2
. - Cliquez sur Ajouter une règle d'hôte et de chemin d'accès.
- Dans le champ Hôte 3, saisissez
tutorial-host
. - Dans le champ Chemins d'accès 3, saisissez
/*
. Dans la liste déroulante Backend 3, sélectionnez
tutorial-backend-service-sp3
.Cherchez la coche bleue à gauche des règles d'hôte et de chemin d'accès, puis cliquez sur le bouton Mettre à jour.
Pour en savoir plus sur la gestion du trafic, consultez la page Configurer la gestion du trafic.
Configurer l'interface
Pour que la référence multiprojet fonctionne, l'interface doit utiliser le même réseau (lb-network
) que celui utilisé pour créer le service de backend.
- Cliquez sur Configuration de l'interface.
- Saisissez un nom pour la règle de transfert :
l7-ilb-forwarding-rule
. - Définissez le paramètre Protocole sur
HTTP
. - Définissez le paramètre Sous-réseau sur
lb-frontend-and-backend-subnet
. Ne sélectionnez pas le sous-réseau proxy réservé pour l'interface, même s'il s'agit d'une option de la liste déroulante. - Définissez le paramètre Port sur
80
. - Dans le champ Adresse IP, conservez l'option par défaut Éphémère (automatique).
- Cliquez sur OK.
Vérifier et finaliser la configuration
- Cliquez sur Créer.
gcloud
Sélectionnez le projet de service que vous avez créé :
gcloud config set project SERVICE_PROJECT_1_ID
Créez le mappage d'URL,
tutorial-url-maps
, et définissez le service par défaut sur le service de backend créé dans le projet de service 1 :gcloud compute url-maps create tutorial-url-maps \ --default-service=projects/SERVICE_PROJECT_2_ID/regions/us-west1/backendServices/tutorial-backend-service-sp2 \ --region=us-west1 \ --project=SERVICE_PROJECT_1_ID
Remplacez les éléments suivants :
SERVICE_PROJECT_2_ID
: ID du projet de service 2, dans lequel les backends de l'équilibreur de charge et le service de backend sont créés.SERVICE_PROJECT_1_ID
: ID du projet de service 1, dans lequel l'interface de l'équilibreur de charge est créée.
Créez le proxy cible,
tutorial-http-proxy
:gcloud compute target-http-proxies create tutorial-http-proxy \ --url-map=tutorial-url-maps \ --url-map-region=us-west1 \ --region=us-west1 \ --project=SERVICE_PROJECT_1_ID
Créez la règle de transfert
l7-ilb-forwarding-rule
pour gérer le trafic HTTP. Pour que la référence de service multiprojet fonctionne, la règle de transfert doit utiliser le même réseau (lb-network
) que celui du projet hôte de VPC partagé utilisé pour créer le service de backend.gcloud compute forwarding-rules create l7-ilb-forwarding-rule \ --load-balancing-scheme=INTERNAL_MANAGED \ --network=projects/SERVICE_PROJECT_1_ID/global/networks/lb-network \ --subnet=projects/SERVICE_PROJECT_1_ID/regions/us-west1/subnetworks/lb-frontend-and-backend-subnet \ --address=l7-ilb-ip-address \ --ports=80 \ --region=us-west1 \ --target-http-proxy=tutorial-http-proxy \ --target-http-proxy-region=us-west1 \ --project=SERVICE_PROJECT_1_ID
Pour envoyer du trafic vers le service de backend, associez le mappage d'URL au service de backend. Pour en savoir plus, consultez Utiliser des mappages d'URL.
Associez le service de backend
tutorial-backend-service-sp2
dans le projet de service 2 au mappage d'URLtutorial-url-maps
et au nom de l'outil de mise en correspondance des chemins d'accèstutorial-path-matcher-sp2
:gcloud compute url-maps add-path-matcher tutorial-url-maps \ --path-matcher-name=tutorial-path-matcher-sp2 \ --default-service=projects/SERVICE_PROJECT_2_ID/regions/us-west1/backendServices/tutorial-backend-service-sp2 \ --region=us-west1
Associez le service de backend,
tutorial-backend-service-sp3
dans le projet de service 3, au mappage d'URL,tutorial-url-maps
, et au nom du comparateur de chemin d'accès,tutorial-path-matcher-sp3
. Ajoutez une règle d'hôtetutorial-host
avec les hôtes indiqués afin que l'outil de mise en correspondance des chemins d'accès soit associé à la nouvelle règle d'hôte.gcloud compute url-maps add-path-matcher tutorial-url-maps \ --path-matcher-name=tutorial-path-matcher-sp3 \ --default-service=projects/SERVICE_PROJECT_3_ID/regions/us-west1/backendServices/tutorial-backend-service-sp3 \ --region=us-west1 \ --new-hosts=tutorial-host
Tester l'équilibreur de charge
Pour tester l'équilibreur de charge, commencez par créer un exemple de VM cliente. Établissez ensuite une session SSH avec la VM et envoyez le trafic de cette VM à l'équilibreur de charge.
Créer une instance de VM de test
Les clients peuvent se situer dans le projet hôte du VPC partagé ou dans n'importe quel projet de service connecté. Dans cet exemple, vous déployez une VM cliente dans le projet de service 1 désigné comme projet hôte de VPC partagé pour tester le fonctionnement de l'équilibreur de charge. Le client doit utiliser le même réseau VPC partagé et se trouver dans la même région que l'équilibreur de charge.
Toutes les étapes de cette section doivent être effectuées dans le projet de service 2.
Console
Dans la console Google Cloud , accédez à la page Instances de VM.
Cliquez sur Créer une instance.
Dans le champ Nom, saisissez
client-vm
.Définissez Zone sur us-west1-b.
Cliquez sur Options avancées, puis sur Mise en réseau.
Saisissez les tags réseau suivants :
allow-ssh
,load-balanced-backend
.Dans la section Interfaces réseau, sélectionnez Réseaux partagés avec moi (depuis le projet hôte : SERVICE_PROJECT_1_ID).
Sélectionnez le sous-réseau
lb-frontend-and-backend-subnet
dans le réseaulb-network
.Cliquez sur Créer.
gcloud
Créez une instance de VM de test.
gcloud compute instances create client-vm \ --image-family=debian-12 \ --image-project=debian-cloud \ --subnet=projects/SERVICE_PROJECT_1_ID/regions/us-west1/subnetworks/lb-frontend-and-backend-subnet \ --zone=us-west1-b \ --tags=allow-ssh \ --project=SERVICE_PROJECT_2_ID
Envoyer du trafic vers l'équilibreur de charge
Utilisez SSH pour vous connecter à l'instance que vous venez de créer et pour vérifier que les services HTTP(S) sur les backends sont accessibles via l'adresse IP de la règle de transfert de l'équilibreur de charge d'application interne et que le trafic fait l'objet d'un équilibrage de charge sur les instances backend.
Récupérez la valeur de l'adresse IP de l'équilibreur de charge :
gcloud compute addresses list --filter="name=( 'l7-ilb-ip-address')"
Vous obtenez un résultat semblable à celui-ci :
NAME: l7-ilb-ip-address ADDRESS/RANGE: 10.1.2.2 TYPE: INTERNAL PURPOSE: GCE_ENDPOINT NETWORK: REGION: us-west1 SUBNET: lb-frontend-and-backend-subnet STATUS: IN_USE
Copiez le
ADDRESS/RANGE
du service (par exemple,10.1.2.2
) à partir du résultat pour l'utiliser dans les étapes suivantes.Connectez-vous à l'instance cliente avec SSH :
gcloud compute ssh client-vm \ --zone=us-west1-b \ --project=SERVICE_PROJECT_2_ID
Vérifiez que l'adresse IP de l'équilibreur de charge diffuse son nom d'hôte :
Vérifiez que l'adresse IP diffuse son nom d'hôte dans le projet de service 2 :
curl 10.1.2.2
Vous obtenez un résultat semblable à celui-ci :
Page served from: tutorial-sp2-mig-a-10xk
Vérifiez que l'adresse IP diffuse son nom d'hôte dans le projet de service 3 :
curl -H "Host: tutorial-host" 10.1.2.2
Vous obtenez un résultat semblable à celui-ci :
Page served from: tutorial-sp3-mig-a-3d5h
Accorder des autorisations IAM
Attribuez les rôles et autorisations IAM appropriés aux projets hôte et de service App Hub.
Console
Dans la console Google Cloud , accédez à la page de sélection du projet.
Dans la console Google Cloud , accédez à la page IAM.
Cliquez sur
Accorder l'accès. Le volet Accorder l'accès s'affiche.Dans le champ Nouveaux comptes principaux, saisissez l'adresse e-mail de la personne qui administrera App Hub, c'est-à-dire le rôle Administrateur App Hub dans le projet hôte App Hub.
Cliquez sur Sélectionner un rôle, puis saisissez
App Hub
dans le champ Filtre.Sélectionnez le rôle Administrateur App Hub, puis cliquez sur Enregistrer.
Dans chacun des projets de service App Hub, attribuez le rôle Administrateur App Hub au même utilisateur.
gcloud
Pour attribuer les rôles aux personnes qui utiliseront le hub d'applications, répétez la commande suivante en remplaçant les rôles IAM, si nécessaire. Pour en savoir plus, consultez Rôles et autorisations App Hub.
gcloud projects add-iam-policy-binding HOST_PROJECT_ID \ --member='user:HOST_PROJECT_ADMIN' \ --role='roles/apphub.admin'
Remplacez
HOST_PROJECT_ADMIN
par l'utilisateur qui dispose du rôle d'administrateur App Hub dans le projet hôte App Hub. Cette valeur est au formatusername@yourdomain
(par exemple,222larabrown@gmail.com
).Attribuez le rôle "Administrateur App Hub" dans le projet de service aux personnes qui administrent App Hub. Ils doivent disposer du rôle "Administrateur App Hub" pour ajouter des projets de service au projet hôte. Vous avez besoin d'au moins une personne disposant de ce rôle pour chaque projet de service.
gcloud projects add-iam-policy-binding SERVICE_PROJECT_ID \ --member='user:HOST_PROJECT_ADMIN' \ --role='roles/apphub.admin'
Remplacez
SERVICE_PROJECT_ID
par l'ID des projets de service.
Associer les projets de service
Les projets de service sont des projets Google Cloud qui contiennent des ressources d'infrastructure que vous pouvez enregistrer dans une application App Hub. Pour en savoir plus, consultez Projets de service. Associez les projets de service sur lesquels vous avez déployé les ressources au projet hôte App Hub.
Console
Dans la console Google Cloud , accédez à la page Paramètres d'App Hub.
Sur la page Paramètres, cliquez sur Associer des projets.
Dans le volet qui s'ouvre, recherchez les projets dans la liste affichée et cochez les cases correspondant à ceux que vous souhaitez ajouter en tant que projets de service.
Cliquez sur Sélectionner. Le tableau Projets de service associés affiche les projets de service sélectionnés.
Cliquez sur Fermer.
gcloud
Associez les projets de service 1, 2 et 3 à votre projet hôte App Hub.
gcloud apphub service-projects add SERVICE_PROJECT_1_ID \ --project=HOST_PROJECT_ID
gcloud apphub service-projects add SERVICE_PROJECT_2_ID \ --project=HOST_PROJECT_ID
gcloud apphub service-projects add SERVICE_PROJECT_3_ID \ --project=HOST_PROJECT_ID
Vérifiez que vous avez associé les projets de service App Hub au projet hôte App Hub :
gcloud apphub service-projects list --project=HOST_PROJECT_ID
Une fois le projet de service associé au projet hôte App Hub, vous pouvez afficher toutes les ressources Google Cloud du projet de service associé en tant que services et charges de travail App Hub détectés. Pour savoir comment afficher ces services et charges de travail détectés, consultez Afficher les applications, les services et les charges de travail existants.
Créer une application
Créez une application qui servira de conteneur pour vos services et charges de travail. Lorsque vous créez une application, vous pouvez lui attribuer des propriétés immuables telles qu'un type de champ d'application ou un emplacement à partir duquel vous souhaitez enregistrer des ressources, ainsi que des attributs de variables tels que la criticité et l'environnement. Vous pouvez utiliser les attributs de variable pour filtrer les applications. Pour en savoir plus, consultez Propriétés et attributs.
Dans ce tutoriel, vous allez créer une application globale pour vous aider à gérer les ressources globales et régionales dans une seule application. Si vous souhaitez regrouper vos ressources d'une région spécifique, vous pouvez créer une application régionale et enregistrer ces ressources. Pour savoir comment créer une application régionale, consultez Configurer App Hub.
Console
- Assurez-vous d'être dans le projet hôte App Hub.
Dans la console Google Cloud , accédez à la page Applications d'App Hub.
Cliquez sur Créer une application.
Sur la page Créer une application, dans le volet Choisir la région et le nom de l'application, sélectionnez Global.
Dans le champ Nom de l'application, saisissez
tutorial-application
. Ce nom est un identifiant unique et ne peut pas être modifié après la création de l'application.Saisissez un nom à afficher,
Tutorial
, puis cliquez sur Continuer. Il s'agit d'un nom descriptif que vous pouvez modifier. Pour en savoir plus, consultez Mettre à jour une application existante.Dans le volet Ajouter des attributs, sélectionnez Élevée dans la liste Criticité. La criticité indique l'importance d'une application, d'un service ou d'une charge de travail pour vos opérations commerciales.
Dans le champ Environnement, sélectionnez Production pour indiquer l'étape du cycle de vie du logiciel.
Cliquez sur Continuer.
Dans le volet Ajouter des propriétaires, ajoutez les informations suivantes pour les propriétaires développeurs, les propriétaires opérateurs et les propriétaires d'entreprise. Notez que vous devez saisir l'adresse e-mail du propriétaire si vous ajoutez un nom à afficher.
- Saisissez le nom à afficher du propriétaire.
- Saisissez l'adresse e-mail du propriétaire. Cette valeur doit être au format
username@yourdomain
, par exemple222larabrown@gmail.com
.
Répétez ces étapes pour chaque développeur, opérateur et propriétaire de l'entreprise.
Cliquez sur Créer.
La nouvelle application est créée et listée sur la page Applications. Notez que seuls la règle de transfert, le mappage d'URL, le service de backend et le groupe d'instances géré (MIG) deviennent disponibles en tant que ressources découvertes dans l'application App Hub. Pour en savoir plus, consultez Concepts et modèle de données.
gcloud
Sélectionnez le projet hôte App Hub que vous avez créé :
gcloud config set project HOST_PROJECT_ID
Créez une application nommée
tutorial-application
dans la régionglobal
et attribuez-lui un nom à afficher,Tutorial
. Ce nom d'application,tutorial-application
, est un identifiant unique et ne peut pas être modifié après la création de l'application. Le nom à afficher,Tutorial
est un nom convivial que vous pouvez modifier. Pour en savoir plus, consultez Mettre à jour une application existante.gcloud apphub applications create tutorial-application \ --display-name='Tutorial' \ --scope-type=GLOBAL \ --project=HOST_PROJECT_ID \ --location=global
Répertoriez les applications dans votre projet hôte App Hub :
gcloud apphub applications list \ --project=HOST_PROJECT_ID \ --location=global
Vous obtenez un résultat semblable à celui-ci :
ID DISPLAY_NAME CREATE_TIME tutorial-application Tutorial 2023-10-31T18:33:48
Mettez à jour votre application avec les attributs
criticality-type
,environment-type
et owner :gcloud apphub applications update tutorial-application \ --criticality-type='HIGH' \ --environment-type='PRODUCTION' \ --developer-owners=display-name=DISPLAY-NAME-DEVELOPER,email=EMAIL-DEVELOPER \ --operator-owners=display-name=DISPLAY-NAME-OPERATOR,email=EMAIL-OPERATOR \ --business-owners=display-name=DISPLAY-NAME-BUSINESS,email=EMAIL-BUSINESS \ --project=HOST_PROJECT_ID \ --location=global
Remplacez les éléments suivants :
DISPLAY-NAME-DEVELOPER
,DISPLAY-NAME-OPERATOR
etDISPLAY-NAME-BUSINESS
: noms à afficher du développeur, de l'opérateur et des propriétaires de l'entreprise, respectivement.EMAIL-NAME-DEVELOPER
,EMAIL-NAME-OPERATOR
etEMAIL-NAME-BUSINESS
: adresses e-mail du développeur, de l'opérateur et des propriétaires de l'entreprise, respectivement. Ces valeurs doivent respecter le formatusername@yourdomain
(par exemple,222larabrown@gmail.com
).
Remarques :
criticality-type
: indique le degré de criticité d'une application, d'un service ou d'une charge de travail pour vos opérations commerciales.environment-type
: indique les étapes du cycle de vie du logiciel.
Obtenez des informations sur l'application que vous avez créée :
gcloud apphub applications describe tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
La commande renvoie des informations au format YAML, semblables à ce qui suit :
attributes: businessOwners: – displayName: [DISPLAY-NAME-BUSINESS] email: [EMAIL-BUSINESS] criticality: type: HIGH developerOwners: – displayName: [DISPLAY-NAME-DEVELOPER] email: [EMAIL-DEVELOPER] environment: type: PRODUCTION operatorOwners: – displayName: [DISPLAY-NAME-OPERATOR] email: [EMAIL-OPERATOR] createTime: '2023-10-31T18:33:48.199394108Z' displayName: Tutorial name: projects/HOST_PROJECT_ID/locations/global/applications/tutorial-application scope: type: REGIONAL state: ACTIVE uid: 9d991a9d-5d8a-4c0d-b5fd-85e39fb58c73 updateTime: '2023-10-31T18:33:48.343303819Z'
Enregistrer des services et des charges de travail
L'enregistrement de services et de charges de travail les ajoute à une application qui vous permet de surveiller les ressources ajoutées.
Console
Dans la console Google Cloud , accédez à la page Applications d'App Hub.
Cliquez sur le nom de votre application, Tutorial. L'onglet Services et charges de travail affiche la liste des services et charges de travail enregistrés dans vos projets de service App Hub.
Enregistrer un service :
- Dans l'onglet Services et charges de travail, cliquez sur Enregistrer un service/une charge de travail.
- Sur la page Enregistrer un service ou une charge de travail, dans le volet Sélectionner une ressource, cliquez sur Parcourir pour sélectionner le service ou la charge de travail en tant que Ressource.
- Dans le volet Sélectionner une ressource, choisissez le nom du service, tutorial-backend-service-sp2, puis cliquez sur Sélectionner.
- Dans le volet Sélectionner une ressource, saisissez le nom de la ressource,
tutorial-service-backend-sp2
. - Saisissez un nom à afficher,
Backend service (SP2)
, puis cliquez sur Continuer. - Dans le volet Ajouter des attributs, dans la liste Criticité, sélectionnez Élevée pour indiquer l'importance de l'application.
- Dans le champ Environnement, sélectionnez Production pour indiquer l'étape du cycle de vie du logiciel.
- Cliquez sur Continuer.
- Dans le volet Ajouter des propriétaires, ajoutez les informations requises pour les propriétaires développeurs, les propriétaires opérateurs et les propriétaires d'entreprise.
Notez que vous devez saisir l'adresse e-mail du propriétaire si vous ajoutez un nom à afficher.
- Saisissez le nom à afficher du propriétaire.
- Saisissez l'adresse e-mail du propriétaire. Cette valeur doit être au format
username@yourdomain
, par exemple222larabrown@gmail.com
.
- Répétez ces étapes pour chaque développeur, opérateur et propriétaire de l'entreprise.
- Cliquez sur S'inscrire.
Dans l'onglet Services et charges de travail, dans la section Services et charges de travail enregistrés, vous pouvez voir le nouveau service ajouté.
- Répétez les étapes précédentes pour enregistrer les autres services en tant que tutorial-service-backend-sp3, tutorial-service-forwarding-rule et tutorial-service-url-map, respectivement.
- Enregistrez une charge de travail en répétant les étapes précédentes pour enregistrer un service, à l'exception des points suivants :
- Dans le volet Enregistrer un service ou une charge de travail, dans la section Choisir un service ou une charge de travail, sélectionnez le nom de la charge de travail, tutorial-sp2-mig-a, puis cliquez sur Continuer.
- Dans le volet Sélectionner une ressource, saisissez le nom de la ressource,
tutorial-workload-sp2-mig-a
. - Saisissez un nom à afficher,
Instance group - A (SP2)
, puis cliquez sur Continuer.
- Répétez les étapes précédentes pour enregistrer les autres charges de travail en tant que tutorial-workload-sp2-mig-a, tutorial-workload-sp2-mig-b, tutorial-workload-sp3-mig-a et tutorial-workload-sp3-mig-b, respectivement.
gcloud
Ajoutez une personne disposant des autorisations d'éditeur App Hub :
gcloud projects add-iam-policy-binding HOST_PROJECT_ID \ --member='user:APP_HUB_EDITOR' \ --role='roles/apphub.editor'
Remplacez
APP_HUB_EDITOR
par l'utilisateur qui dispose du rôle d'éditeur App Hub dans le projet hôte App Hub. Cette valeur est au formatusername@yourdomain
(par exemple,222larabrown@gmail.com
).Répertoriez tous les services découverts dans le projet hôte App Hub. Cette commande renvoie les services qui peuvent être enregistrés dans une application.
gcloud apphub discovered-services list \ --project=HOST_PROJECT_ID \ --location=us-west1
Vous obtenez un résultat semblable à celui-ci :
ID SERVICE_REFERENCE SERVICE_PROPERTIES
BACKEND_SERVICE_SP2_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/regions/us-west1/backendServices/tutorial-backend-service-sp2'} {'gcpProject': 'projects/SERVICE_PROJECT_2_ID', 'location': 'us-west1'}BACKEND_SERVICE_SP3_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/regions/us-west1/backendServices/tutorial-backend-service-sp3'} {'gcpProject': 'projects/SERVICE_PROJECT_3_ID', 'location': 'us-west1'}FORWARDING_RULE_SERVICE_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_1_NUMBER]/regions/us-west1/forwardingRules/l7-ilb-forwarding-rule'} {'gcpProject': 'projects/SERVICE_PROJECT_1_ID', 'location': 'us-west1'}URL_MAP_SERVICE_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_1_NUMBER]/regions/us-west1/urlMaps/tutorial-url-maps'} {'gcpProject': 'projects/SERVICE_PROJECT_1_ID', 'location': 'us-west1'}Copiez les
ID
de service (par exemple,BACKEND_SERVICE_SP2_ID
) à partir du résultat pour les utiliser à l'étape suivante.Enregistrez les services de l'étape précédente dans votre application. Copiez les ID de service à partir du champ de sortie de l'étape précédente.
gcloud apphub applications services create tutorial-service-backend-sp2 \ --discovered-service='projects/HOST_PROJECT_ID/locations/us-west1/discoveredServices/BACKEND_SERVICE_SP2_ID' \ --display-name='Backend service (SP2)' \ --criticality-type='HIGH' \ --environment-type='PRODUCTION' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications services create tutorial-service-backend-sp3 \ --discovered-service='projects/HOST_PROJECT_ID/locations/us-west1/discoveredServices/BACKEND_SERVICE_SP3_ID' \ --display-name='Backend service (SP3)' \ --criticality-type='HIGH' \ --environment-type='PRODUCTION' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications services create tutorial-service-forwarding-rule \ --discovered-service='projects/HOST_PROJECT_ID/locations/us-west1/discoveredServices/FORWARDING_RULE_SERVICE_ID' \ --display-name='Forwarding rule' \ --criticality-type='HIGH' \ --environment-type='PRODUCTION' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications services create tutorial-service-url-map \ --discovered-service='projects/HOST_PROJECT_ID/locations/us-west1/discoveredServices/URL_MAP_SERVICE_ID' \ --display-name='URL map' \ --criticality-type='HIGH' \ --environment-type='PRODUCTION' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
Remplacez les éléments suivants :
BACKEND_SERVICE_SP2_ID
: serviceID
du service de backend du projet de service 2 que vous souhaitez enregistrer.BACKEND_SERVICE_SP3_ID
: serviceID
du service de backend du projet de service 3 que vous souhaitez enregistrer.FORWARDING_RULE_SERVICE_ID
: serviceID
de la règle de transfert du projet de service 1 que vous souhaitez enregistrer.URL_MAP_SERVICE_ID
: serviceID
de la carte d'URL du projet de service 1 que vous souhaitez enregistrer.
Répertoriez tous les services enregistrés dans l'application :
gcloud apphub applications services list \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
Vous obtenez un résultat semblable à celui-ci :
Les services enregistrés, mais détachés, sont indiqués par une valeur vide dans le champID DISPLAY_NAME SERVICE_REFERENCE CREATE_TIME tutorial-service-backend-sp2 Backend service {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/regions/us-west1/backendServices/tutorial-backend-service-sp2'} 2024-02-13T00:31:45 tutorial-service-backend-sp3 Backend service {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/regions/us-west1/backendServices/tutorial-backend-service-sp3'} 2024-02-13T00:31:45 tutorial-service-forwarding-rule Forwarding rule {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_1_NUMBER]/regions/us-west1/forwardingRules/l7-ilb-forwarding-rule'} 2024-02-13T00:31:45 tutorial-service-url-map URL map {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_1_NUMBER]/regions/us-west1/urlMaps/tutorial-url-maps'} 2024-02-13T00:31:45
SERVICE_REFERENCE
. Pour en savoir plus sur les états d'enregistrement, consultez les propriétés et les attributs d'App Hub.Répertoriez toutes les charges de travail découvertes dans le projet hôte App Hub. Cette commande renvoie les charges de travail qui peuvent être enregistrées dans une application.
gcloud apphub discovered-workloads list \ --project=HOST_PROJECT_ID \ --location=global
Vous obtenez un résultat semblable à celui-ci :
Copiez l'ID de charge de travail à partir du résultat pour l'utiliser à l'étape suivante.ID WORKLOAD_REFERENCE WORKLOAD_PROPERTIES
INSTANCE_GROUP_SP3_A_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp3-mig-a'} {'gcpProject': 'projects/SERVICE_PROJECT_3_ID', 'location': 'us-west1'}INSTANCE_GROUP_SP3_B_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp3-mig-b'} {'gcpProject': 'projects/SERVICE_PROJECT_3_ID', 'location': 'us-west1'}INSTANCE_GROUP_SP2_A_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp2-mig-a'} {'gcpProject': 'projects/SERVICE_PROJECT_2_ID', 'location': 'us-west1'}INSTANCE_GROUP_SP2_B_ID
{'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp2-mig-b'} {'gcpProject': 'projects/SERVICE_PROJECT_2_ID', 'location': 'us-west1'}Enregistrez les charges de travail de l'étape précédente dans votre application. Copiez l'ID de charge de travail à partir du champ de sortie de l'étape précédente.
gcloud apphub applications workloads create tutorial-workload-sp3-mig-a \ --discovered-workload='projects/HOST_PROJECT_ID/locations/us-west1/discoveredWorkloads/INSTANCE_GROUP_SP3_A_ID' \ --display-name='Workload instance group (SP3-A)' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications workloads create tutorial-workload-sp3-mig-b \ --discovered-workload='projects/HOST_PROJECT_ID/locations/us-west1/discoveredWorkloads/INSTANCE_GROUP_SP3_B_ID' \ --display-name='Workload instance group (SP3-B)' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications workloads create tutorial-workload-sp2-mig-a \ --discovered-workload='projects/HOST_PROJECT_ID/locations/us-west1/discoveredWorkloads/INSTANCE_GROUP_SP2_A_ID' \ --display-name='Workload instance group (SP2-A)' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
gcloud apphub applications workloads create tutorial-workload-sp2-mig-b \ --discovered-workload='projects/HOST_PROJECT_ID/locations/us-west1/discoveredWorkloads/INSTANCE_GROUP_SP2_B_ID' \ --display-name='Workload instance group (SP2-B)' \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
Remplacez les éléments suivants :
INSTANCE_GROUP_SP3_A_ID
,INSTANCE_GROUP_SP3_B_ID
:ID
s de charge de travail des groupes d'instances gérés du projet de service 3 que vous souhaitez enregistrer.INSTANCE_GROUP_SP2_A_ID
,INSTANCE_GROUP_SP2_B_ID
: charges de travailID
des groupes d'instances gérés du projet de service 2 que vous souhaitez enregistrer.
Répertoriez toutes les charges de travail enregistrées dans l'application :
gcloud apphub applications workloads list \ --application=tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
Vous obtenez un résultat semblable à celui-ci :
Les charges de travail enregistrées, mais détachées, sont indiquées par une valeur vide dans le champID DISPLAY_NAME SERVICE_REFERENCE CREATE_TIME tutorial-workload-sp3-mig-a Workload instance group (SP3-A) {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp3-mig-a'} 2024-02-13T00:31:45 tutorial-workload-sp3-mig-b Workload instance group (SP3-B) {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_3_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp3-mig-b'} 2024-02-13T00:31:45 tutorial-workload-sp2-mig-a Workload instance group (SP2-A) {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp2-mig-a'} 2024-02-13T00:31:45 tutorial-workload-sp2-mig-b Workload instance group (SP2-B) {'uri': '//compute.googleapis.com/projects/[SERVICE_PROJECT_2_NUMBER]/zones/us-west1-a/instanceGroups/tutorial-sp2-mig-b'} 2024-02-13T00:31:45
WORKLOAD_REFERENCE
. Pour en savoir plus sur les états d'enregistrement, consultez les propriétés et les attributs d'App Hub.
Afficher tous les services et toutes les charges de travail
Vous pouvez afficher les détails des services et des charges de travail des projets de service associés au projet hôte App Hub.
Dans la console Google Cloud , accédez à la page Services et charges de travail du hub d'applications.
Dans la liste Région, sélectionnez global. La charge de travail Groupe d'instances de charge de travail s'affiche avec des détails tels que Type App Hub, Criticité et Enregistré dans.
Pour filtrer les services ou les charges de travail en fonction de leur état :
- Dans le champ Filtre, sélectionnez des filtres tels que État de l'enregistrement.
- Cliquez sur Enregistré. La liste des services et des charges de travail enregistrés dans l'application s'affiche.
Surveiller les applications
La surveillance des applications fournit des tableaux de bord prêts à l'emploi pour surveiller les journaux, les métriques et les incidents des applications App Hub, ainsi que les services et charges de travail enregistrés. Pour en savoir plus, consultez la section Surveillance des applications. Pour afficher ces tableaux de bord :
Dans la console Google Cloud , accédez à la page Applications du hub d'applications.
Effectuez l'une des opérations suivantes :
- Pour afficher le tableau de bord OOTB de premier niveau qui liste les informations récapitulatives pour une liste d'applications enregistrées dans votre projet hôte ou votre dossier compatible avec les applications, cliquez sur Afficher dans Observability.
- Pour afficher le tableau de bord prêt à l'emploi d'une application, procédez comme suit :
- Cliquez sur le nom de l'application.
- Cliquez sur Afficher le tableau de bord "Observabilité".
- Pour afficher le tableau de bord prêt à l'emploi d'un service ou d'une charge de travail spécifique, procédez comme suit :
- Cliquez sur le nom de l'application.
- Sur la ligne affichant le nom du service ou de la charge de travail, cliquez sur
Afficher le tableau de bord d'observabilité.
Pour savoir comment afficher les tableaux de bord, consultez Afficher la télémétrie des applications.
Effectuer un nettoyage
Pour éviter que les ressources utilisées lors de ce tutoriel soient facturées sur votre compte Google Cloud, supprimez le projet contenant les ressources, ou conservez le projet et supprimez les ressources individuelles.
Supprimer les ressources App Hub
Console
Dans la console Google Cloud , accédez à la page Applications du hub d'applications.
Cliquez sur le nom d'une application, Tutoriel.
Dans l'onglet Services et charges de travail, dans la section Services et charges de travail enregistrés, cliquez sur le nom d'un service.
Sur la page Services et charges de travail, cliquez sur Annuler l'enregistrement.
Une alerte indique que le service n'est pas enregistré.
Dans l'onglet Services et charges de travail, dans la section Services et charges de travail enregistrés, cliquez sur le nom d'une charge de travail.
Dans l'onglet Détails, cliquez sur Annuler l'enregistrement.
Une alerte indique que la charge de travail n'est pas enregistrée.
Accédez à la page Applications d'App Hub.
Cliquez sur le nom d'une application.
Sur la page tutorial-application, cliquez sur Supprimer.
Dans la console Google Cloud , accédez à la page Paramètres d'App Hub.
Sur la page Paramètres, cochez la case du projet de service que vous souhaitez supprimer du projet hôte App Hub.
Cliquez sur Dissocier des projets.
gcloud
Répertoriez les services enregistrés dans l'application :
gcloud apphub applications services list \ --application=tutorial-application --project=HOST_PROJECT_ID \ --location=global
Annulez l'enregistrement des services dans l'application :
gcloud apphub applications services delete SERVICE_NAME \ --application=tutorial-application --project=HOST_PROJECT_ID \ --location=global
Remplacez
SERVICE_NAME
par le nom du service. Les services sont désormais des services découverts qui peuvent être enregistrés dans l'application.Répertoriez les charges de travail enregistrées dans l'application :
gcloud apphub applications workloads list \ --application=tutorial-application --project=HOST_PROJECT_ID \ --location=global
Annulez l'enregistrement de la charge de travail dans l'application :
gcloud apphub applications workloads delete WORKLOAD_NAME \ --application=tutorial-application --project=HOST_PROJECT_ID \ --location=global
Remplacez
WORKLOAD_NAME
par le nom de votre charge de travail. La charge de travail est désormais une charge de travail découverte qui peut être enregistrée dans l'application.Supprimez l'application :
gcloud apphub applications delete tutorial-application \ --project=HOST_PROJECT_ID \ --location=global
Supprimez les projets de service du projet hôte App Hub :
gcloud apphub service-projects remove SERVICE_PROJECT_ID \ --project=HOST_PROJECT_ID
Remplacez
SERVICE_PROJECT_ID
par les ID de projet des projets de service 1, 2 et 3.
Supprimer le déploiement
Lorsque vous n'avez plus besoin de la solution, supprimez les ressources que vous avez créées dans cette solution pour éviter de continuer à payer des frais associées à ces ressources.
Pour en savoir plus, consultez la section Nettoyer la configuration de l'équilibreur de charge.Supprimer le projet
Console
- Dans la console Google Cloud , accédez à la page Gérer les ressources.
- Dans la liste des projets, sélectionnez le projet que vous souhaitez supprimer, puis cliquez sur Supprimer.
- Dans la boîte de dialogue, saisissez l'ID du projet, puis cliquez sur Arrêter pour supprimer le projet.
gcloud
Supprimer un projet Google Cloud :
gcloud projects delete PROJECT_ID
Remplacez PROJECT_ID
par les ID des projets hôte ou de service.