Esegui il deployment di un'applicazione su GKE su AWS

Questa pagina fornisce istruzioni di avvio rapido per creare un cluster e un pool di nodi, quindi eseguire il deployment di un'applicazione di esempio utilizzando GKE su AWS.

Questa pagina è rivolta agli amministratori IT e agli operatori che vogliono configurare, monitorare e gestire l'infrastruttura cloud. Per scoprire di più sui ruoli comuni e sulle attività di esempio a cui facciamo riferimento nei Google Cloud contenuti, consulta Ruoli e attività utente comuni di GKE Enterprise.

Esegui la configurazione rapida del cluster con Terraform

Puoi utilizzare Terraform per creare un cluster e un pool di nodi. Prima di creare il cluster, gli script Terraform preparano anche il VPC AWS.

Puoi scoprire di più su Terraform in un ambiente AWS nel riferimento al cluster Terraform e nel riferimento pool di nodi Terraform.

Dopo aver creato una VPC e un cluster con Terraform, vai a Eseguire il deployment di un'applicazione nel cluster per eseguire il deployment di un'applicazione di esempio.

Esegui la configurazione rapida del cluster senza Terraform

Se preferisci preparare la tua VPC AWS e creare un cluster e un pool di nodi senza Terraform, segui queste istruzioni.

Prima di iniziare

Prima di creare un cluster, devi completare i prerequisiti. In particolare, devi fornire le seguenti risorse:

  • Un VPC AWS in cui verrà eseguito il cluster.
  • Fino a tre sottoreti AWS per le tre repliche del piano di controllo. Ognuna deve essere in una zona di disponibilità AWS diversa.
  • Il ruolo IAM AWS assunto da GKE su AWS durante la gestione del cluster. Ciò richiede un insieme specifico di autorizzazioni IAM.
  • Chiavi CMK simmetriche KMS per la crittografia at-rest dei dati e della configurazione del cluster (etcd).
  • Il profilo istanza AWS IAM per ogni replica del piano di controllo. È necessario un insieme specifico di autorizzazioni IAM.
  • Una coppia di chiavi SSH EC2 (facoltativa) se hai bisogno di accesso SSH alle istanze EC2 che eseguono ogni replica del control plane.

È tua responsabilità creare e gestire queste risorse, che possono essere condivise tra tutti i tuoi cluster GKE su AWS. Tutte le altre risorse AWS di base basate su cluster sono gestite da GKE su AWS.

Impostare le impostazioni predefinite per l'interfaccia a riga di comando gcloud

Utilizza gcloud CLI per configurare le impostazioni predefinite per il progetto e la Google Cloud regione predefiniti.

Il progetto ha un ID progetto come identificatore univoco. Quando crei un progetto, puoi utilizzare l'ID progetto generato automaticamente o crearne uno personalizzato.

La Google Cloud regione è la località da cui verranno gestiti i tuoi cluster. Ad esempio, us-west1. Per ulteriori dettagli, consulta la sezione Regioni di gestione.

Quando configuri queste impostazioni predefinite, non è necessario includerle quando esegui Google Cloud CLI. Puoi anche specificare le impostazioni o sostituire quelle predefinite passando i flag --project e --location a Google Cloud CLI.

Quando crei risorse GKE su AWS dopo aver configurato il progetto e la località predefiniti, le risorse vengono create automaticamente in quel progetto e in quella località.

Per impostare i valori predefiniti:

  1. Imposta il progetto predefinito:

    gcloud config set project PROJECT_ID
    

    Sostituisci PROJECT_ID con l'ID progetto.

  2. Imposta la località di gestione predefinita:

    gcloud config set container_aws/location GOOGLE_CLOUD_LOCATION
    

    Sostituisci GOOGLE_CLOUD_LOCATION con la tua località, ad esempio us-west1.

Seleziona gli intervalli CIDR per il cluster

Kubernetes richiede che vengano forniti due intervalli CIDR per il cluster. Questi intervalli CIDR devono essere scelti in modo che non si sovrappongano agli intervalli CIDR utilizzati dalle subnet VPC. Devono essere abbastanza grandi per le dimensioni massime previste del cluster.

  • Intervallo CIDR dell'indirizzo del pod: quando viene creato un nuovo Pod, viene allocato un indirizzo IP da questo intervallo. Intervallo di esempio: 192.168.208.0/20

  • Intervallo CIDR dell'indirizzo del servizio: quando viene creato un nuovo Service, viene assegnato un indirizzo IP di questo intervallo. Intervallo di esempio: 192.168.224.0/20

Crea un cluster

Utilizza il seguente comando per creare un cluster in GKE su AWS. Per ulteriori informazioni su questo comando, inclusi i relativi parametri facoltativi, consulta la pagina di riferimento gcloud container aws create.

gcloud container aws clusters create aws-cluster-0 \
    --cluster-version 1.31.4-gke.500 \
    --aws-region AWS_REGION \
    --fleet-project FLEET_PROJECT_ID \
    --vpc-id VPC_ID \
    --subnet-ids CONTROL_PLANE_SUBNET_1,CONTROL_PLANE_SUBNET_2,CONTROL_PLANE_SUBNET_3 \
    --pod-address-cidr-blocks POD_CIDR_BLOCK \
    --service-address-cidr-blocks SERVICE_CIDR_BLOCK \
    --role-arn API_ROLE_ARN \
    --iam-instance-profile CONTROL_PLANE_PROFILE \
    --database-encryption-kms-key-arn DB_KMS_KEY_ARN \
    --config-encryption-kms-key-arn CONFIG_KMS_KEY_ARN \
    --tags "google:gkemulticloud:cluster=aws-cluster-0"

Sostituisci quanto segue:

  • AWS_REGION: la regione AWS in cui creare il cluster.
  • FLEET_PROJECT_ID: il progetto host Parco risorse in cui verrà registrato il cluster
  • VPC_ID: l'ID della VPC AWS per questo cluster che hai configurato nel passaggio precedente Crea la tua VPC
  • CONTROL_PLANE_SUBNET_1, CONTROL_PLANE_SUBNET_2, CONTROL_PLANE_SUBNET_3: gli ID subnet per le tre istanze del piano di controllo del tuo cluster che hai creato nel passaggio precedente Creare subnet private
  • POD_CIDR_BLOCK: l'intervallo di indirizzi CIDR per i pod del tuo cluster
  • SERVICE_CIDR_BLOCK: l'intervallo di indirizzi CIDR per i servizi del cluster
  • API_ROLE_ARN: l'ARN del ruolo IAM per il servizio GKE Multi-Cloud che hai creato nel passaggio precedente Creare il ruolo dell'API GKE Multi-Cloud
  • CONTROL_PLANE_PROFILE: il nome del profilo dell'istanza IAM associato al cluster scelto nel passaggio precedente Creare il ruolo del piano di controllo
  • DB_KMS_KEY_ARN: l'Amazon Resource Name (ARN) di una delle chiavi AWS KMS che hai creato nel passaggio precedente Creare una chiave AWS KMS
  • CONFIG_KMS_KEY_ARN: l'Amazon Resource Name (ARN) dell'altra chiave KMS AWS che hai creato nel passaggio precedente Creare una chiave KMS AWS

Se presente, il parametro --tags applica il tag AWS specificato a tutte le risorse AWS sottostanti gestite da GKE su AWS. Questo esempio tagga i nodi del piano di controllo con il nome del cluster a cui appartengono.

Crea un node pool

Utilizza il seguente comando per creare un pool di nodi:

gcloud container aws node-pools create pool-0 \
    --cluster aws-cluster-0 \
    --node-version 1.31.4-gke.500 \
    --min-nodes 1 \
    --max-nodes 5 \
    --max-pods-per-node 110 \
    --root-volume-size 50 \
    --subnet-id NODEPOOL_SUBNET_ID \
    --iam-instance-profile NODEPOOL_PROFILE \
    --config-encryption-kms-key-arn CONFIG_KMS_KEY_ARN \
    --ssh-ec2-key-pair EC2_KEY_PAIR \
    --tags "google:gkemulticloud:cluster=aws-cluster-0"

Sostituisci quanto segue:

  • NODEPOOL_SUBNET_ID: l'ID di una delle subnet private che hai creato nel passaggio precedente Creare subnet private
  • NODEPOOL_PROFILE: il nome del profilo istanza IAM per le istanze EC2 nel pool di nodi che hai scelto nel passaggio precedente Creare un ruolo IAM per il pool di nodi
  • CONFIG_KMS_KEY_ARN: l'Amazon Resource Name (ARN) della chiave AWS KMS per criptare i dati utente
  • EC2_KEY_PAIR (facoltativo): il nome della coppia di chiavi EC2 creata per l'accesso SSH (facoltativo) che hai creato nel passaggio precedente Creare una coppia di chiavi SSH

Visualizzare lo stato del cluster

Dopo aver creato un cluster e un pool di nodi, puoi visualizzare lo stato di un cluster con Google Cloud CLI o la Google Cloud console. Per visualizzare lo stato del cluster, scegli se utilizzi Google Cloud CLI o la Google Cloud console e segui questi passaggi:

gcloud

Utilizza il comando gcloud container aws clusters describe per ottenere i dettagli sul tuo cluster:

gcloud container aws clusters describe CLUSTER_NAME \
    --location GOOGLE_CLOUD_LOCATION

Sostituisci quanto segue:

  • CLUSTER_NAME: il nome del cluster
  • GOOGLE_CLOUD_LOCATION: il nome della Google Cloud posizione che gestisce il cluster

Google Cloud console

  1. Nella Google Cloud console, vai alla pagina Panoramica dei cluster Google Kubernetes Engine.

    Vai ai cluster GKE

  2. I cluster sono elencati in base al nome e alla posizione.

  3. Fai clic sul nome del cluster. Viene visualizzato un riquadro con informazioni sul cluster, incluso lo stato e le funzionalità abilitate.

Recupera le credenziali di autenticazione per il cluster

Dopo aver creato il cluster, devi recuperare le credenziali di autenticazione per interagire con il cluster:

gcloud container aws clusters get-credentials aws-cluster-0

Questo comando configura kubectl per accedere al cluster che hai creato utilizzando Connect Gateway. Per utilizzare il gateway Connect, devi avere almeno un pool di nodi perché si basa sull'agente Connect, che viene eseguito come deployment nel cluster.

esegui il deployment di un'applicazione nel cluster

Ora che hai creato un cluster, puoi eseguire il deployment di un'applicazione containerizzata. Per questa guida rapida, puoi eseguire il deployment della nostra applicazione web di esempio, hello-app.

Utilizzi gli oggetti Kubernetes per creare e gestire le risorse del cluster. L'oggetto Deployment viene utilizzato per eseguire il deployment di applicazioni stateless come i server web. Gli oggetti Service definiscono le regole e i bilanciatori del carico per l'accesso all'applicazione da internet.

Crea il deployment

Per eseguire hello-app nel cluster, devi eseguire il deployment dell'applicazione eseguendo il seguente comando:

kubectl create deployment hello-server --image=us-docker.pkg.dev/google-samples/containers/gke/hello-app:1.0

Questo comando Kubernetes, kubectl create deployment crea un deployment denominato hello-server. Il pod del deployment esegue l'immagine container hello-app.

In questo comando:

  • --image specifica un'immagine del container di cui eseguire il deployment. In questo caso, il comando estrae l'immagine di esempio da un repository Artifact Registry,us-docker.pkg.dev/google-samples/containers/gke/hello-app. :1.0 indica la versione specifica dell'immagine di cui va eseguito il pull. Se non specifichi una versione, viene utilizzata l'immagine taggata con latest.

Esporre il deployment

Dopo aver eseguito il deployment dell'applicazione, devi esporla a internet in modo che gli utenti possano accedervi. Puoi esporre la tua applicazione creando un servizio, ossia una risorsa Kubernetes che espone l'applicazione al traffico esterno.

Per esporre l'applicazione, esegui il seguente kubectl expose comando:

kubectl expose deployment hello-server --type LoadBalancer --port 80 --target-port 8080

L'utilizzo del flag --type LoadBalancer comporta la creazione di un bilanciatore del carico AWS per il container. Il flag --port inizializza la porta pubblica 80 su internet e il flag --target-port instrada il traffico alla porta 8080 dell'applicazione.

I bilanciatori del carico vengono fatturati in base ai prezzi dei bilanciatori del carico AWS.

Ispeziona e visualizza l'applicazione

  1. Controlla i pod in esecuzione utilizzando kubectl get pods:

    kubectl get pods
    

    Dovresti vedere un pod hello-server in esecuzione nel cluster.

  2. Controlla il servizio hello-server utilizzando kubectl get service:

    kubectl get service hello-server
    

    Dall'output di questo comando, copia l'indirizzo IP esterno del servizio dalla colonna EXTERNAL-IP.

  3. Visualizza l'applicazione dal browser web utilizzando l'IP esterno con la porta esposta:

    http://EXTERNAL-IP
    

Hai appena eseguito il deployment di un'applicazione web containerizzata in GKE su AWS.

Esegui la pulizia

  1. Elimina il servizio e il deployment dell'applicazione:

    kubectl delete service hello-server
    kubectl delete deployment hello-server
    
  2. Elimina il pool di nodi eseguendo gcloud container aws node-pools delete:

    gcloud container aws node-pools delete pool-0 --cluster aws-cluster-0
    
  3. Elimina il cluster eseguendo gcloud container aws clusters delete:

    gcloud container aws clusters delete aws-cluster-0
    

Passaggi successivi