Questa pagina fornisce istruzioni di avvio rapido per creare un cluster e un pool di nodi, quindi eseguire il deployment di un'applicazione di esempio utilizzando GKE su AWS.
Questa pagina è rivolta agli amministratori IT e agli operatori che vogliono configurare, monitorare e gestire l'infrastruttura cloud. Per scoprire di più sui ruoli comuni e sulle attività di esempio a cui facciamo riferimento nei Google Cloud contenuti, consulta Ruoli e attività utente comuni di GKE Enterprise.
Esegui la configurazione rapida del cluster con Terraform
Puoi utilizzare Terraform per creare un cluster e un pool di nodi. Prima di creare il cluster, gli script Terraform preparano anche il VPC AWS.
Puoi scoprire di più su Terraform in un ambiente AWS nel riferimento al cluster Terraform e nel riferimento pool di nodi Terraform.
Dopo aver creato una VPC e un cluster con Terraform, vai a Eseguire il deployment di un'applicazione nel cluster per eseguire il deployment di un'applicazione di esempio.
Esegui la configurazione rapida del cluster senza Terraform
Se preferisci preparare la tua VPC AWS e creare un cluster e un pool di nodi senza Terraform, segui queste istruzioni.
Prima di iniziare
Prima di creare un cluster, devi completare i prerequisiti. In particolare, devi fornire le seguenti risorse:
- Un VPC AWS in cui verrà eseguito il cluster.
- Fino a tre sottoreti AWS per le tre repliche del piano di controllo. Ognuna deve essere in una zona di disponibilità AWS diversa.
- Il ruolo IAM AWS assunto da GKE su AWS durante la gestione del cluster. Ciò richiede un insieme specifico di autorizzazioni IAM.
- Chiavi CMK simmetriche KMS per la crittografia at-rest dei dati e della configurazione del cluster (etcd).
- Il profilo istanza AWS IAM per ogni replica del piano di controllo. È necessario un insieme specifico di autorizzazioni IAM.
- Una coppia di chiavi SSH EC2 (facoltativa) se hai bisogno di accesso SSH alle istanze EC2 che eseguono ogni replica del control plane.
È tua responsabilità creare e gestire queste risorse, che possono essere condivise tra tutti i tuoi cluster GKE su AWS. Tutte le altre risorse AWS di base basate su cluster sono gestite da GKE su AWS.
Impostare le impostazioni predefinite per l'interfaccia a riga di comando gcloud
Utilizza gcloud CLI per configurare le impostazioni predefinite per il progetto e la Google Cloud regione predefiniti.
Il progetto ha un ID progetto come identificatore univoco. Quando crei un progetto, puoi utilizzare l'ID progetto generato automaticamente o crearne uno personalizzato.
La Google Cloud regione è la località da cui verranno gestiti i tuoi cluster. Ad esempio, us-west1
. Per ulteriori dettagli, consulta la sezione Regioni di gestione.
Quando configuri queste impostazioni predefinite, non è necessario includerle quando esegui Google Cloud CLI. Puoi anche specificare le impostazioni o sostituire quelle predefinite passando i flag --project
e --location
a Google Cloud CLI.
Quando crei risorse GKE su AWS dopo aver configurato il progetto e la località predefiniti, le risorse vengono create automaticamente in quel progetto e in quella località.
Per impostare i valori predefiniti:
Imposta il progetto predefinito:
gcloud config set project PROJECT_ID
Sostituisci
PROJECT_ID
con l'ID progetto.Imposta la località di gestione predefinita:
gcloud config set container_aws/location GOOGLE_CLOUD_LOCATION
Sostituisci
GOOGLE_CLOUD_LOCATION
con la tua località, ad esempious-west1
.
Seleziona gli intervalli CIDR per il cluster
Kubernetes richiede che vengano forniti due intervalli CIDR per il cluster. Questi intervalli CIDR devono essere scelti in modo che non si sovrappongano agli intervalli CIDR utilizzati dalle subnet VPC. Devono essere abbastanza grandi per le dimensioni massime previste del cluster.
Intervallo CIDR dell'indirizzo del pod: quando viene creato un nuovo
Pod
, viene allocato un indirizzo IP da questo intervallo. Intervallo di esempio: 192.168.208.0/20Intervallo CIDR dell'indirizzo del servizio: quando viene creato un nuovo
Service
, viene assegnato un indirizzo IP di questo intervallo. Intervallo di esempio: 192.168.224.0/20
Crea un cluster
Utilizza il seguente comando per creare un cluster in GKE su AWS. Per ulteriori informazioni su questo comando, inclusi i relativi parametri facoltativi, consulta la pagina di riferimento gcloud container aws create.
gcloud container aws clusters create aws-cluster-0 \
--cluster-version 1.31.4-gke.500 \
--aws-region AWS_REGION \
--fleet-project FLEET_PROJECT_ID \
--vpc-id VPC_ID \
--subnet-ids CONTROL_PLANE_SUBNET_1,CONTROL_PLANE_SUBNET_2,CONTROL_PLANE_SUBNET_3 \
--pod-address-cidr-blocks POD_CIDR_BLOCK \
--service-address-cidr-blocks SERVICE_CIDR_BLOCK \
--role-arn API_ROLE_ARN \
--iam-instance-profile CONTROL_PLANE_PROFILE \
--database-encryption-kms-key-arn DB_KMS_KEY_ARN \
--config-encryption-kms-key-arn CONFIG_KMS_KEY_ARN \
--tags "google:gkemulticloud:cluster=aws-cluster-0"
Sostituisci quanto segue:
AWS_REGION
: la regione AWS in cui creare il cluster.FLEET_PROJECT_ID
: il progetto host Parco risorse in cui verrà registrato il clusterVPC_ID
: l'ID della VPC AWS per questo cluster che hai configurato nel passaggio precedente Crea la tua VPCCONTROL_PLANE_SUBNET_1
,CONTROL_PLANE_SUBNET_2
,CONTROL_PLANE_SUBNET_3
: gli ID subnet per le tre istanze del piano di controllo del tuo cluster che hai creato nel passaggio precedente Creare subnet privatePOD_CIDR_BLOCK
: l'intervallo di indirizzi CIDR per i pod del tuo clusterSERVICE_CIDR_BLOCK
: l'intervallo di indirizzi CIDR per i servizi del clusterAPI_ROLE_ARN
: l'ARN del ruolo IAM per il servizio GKE Multi-Cloud che hai creato nel passaggio precedente Creare il ruolo dell'API GKE Multi-CloudCONTROL_PLANE_PROFILE
: il nome del profilo dell'istanza IAM associato al cluster scelto nel passaggio precedente Creare il ruolo del piano di controlloDB_KMS_KEY_ARN
: l'Amazon Resource Name (ARN) di una delle chiavi AWS KMS che hai creato nel passaggio precedente Creare una chiave AWS KMSCONFIG_KMS_KEY_ARN
: l'Amazon Resource Name (ARN) dell'altra chiave KMS AWS che hai creato nel passaggio precedente Creare una chiave KMS AWS
Se presente, il parametro --tags
applica il tag AWS specificato a tutte le risorse AWS sottostanti gestite da GKE su AWS. Questo esempio tagga i nodi del piano di controllo con il nome del cluster a cui appartengono.
Crea un node pool
Utilizza il seguente comando per creare un pool di nodi:
gcloud container aws node-pools create pool-0 \
--cluster aws-cluster-0 \
--node-version 1.31.4-gke.500 \
--min-nodes 1 \
--max-nodes 5 \
--max-pods-per-node 110 \
--root-volume-size 50 \
--subnet-id NODEPOOL_SUBNET_ID \
--iam-instance-profile NODEPOOL_PROFILE \
--config-encryption-kms-key-arn CONFIG_KMS_KEY_ARN \
--ssh-ec2-key-pair EC2_KEY_PAIR \
--tags "google:gkemulticloud:cluster=aws-cluster-0"
Sostituisci quanto segue:
NODEPOOL_SUBNET_ID
: l'ID di una delle subnet private che hai creato nel passaggio precedente Creare subnet privateNODEPOOL_PROFILE
: il nome del profilo istanza IAM per le istanze EC2 nel pool di nodi che hai scelto nel passaggio precedente Creare un ruolo IAM per il pool di nodiCONFIG_KMS_KEY_ARN
: l'Amazon Resource Name (ARN) della chiave AWS KMS per criptare i dati utenteEC2_KEY_PAIR
(facoltativo): il nome della coppia di chiavi EC2 creata per l'accesso SSH (facoltativo) che hai creato nel passaggio precedente Creare una coppia di chiavi SSH
Visualizzare lo stato del cluster
Dopo aver creato un cluster e un pool di nodi, puoi visualizzare lo stato di un cluster con Google Cloud CLI o la Google Cloud console. Per visualizzare lo stato del cluster, scegli se utilizzi Google Cloud CLI o la Google Cloud console e segui questi passaggi:
gcloud
Utilizza il comando gcloud container aws clusters describe
per ottenere i dettagli
sul tuo cluster:
gcloud container aws clusters describe CLUSTER_NAME \
--location GOOGLE_CLOUD_LOCATION
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del clusterGOOGLE_CLOUD_LOCATION
: il nome della Google Cloud posizione che gestisce il cluster
Google Cloud console
Nella Google Cloud console, vai alla pagina Panoramica dei cluster Google Kubernetes Engine.
I cluster sono elencati in base al nome e alla posizione.
Fai clic sul nome del cluster. Viene visualizzato un riquadro con informazioni sul cluster, incluso lo stato e le funzionalità abilitate.
Recupera le credenziali di autenticazione per il cluster
Dopo aver creato il cluster, devi recuperare le credenziali di autenticazione per interagire con il cluster:
gcloud container aws clusters get-credentials aws-cluster-0
Questo comando configura kubectl
per accedere al cluster che hai creato utilizzando
Connect Gateway. Per utilizzare il gateway Connect, devi avere almeno un pool di nodi perché si basa sull'agente Connect, che viene eseguito come deployment nel cluster.
esegui il deployment di un'applicazione nel cluster
Ora che hai creato un cluster, puoi eseguire il deployment di un'applicazione containerizzata. Per questa guida rapida, puoi eseguire il deployment della nostra applicazione web di esempio,
hello-app
.
Utilizzi gli oggetti Kubernetes per creare e gestire le risorse del cluster. L'oggetto Deployment viene utilizzato per eseguire il deployment di applicazioni stateless come i server web. Gli oggetti Service definiscono le regole e i bilanciatori del carico per l'accesso all'applicazione da internet.
Crea il deployment
Per eseguire hello-app
nel cluster, devi eseguire il deployment dell'applicazione eseguendo il seguente comando:
kubectl create deployment hello-server --image=us-docker.pkg.dev/google-samples/containers/gke/hello-app:1.0
Questo comando Kubernetes,
kubectl create deployment
crea un deployment denominato hello-server
. Il pod del deployment esegue l'immagine container hello-app
.
In questo comando:
--image
specifica un'immagine del container di cui eseguire il deployment. In questo caso, il comando estrae l'immagine di esempio da un repository Artifact Registry,us-docker.pkg.dev/google-samples/containers/gke/hello-app
.:1.0
indica la versione specifica dell'immagine di cui va eseguito il pull. Se non specifichi una versione, viene utilizzata l'immagine taggata conlatest
.
Esporre il deployment
Dopo aver eseguito il deployment dell'applicazione, devi esporla a internet in modo che gli utenti possano accedervi. Puoi esporre la tua applicazione creando un servizio, ossia una risorsa Kubernetes che espone l'applicazione al traffico esterno.
Per esporre l'applicazione, esegui il seguente
kubectl expose
comando:
kubectl expose deployment hello-server --type LoadBalancer --port 80 --target-port 8080
L'utilizzo del flag --type LoadBalancer
comporta la creazione di un bilanciatore del carico AWS per il container. Il flag --port
inizializza la porta pubblica 80 su internet e il flag --target-port
instrada il traffico alla porta 8080 dell'applicazione.
I bilanciatori del carico vengono fatturati in base ai prezzi dei bilanciatori del carico AWS.
Ispeziona e visualizza l'applicazione
Controlla i pod in esecuzione utilizzando
kubectl get pods
:kubectl get pods
Dovresti vedere un pod
hello-server
in esecuzione nel cluster.Controlla il servizio
hello-server
utilizzandokubectl get service
:kubectl get service hello-server
Dall'output di questo comando, copia l'indirizzo IP esterno del servizio dalla colonna
EXTERNAL-IP
.Visualizza l'applicazione dal browser web utilizzando l'IP esterno con la porta esposta:
http://EXTERNAL-IP
Hai appena eseguito il deployment di un'applicazione web containerizzata in GKE su AWS.
Esegui la pulizia
Elimina il servizio e il deployment dell'applicazione:
kubectl delete service hello-server kubectl delete deployment hello-server
Elimina il pool di nodi eseguendo
gcloud container aws node-pools delete
:gcloud container aws node-pools delete pool-0 --cluster aws-cluster-0
Elimina il cluster eseguendo
gcloud container aws clusters delete
:gcloud container aws clusters delete aws-cluster-0