Questa pagina spiega come eseguire il provisioning dell'archiviazione SSD locale sui cluster Google Kubernetes Engine (GKE) e come configurare i carichi di lavoro per utilizzare i dati dall'archiviazione a blocchi non elaborati supportata da SSD locale collegata ai nodi del cluster.
L'utilizzo di questa opzione SSD locale ti offre un maggiore controllo sullo spazio di archiviazione sottostante e ti consente di creare una cache a livello di nodo per i pod per offrire prestazioni migliori per le tue applicazioni. Puoi anche personalizzare questa opzione installando un file system sui dischi SSD locali eseguendo un DaemonSet per configurare RAID e formattare i dischi in base alle esigenze.
Per scoprire di più sul supporto degli SSD locali per l'accesso ai blocchi non elaborati su GKE, consulta Informazioni sugli SSD locali.
Prima di iniziare
Prima di iniziare, assicurati di aver eseguito le seguenti operazioni:
- Attiva l'API Google Kubernetes Engine. Attiva l'API Google Kubernetes Engine
- Se vuoi utilizzare Google Cloud CLI per questa attività,
installala e poi
inizializzala. Se hai già installato gcloud CLI, scarica l'ultima versione eseguendo
gcloud components update
.
Crea un cluster o pool di nodi con l'archiviazione a blocchi non elaborata supportata da SSD locale
Utilizza gcloud CLI con l'opzione --local-nvme-ssd-block
per creare
un cluster con archiviazione a blocchi non elaborati supportata da SSD locali.
Il comando gcloud CLI che esegui per creare il cluster o il pool di nodi dipende dalla generazione della serie di macchine a cui appartiene il tipo di macchina che utilizzi. Ad esempio, i tipi di macchine N1 e N2 appartengono rispettivamente a una serie di macchine di prima e seconda generazione, mentre i tipi di macchine C3 appartengono a una serie di macchine di terza generazione.
Crea un cluster con SSD locale
1ª o 2ª generazione
Se utilizzi un tipo di macchina di una serie di macchine di prima o seconda generazione, devi
creare il cluster specificando l'opzione --local-nvme-ssd-block count=NUMBER_OF_DISKS
. L'opzione specifica il numero di
dischi SSD locali da collegare a ogni nodo.
Il numero massimo varia in base al tipo di macchina e alla regione.
Per creare un cluster:
gcloud container clusters create CLUSTER_NAME \
--local-nvme-ssd-block count=NUMBER_OF_DISKS \
--machine-type=MACHINE_TYPE \
--release-channel CHANNEL_NAME
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del cluster.NUMBER_OF_DISKS
: il numero di dischi SSD locali da eseguire il provisioning su ogni nodo. Il numero massimo di dischi varia in base al tipo di macchina e alla regione.MACHINE_TYPE
: il tipo di macchina di prima o seconda generazione da utilizzare. La specifica di questo campo è obbligatoria perché non puoi utilizzare gli SSD locali con il tipoe2-medium
predefinito.CHANNEL_NAME
: un canale di rilascio che include versioni di GKE successive alla 1.25.3-gke.1800.
3ª o 4ª generazione
Se utilizzi un tipo di macchina di una serie di macchine di terza o quarta generazione,
utilizza l'opzione --local-nvme-ssd-block
, senza un campo conteggio, per creare un
cluster. GKE esegue automaticamente il provisioning della capacità SSD locale per il cluster in base alla forma della VM. Il numero massimo varia in base al tipo di macchina e alla regione.
gcloud container clusters create CLUSTER_NAME \
--machine-type=MACHINE_TYPE \
--cluster-version CLUSTER_VERSION \
--local-nvme-ssd-block
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del cluster.MACHINE_TYPE
: il tipo di macchina da utilizzare da una serie di macchine di terza o quarta generazione.CLUSTER_VERSION
: una versione del cluster GKE che supporta l'SSD locale sui tipi di macchine di una serie di macchine di terza o quarta generazione.
Crea un pool di nodi con SSD locale
1ª o 2ª generazione
Per creare un pool di nodi che utilizza dischi SSD locali per l'accesso ai blocchi non elaborati, esegui questo comando:
gcloud container node-pools create POOL_NAME \
--cluster=CLUSTER_NAME \
--machine-type=MACHINE_TYPE \
--local-nvme-ssd-block count=NUMBER_OF_DISKS
Sostituisci quanto segue:
POOL_NAME
: il nome del nuovo pool di nodi.CLUSTER_NAME
: il nome del cluster.MACHINE_TYPE
: il tipo di macchina di prima o seconda generazione da utilizzare. La specifica di questo campo è obbligatoria, in quanto l'SSD locale non può essere utilizzato con il tipoe2-medium
predefinito.NUMBER_OF_DISKS
: il numero di dischi SSD locali da eseguire il provisioning su ogni nodo. Il numero massimo di dischi varia in base al tipo di macchina e alla regione.
3ª o 4ª generazione
Se utilizzi un tipo di macchina di una serie di macchine di terza o quarta generazione,
utilizza l'opzione --local-nvme-ssd-block
, senza un campo conteggio, per creare un
cluster:
gcloud container node-pools create POOL_NAME \
--cluster=CLUSTER_NAME \
--machine-type=MACHINE_TYPE \
--node-version NODE_VERSION \
--local-nvme-ssd-block
Sostituisci quanto segue:
POOL_NAME
: il nome del nuovo pool di nodi.CLUSTER_NAME
: il nome del cluster.MACHINE_TYPE
: il tipo di macchina da utilizzare da un tipo di macchina di terza o quarta generazione.NODE_VERSION
: una versione pool di nodi GKE che supporta l'SSD locale sui tipi di macchine di una serie di macchine di terza o quarta generazione.
I nodi nel pool di nodi vengono creati con un'etichetta cloud.google.com/gke-local-nvme-ssd=true
. Puoi verificare le etichette eseguendo questo comando:
kubectl describe node NODE_NAME
Per ogni SSD locale collegato al pool di nodi, il sistema operativo host crea un collegamento simbolico (symlink) per accedere al disco in una cartella ordinale e un symlink con un
identificatore univoco universale (UUID). Ad esempio, se crei un pool di nodi
con tre SSD locali utilizzando l'opzione --local-nvme-ssd-block
, il sistema operativo host
crea i seguenti link simbolici per i dischi:
/dev/disk/by-id/google-local-ssd-block0
/dev/disk/by-id/google-local-ssd-block1
/dev/disk/by-id/google-local-ssd-block2
Di conseguenza, il sistema operativo host crea anche i seguenti collegamenti simbolici con UUID per i dischi:
/dev/disk/by-uuid/google-local-ssds-nvme-block/local-ssd-GENERATED_UUID1
/dev/disk/by-uuid/google-local-ssds-nvme-block/local-ssd-GENERATED_UUID2
/dev/disk/by-uuid/google-local-ssds-nvme-block/local-ssd-GENERATED_UUID3
In questo modo, è possibile accedere ai dischi utilizzando un identificatore univoco.
Accedere ai volumi SSD locali
L'esempio seguente mostra come accedere allo spazio di archiviazione a blocchi non elaborato supportato da SSD locale.
PersistentVolume locali
I volumi SSD locali possono essere montati come pod utilizzando PersistentVolumes.
Puoi creare PersistentVolume da SSD locale creando manualmente un PersistentVolume o eseguendo il provisioner statico del volume locale.
Limitazioni dei PersistentVolume locali
La scalabilità automatica del cluster e il provisioning dinamico non sono supportati con PersistentVolume locali.
L'upgrade di un cluster GKE o la riparazione dei nodi elimina le istanze Compute Engine, il che elimina anche tutti i dati sui dischi SSD locali.
Non abilitare gli upgrade automatici dei nodi o la riparazione automatica dei nodi per i cluster o i pool di nodi che utilizzano l'SSD locale per i dati permanenti. Devi prima eseguire il backup dei dati dell'applicazione, quindi ripristinarli in un nuovo cluster o pool di nodi.
- Gli oggetti PersistentVolume locali non vengono puliti automaticamente quando un nodo viene eliminato, aggiornato, riparato o ridotto. Ti consigliamo di eseguire periodicamente la scansione ed eliminare gli oggetti PersistentVolume locali obsoleti associati ai nodi eliminati.
Crea manualmente il PersistentVolume
Puoi creare manualmente un PersistentVolume per ogni SSD locale su ogni nodo del cluster.
Utilizza il campo nodeAffinity
in un oggetto PersistentVolume per fare riferimento a un disco
SSD locale su un nodo specifico. L'esempio seguente mostra la specifica PersistentVolume
per SSD locale sui nodi che eseguono Linux:
apiVersion: v1
kind: PersistentVolume
metadata:
name: "example-local-pv"
spec:
capacity:
storage: 375Gi
accessModes:
- "ReadWriteOnce"
persistentVolumeReclaimPolicy: "Retain"
storageClassName: "local-storage"
local:
path: "/mnt/disks/ssd0"
nodeAffinity:
required:
nodeSelectorTerms:
- matchExpressions:
- key: "kubernetes.io/hostname"
operator: "In"
values:
- "gke-test-cluster-default-pool-926ddf80-f166"
In questo esempio, i dischi SSD locali sono configurati manualmente per RAID e
formattati, quindi montati in /mnt/disks/ssd0
sul nodo gke-test-cluster-default-pool-926ddf80-f166
. Il campo nodeAffinity viene utilizzato
per assegnare i carichi di lavoro ai nodi con SSD locali configurati manualmente per RAID. Se hai un solo nodo nel cluster o se hai configurato
RAID per tutti i nodi, il campo nodeAffinity non è necessario.
La specifica PersistentVolumeClaim corrispondente ha il seguente aspetto:
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: ssd-local-claim
spec:
accessModes:
- ReadWriteOnce
storageClassName: local-storage
resources:
requests:
storage: 37Gi
Se elimini PersistentVolume, devi cancellare manualmente i dati dal disco.
Esegui il provisioner statico del volume locale
Puoi creare PersistentVolume per l'SSD locale automaticamente utilizzando il provisioner statico del volume locale. Il provisioner è un DaemonSet che gestisce i dischi SSD locali su ogni nodo, crea ed elimina i PersistentVolume per questi dischi e pulisce i dati sui dischi SSD locali quando il PersistentVolume viene rilasciato.
Per eseguire il provisioner statico del volume locale:
Utilizza un DaemonSet per configurare RAID e formattare i dischi:
- Scarica la specifica
gke-daemonset-raid-disks.yaml
. Esegui il deployment di DaemonSet dei dischi RAID. Il DaemonSet imposta un array RAID 0 su tutti i dischi SSD locali e formatta il dispositivo in un file system
ext4
.kubectl create -f gke-daemonset-raid-disks.yaml
- Scarica la specifica
Scarica la specifica
gke-nvme-ssd-block-raid.yaml
e modifica i campi dello spazio dei nomi della specifica in base alle esigenze.La specifica include le seguenti risorse:
- ServiceAccount per il provisioner
- ClusterRole e ClusterRoleBindings per le autorizzazioni per:
- Creare ed eliminare oggetti PersistentVolume
- Recuperare gli oggetti nodo
- ConfigMap con le impostazioni del provisioner per GKE
- DaemonSet per l'esecuzione del provisioner
Esegui il deployment del provisioner:
kubectl create -f gke-nvme-ssd-block-raid.yaml
Una volta eseguito correttamente, il provisioner crea un oggetto PersistentVolume per il dispositivo SSD locale RAID nel cluster.
Salva il seguente manifest PersistentVolumeClaim come
provisioner-pvc-example.yaml
:kind: PersistentVolumeClaim apiVersion: v1 metadata: name: PVC_NAME spec: accessModes: - ReadWriteOnce resources: requests: storage: 50Gi storageClassName: nvme-ssd-block
Sostituisci
PVC_NAME
con il nome di PersistentVolumeClaim.Crea PersistentVolumeClaim:
kubectl create -f provisioner-pvc-example.yaml
Salva il seguente manifest del pod come
provisioner-pod-example.yaml
:apiVersion: v1 kind: Pod metadata: name: POD_NAME spec: containers: - name: "shell" image: "ubuntu:14.04" command: ["/bin/sh", "-c"] args: ["echo 'hello world' > /cache/test.txt && sleep 1 && cat /cache/test.txt && sleep 3600"] volumeMounts: - mountPath: /cache name: local-ssd-storage volumes: - name: local-ssd-storage persistentVolumeClaim: claimName: PVC_NAME
Sostituisci
POD_NAME
con il nome del tuo pod.Crea il pod:
kubectl create -f provisioner-pod-example.yaml
Abilita l'associazione posticipata del volume
Per una migliore pianificazione, ti consigliamo di creare anche una StorageClass con
volumeBindingMode: WaitForFirstConsumer
. Questo ritarda il binding di PersistentVolumeClaim
fino alla pianificazione del pod, in modo che venga scelto un SSD locale da un nodo appropriato
che possa eseguire il pod. Questo comportamento di pianificazione avanzato prende in considerazione le richieste di CPU e memoria dei pod, l'affinità nodo, l'affinità e l'anti-affinità dei pod e più richieste di PersistentVolumeClaim, oltre a quali nodi dispongono di SSD locali disponibili, quando seleziona un nodo per un pod eseguibile.
Questo esempio utilizza la modalità di binding del volume ritardato:
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: "local-nvme"
provisioner: "kubernetes.io/no-provisioner"
volumeBindingMode: "WaitForFirstConsumer"
Per creare una StorageClass con binding ritardato, salva il manifest YAML in un file locale e applicalo al cluster utilizzando il seguente comando:
kubectl apply -f filename
Risoluzione dei problemi
Per le istruzioni per la risoluzione dei problemi, consulta Risolvere i problemi di archiviazione in GKE.