Il driver CSI Filestore è il modo principale per utilizzare le istanze Filestore con Google Kubernetes Engine (GKE). Il driver CSI Filestore offre un'esperienza completamente gestita basata sul driver CSI Google Cloud Filestore open source.
La versione del driver CSI Filestore è legata ai numeri delle versioni secondarie di Kubernetes. La versione del driver CSI Filestore è in genere l'ultima disponibile al momento del rilascio della versione secondaria di Kubernetes. I driver vengono aggiornati automaticamente quando viene eseguito l'upgrade del cluster all'ultima patch GKE.
Vantaggi
Il driver CSI Filestore offre i seguenti vantaggi:
Hai accesso allo spazio di archiviazione NFS completamente gestito tramite le API Kubernetes (
kubectl
).Puoi utilizzare il driver CSI Filestore di GKE per eseguire il provisioning dinamico dei volumi permanenti.
Puoi utilizzare le istantanee del volume con il driver CSI GKE Filestore. Gli snapshot dei volumi CSI possono essere utilizzati per creare backup di Filestore.
Un backup di Filestore crea una copia differenziale della condivisione file, inclusi tutti i dati e i metadati dei file, e la archivia separatamente dall'istanza. Puoi ripristinare questa copia solo in una nuova istanza Filestore. Il ripristino in un'istanza Filestore esistente non è supportato. Puoi utilizzare l'API di istantanee dei volumi CSI per attivare i backup di Filestore aggiungendo un campo
type:backup
nella classe di istantanee dei volumi.Puoi utilizzare l'espansione del volume con il driver CSI Filestore di GKE. L'espansione del volume consente di ridimensionare la capacità del volume.
Puoi accedere alle istanze Filestore esistenti utilizzando le istanze Filestore preprovisionate nei carichi di lavoro Kubernetes. Puoi anche creare o eliminare dinamicamente le istanze Filestore e usarle nei carichi di lavoro Kubernetes con un StorageClass o un Deployment.
Supporta i multishare Filestore per GKE. Questa funzionalità ti consente di creare un'istanza Filestore e di allocare contemporaneamente più volumi permanenti montati su NFS di dimensioni inferiori su un numero qualsiasi di cluster GKE.
Requisiti
Per utilizzare il driver CSI Filestore, i cluster devono utilizzare il numero di versione GKE corretto applicabile al tuo livello di servizio. Sono supportati solo i seguenti livelli di servizio:
- HDD base con GKE 1.21 o versioni successive
- SSD base con GKE 1.21 o versioni successive
- Zonale (da 10 a 100 TiB) con GKE versione 1.27 o successive
- Enterprise con GKE 1.25 o versioni successive
- Per utilizzare la funzionalità di condivisione multipla di Filestore, i cluster devono utilizzare GKE 1.25 o versioni successive.
Il driver CSI Filestore è supportato per i cluster che utilizzano solo Linux. I nodi Windows Server non sono supportati.
La dimensione minima dell'istanza per Filestore è di almeno 1 TiB. La dimensione minima dell'istanza dipende dal livello di servizio Filestore selezionato. Per saperne di più, consulta la sezione Livelli di servizio.
Filestore utilizza il protocollo del file system NFSv3 sull'istanza Filestore e supporta qualsiasi client compatibile con NFSv3.
Prima di iniziare
Prima di iniziare, assicurati di aver eseguito le seguenti operazioni:
- Abilita l'API Cloud Filestore e l'API Google Kubernetes Engine. Abilita le API
- Se vuoi utilizzare Google Cloud CLI per questa attività,
installa e poi
inizializza gcloud CLI. Se hai già installato gcloud CLI, ottieni la versione più recente eseguendo
gcloud components update
.
- Se vuoi utilizzare Filestore su una rete VPC condivisa, consulta le istruzioni di configurazione aggiuntive in Utilizzare Filestore con VPC condiviso.
Abilita il driver CSI Filestore in un nuovo cluster
Per abilitare il driver CSI Filestore durante la creazione di un nuovo cluster standard, segui questi passaggi con Google Cloud CLI o la console Google Cloud.
gcloud
gcloud container clusters create CLUSTER_NAME \
--addons=GcpFilestoreCsiDriver \
--cluster-version=VERSION
Sostituisci quanto segue:
CLUSTER_NAME
: il nome del tuo cluster.VERSION
: il numero di versione di GKE. Per utilizzare questa funzionalità, devi selezionare un numero di versione supportato. Per informazioni dettagliate, consulta [#requirements]. In alternativa, puoi utilizzare il flag--release-channel
e specificare un canale di rilascio.
Console
Vai alla pagina Google Kubernetes Engine nella console Google Cloud.
Fai clic su add_box Crea.
Scegli la modalità cluster Standard, quindi fai clic su Configura.
Configura il cluster in base alle tue esigenze.
Nel riquadro di navigazione, in Cluster, fai clic su Funzionalità.
Seleziona la casella di controllo Abilita driver CSI Filestore.
Fai clic su Crea.
Se vuoi utilizzare Filestore su una rete VPC condivisa, consulta Attivare il driver CSI Filestore su un nuovo cluster con VPC condiviso.
Dopo aver attivato il driver CSI Filestore, puoi utilizzarlo nei volumi Kubernetes utilizzando il nome del driver e del provisioning: filestore.csi.storage.gke.io
.
Attivare il driver CSI Filestore in un cluster esistente
Per abilitare il driver CSI Filestore nei cluster esistenti, utilizza Google Cloud CLI o la console Google Cloud.
Per attivare il driver in un cluster esistente, completa i seguenti passaggi:
gcloud
gcloud container clusters update CLUSTER_NAME \
--update-addons=GcpFilestoreCsiDriver=ENABLED
Sostituisci CLUSTER_NAME
con il nome del cluster esistente.
Console
Vai alla pagina Google Kubernetes Engine nella console Google Cloud.
Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.
In Funzionalità, fai clic su edit Modifica driver CSI Filestore accanto al campo Driver CSI Filestore.
Seleziona la casella di controllo Abilita driver CSI Filestore.
Fai clic su Salva modifiche.
Disattivare il driver CSI Filestore
Puoi disattivare il driver CSI Filestore su un cluster Autopilot o Standard esistente utilizzando l'interfaccia a Google Cloud CLI o la console Google Cloud.
gcloud
gcloud container clusters update CLUSTER_NAME \
--update-addons=GcpFilestoreCsiDriver=DISABLED \
--region REGION
Sostituisci i seguenti valori:
CLUSTER_NAME
: il nome del cluster esistente.REGION
: la regione del cluster (ad esempious-central1
).
Console
Nella console Google Cloud, vai al menu Google Kubernetes Engine.
Nell'elenco dei cluster, fai clic sul nome del cluster da modificare.
In Funzionalità, fai clic su edit Modifica driver CSI Filestore accanto al campo Driver CSI Filestore.
Deseleziona la casella di controllo Abilita il driver CSI Filestore.
Fai clic su Salva modifiche.
Accedere alle istanze Filestore preesistenti utilizzando il driver CSI Filestore
Questa sezione descrive la procedura tipica per utilizzare un volume Kubernetes per accedere alle istanze Filestore preesistenti utilizzando il driver CSI Filestore in GKE:
Crea un PersistentVolume e un PersistentVolumeClaim per accedere all'istanza
Crea un file manifest come quello mostrato nell'esempio seguente e chiamalo
preprov-filestore.yaml
:apiVersion: v1 kind: PersistentVolume metadata: name: PV_NAME spec: storageClassName: "" capacity: storage: 1Ti accessModes: - ReadWriteMany persistentVolumeReclaimPolicy: Retain volumeMode: Filesystem csi: driver: filestore.csi.storage.gke.io volumeHandle: "modeInstance/FILESTORE_INSTANCE_LOCATION/FILESTORE_INSTANCE_NAME/FILESTORE_SHARE_NAME" volumeAttributes: ip: FILESTORE_INSTANCE_IP volume: FILESTORE_SHARE_NAME claimRef: name: PVC_NAME namespace: NAMESPACE --- kind: PersistentVolumeClaim apiVersion: v1 metadata: name: PVC_NAME namespace: NAMESPACE spec: accessModes: - ReadWriteMany storageClassName: "" resources: requests: storage: 1Ti
Per creare le risorse
PersistentVolumeClaim
ePersistentVolume
in base al file manifestpreprov-filestore.yaml
, esegui il seguente comando:kubectl apply -f preprov-filestore.yaml
Quindi, procedi a creare un deployment che consumi il volume.
Creare un volume utilizzando il driver CSI Filestore
Le seguenti sezioni descrivono la procedura tipica per l'utilizzo di un volume Kubernetes supportato da un driver CSI Filestore in GKE:
- Creare una classe di archiviazione
- Utilizza un oggetto PersistentVolumeClaim per accedere al volume
- Creare un deployment che utilizza il volume
Crea una classe StorageClass
Dopo aver attivato il driver CSI Filestore, GKE installa automaticamente le seguenti StorageClasses per il provisioning delle istanze Filestore:
zonal-rwx
, utilizzando il livello Filestore zonale. Disponibile solo per l'intervallo di capacità più elevato (da 10 a 100 TiB).enterprise-rwx
, utilizzando il livello Enterprise di Filestore, dove ogni volume persistente Kubernetes viene mappato a un'istanza Filestore.enterprise-multishare-rwx
, utilizzando il livello Enterprise di Filestore, dove ogni PersistentVolume Kubernetes mappa a una quota di una determinata istanza Filestore. Per saperne di più, consulta Multishare Filestore per Google Kubernetes Engine.standard-rwx
, utilizzando il livello di servizio HDD base Filestore.premium-rwx
, utilizzando il livello di servizio SSD base Filestore.
Ogni StorageClass è disponibile solo nei cluster GKE in esecuzione nei rispettivi numeri di versione GKE supportati. Per un elenco delle versioni supportate richieste per ogni livello di servizio, consulta Requisiti.
Per trovare il nome di StorageClass
installato, esegui il seguente
comando:
kubectl get sc
Puoi anche installare un altro StorageClass
che utilizza il driver CSI Filestore
aggiungendo filestore.csi.storage.gke.io
nel campo provisioner
.
Filestore deve sapere su quale rete creare la nuova istanza. Le classi di archiviazione installate automaticamente utilizzano la rete predefinita creata per i cluster GKE. Se hai eliminato questa rete o vuoi utilizzare una rete diversa, devi creare un nuovo StorageClass come descritto nei passaggi che seguono. In caso contrario, le classi StorageClass installate automaticamente non funzioneranno.
Salva il seguente manifest come
filestore-example-class.yaml
:apiVersion: storage.k8s.io/v1 kind: StorageClass metadata: name: filestore-example provisioner: filestore.csi.storage.gke.io volumeBindingMode: Immediate allowVolumeExpansion: true parameters: tier: standard network: default
Nel file manifest, considera la seguente configurazione del parametro:
- L'impostazione di
volumeBindingMode
suImmediate
consente di iniziare immediatamente il provisioning del volume. Questo è possibile perché le istanze Filestore sono accessibili da qualsiasi zona. Pertanto, GKE non deve conoscere la zona in cui è pianificato il pod, diversamente dal disco permanente Compute Engine. Se impostato suWaitForFirstConsumer
, GKE avvia il provisioning solo dopo la pianificazione del pod. Per ulteriori informazioni, consulta VolumeBindingMode. - Qualsiasi livello Filestore supportato può essere specificato nel parametro
tier
(ad esempioBASIC_HDD
,BASIC_SSD
,ZONAL
oENTERPRISE
). - Il parametro
network
può essere utilizzato per eseguire il provisioning delle istanze Filestore su VPC diverse da quelle predefinite. Per le VPC non predefinite è necessario configurare regole firewall speciali.
- L'impostazione di
Per creare una risorsa
StorageClass
in base al file manifestfilestore-example-class.yaml
, esegui il seguente comando:kubectl create -f filestore-example-class.yaml
Se vuoi utilizzare Filestore su una rete VPC condivisa, consulta Creare un StorageClass quando si utilizza il driver CSI Filestore con VPC condiviso.
Usa un oggetto PersistentVolumeClaim per accedere al volume
Puoi creare una risorsa PersistentVolumeClaim
che fa riferimento al StorageClass
del driver CSI Filestore.
Puoi utilizzare un StorageClass
preinstallato o personalizzato.
Il seguente file manifest di esempio crea un PersistentVolumeClaim
che fa riferimento al StorageClass
denominato filestore-example
.
Salva il seguente file manifest come
pvc-example.yaml
:kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteMany storageClassName: filestore-example resources: requests: storage: 1Ti
Per creare una risorsa
PersistentVolumeClaim
in base al file manifestpvc-example.yaml
, esegui il seguente comando:kubectl create -f pvc-example.yaml
Crea un deployment che utilizza il volume
Il manifest di deployment di esempio seguente utilizza la risorsa PersistentVolume
denominata pvc-example.yaml
.
Più pod possono condividere la stessa risorsa PersistentVolumeClaim
.
Salva il seguente manifest come
filestore-example-deployment.yaml
:apiVersion: apps/v1 kind: Deployment metadata: name: web-server-deployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metadata: labels: app: nginx spec: containers: - name: nginx image: nginx volumeMounts: - mountPath: /usr/share/nginx/html name: mypvc volumes: - name: mypvc persistentVolumeClaim: claimName: podpvc --- kind: PersistentVolumeClaim apiVersion: v1 metadata: name: podpvc spec: accessModes: - ReadWriteMany storageClassName: filestore-example resources: requests: storage: 1Ti
Per creare un deployment in base al file manifest
filestore-example-deployment.yaml
, esegui il seguente comando:kubectl apply -f filestore-example-deployment.yaml
Verifica che il deployment sia stato creato correttamente:
kubectl get deployment
Il completamento del provisioning delle istanze Filestore potrebbe richiedere un po' di tempo. Prima di questa data, i deployment non registreranno uno stato
READY
. Puoi controllare lo stato di avanzamento monitorando lo stato della PVC eseguendo il seguente comando:kubectl get pvc
Al termine del provisioning del volume, dovresti vedere che il PVC raggiunge lo stato
BOUND
.
Etichetta le istanze Filestore
Puoi utilizzare le etichette per raggruppare le istanze correlate e archiviare i metadati di un'istanza. Un'etichetta è una coppia chiave-valore che ti aiuta a organizzare le istanze Filestore. Puoi associare un'etichetta a ogni risorsa e filtrare le risorse in base alle etichette.
Puoi fornire le etichette utilizzando la chiave labels
in StorageClass.parameters
.
Un'istanza Filestore può essere etichettata con informazioni su per cosa è stata creata
PersistentVolumeClaim
/PersistentVolume
. Le chiavi e i valori delle etichette personalizzate devono essere conformi alla convenzione di denominazione delle etichette.
Consulta l'esempio di classe di archiviazione Kubernetes per applicare etichette personalizzate all'istanza Filestore.
Utilizzare fsgroup con i volumi Filestore
Kubernetes utilizza fsGroup
per modificare le autorizzazioni e la proprietà del volume in modo che corrispondano a un fsGroup
richiesto dall'utente nel SecurityContext del pod.
Un fsGroup
è un gruppo supplementare che si applica a tutti i container in un pod.
Puoi
applicare un gruppo fs
ai volumi di cui è stato eseguito il provisioning dal driver CSI Filestore.
Configurare le regole di accesso IP con i volumi Filestore
Filestore supporta le regole di controllo dell'accesso basato su IP per i volumi. Questa funzionalità è disponibile nei cluster GKE che eseguono la versione 1.29.5 o successive.
Questa funzionalità consente agli amministratori di specificare quali intervalli di indirizzi IP sono autorizzati ad accedere a un'istanza Filestore di cui è stato eseguito il provisioning in modo dinamico tramite GKE. In questo modo, la sicurezza viene migliorata limitando l'accesso solo ai client autorizzati, in particolare in scenari in cui l'intervallo IP del cluster GKE è troppo ampio, esponendo potenzialmente l'istanza Filestore a utenti o applicazioni non autorizzati.
Queste regole possono essere configurate direttamente tramite l'API Filestore o tramite il driver CSI Filestore quando viene creato un volume. Puoi fornire la configurazione selezionata in formato JSON in StorageClass utilizzando il parametro nfs-export-options-on-create
.
Il seguente manifest di esempio mostra come specificare la configurazione:
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: filestore-example
provisioner: filestore.csi.storage.gke.io
volumeBindingMode: Immediate
allowVolumeExpansion: true
parameters:
tier: "enterprise"
nfs-export-options-on-create: '[
{
"accessMode": "READ_WRITE",
"ipRanges": [
"10.0.0.0/24"
],
"squashMode": "ROOT_SQUASH",
"anonUid": "1003",
"anonGid": "1003"
},
{
"accessMode": "READ_WRITE",
"ipRanges": [
"10.0.0.0/28"
],
"squashMode": "NO_ROOT_SQUASH"
}
]'
Opzioni di sicurezza
Le regole di accesso IP di Filestore semplificano la configurazione delle autorizzazioni di archiviazione dei file condivisi per i tuoi carichi di lavoro GKE. Tuttavia, per capire come gestisce la proprietà e l'accesso ai file, è necessario comprendere alcuni concetti chiave:
Mappature NFS e utente NFS (Network File System) è il protocollo utilizzato da Filestore. Funziona mappando gli utenti sui sistemi client (i tuoi pod GKE) agli utenti sul server Filestore. Se un file sul server è di proprietà dell'ID utente 1003 e un client si connette con l'ID utente 1003, avrà accesso al file.
Compressione delle radici e
anonUid
:L'appiattimento dei privilegi di root
ROOT_SQUASH
è una funzionalità di sicurezza che impedisce ai client di accedere all'istanza Filestore con privilegi di root completi. Quando la funzionalità root squash è attiva, gli utenti root sui sistemi client vengono mappati a un utente non privilegiato specificato dall'impostazioneanonUid
.Nessun root squash (
NO_ROOT_SQUASH
) consente ai client di accedere all'istanza Filestore con privilegi root completi, il che è comodo per la configurazione iniziale, ma meno sicuro per le operazioni regolari.
Configurazione iniziale e autorizzazioni:per impostazione predefinita, una nuova istanza Filestore è interamente di proprietà dell'utente root. Se attivi l'accorciamento delle autorizzazioni di root senza prima configurare le autorizzazioni per altri utenti, perderai l'accesso. Per questo motivo, è necessaria almeno una regola di esportazione NFS con
NO_ROOT_SQUASH
per configurare inizialmente l'accesso per altri utenti e gruppi.
Consigli
- Configurazione iniziale: inizia sempre con almeno una regola di esportazione NFS che specifichi un intervallo di amministratori con autorizzazioni
READ_WRITE
e consenta l'accessoNO_ROOT_SQUASH
. Utilizza questo accesso per creare directory, impostare autorizzazioni e assegnare la proprietà in base alle esigenze. - Sicurezza: attiva lo squashing del root (
ROOT_SQUASH
) per migliorare la sicurezza. Tieni presente che dopo aver creato un volume, puoi modificare le regole di accesso solo tramite l'API Filestore. - Accesso condiviso: utilizza
fsGroup
nei contesti di sicurezza dei pod per gestire la proprietà di gruppo dei volumi condivisi. Assicurati di non sovrapporre l'impostazione con la modalitàROOT_SQUASH
. In questo modo viene restituito un messaggio di erroreAccess denied
.
Utilizzare Filestore con VPC condiviso
Questa sezione spiega come utilizzare un'istanza Filestore su una rete VPC condiviso da un progetto di servizio.
Configurare un cluster con VPC condiviso
Per configurare i cluster con una rete VPC condiviso:
- Crea un progetto host e di servizio.
- Abilita l'API Google Kubernetes Engine sia nei progetti host che in quelli di servizio.
- Nel progetto host, crea una rete e una subnet.
- Abilita la rete VPC condivisa nel progetto host.
- Nel progetto host, concedi l'associazione del ruolo utente
HostServiceAgent
per l'account di servizio GKE del progetto di servizio. - Abilita l'accesso privato ai servizi sulla VPC condiviso condivisa.
Attivare il driver CSI Filestore in un nuovo cluster con VPC condiviso
Per abilitare il driver CSI Filestore su un nuovo cluster con VPC condiviso, segui questi passaggi:
Verifica le sottoreti e gli intervalli secondari utilizzabili. Quando crei un cluster, devi specificare una subnet e gli intervalli di indirizzi IP secondari da utilizzare per i pod e il servizio del cluster.
gcloud container subnets list-usable \ --project=SERVICE_PROJECT_ID \ --network-project=HOST_PROJECT_ID
L'output è simile al seguente:
PROJECT REGION NETWORK SUBNET RANGE HOST_PROJECT_ID us-central1 shared-net tier-1 10.0.4.0/22 ┌──────────────────────┬───────────────┬─────────────────────────────┐ │ SECONDARY_RANGE_NAME │ IP_CIDR_RANGE │ STATUS │ ├──────────────────────┼───────────────┼─────────────────────────────┤ │ tier-1-pods │ 10.4.0.0/14 │ usable for pods or services │ │ tier-1-services │ 10.0.32.0/20 │ usable for pods or services │ └──────────────────────┴───────────────┴─────────────────────────────┘
Creare un cluster GKE. Gli esempi riportati di seguito mostrano come utilizzare gcloud CLI per creare un cluster Autopilot o Standard configurato per VPC condiviso. I seguenti esempi utilizzano i nomi della rete, della subnet e dell'intervallo di Creazione di una rete e due subnet.
Autopilot
gcloud container clusters create-auto tier-1-cluster \ --project=SERVICE_PROJECT_ID \ --region=COMPUTE_REGION \ --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \ --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \ --cluster-secondary-range-name=tier-1-pods \ --services-secondary-range-name=tier-1-services
Standard
gcloud container clusters create tier-1-cluster \ --project=SERVICE_PROJECT_ID \ --zone=COMPUTE_REGION \ --enable-ip-alias \ --network=projects/HOST_PROJECT_ID/global/networks/NETWORK_NAME \ --subnetwork=projects/HOST_PROJECT_ID/regions/COMPUTE_REGION/subnetworks/SUBNET_NAME \ --cluster-secondary-range-name=tier-1-pods \ --services-secondary-range-name=tier-1-services \ --addons=GcpFilestoreCsiDriver
Crea regole firewall per consentire la comunicazione tra nodi, pod e servizi nel cluster. L'esempio seguente mostra come creare una regola firewall denominata
my-shared-net-rule-2
.gcloud compute firewall-rules create my-shared-net-rule-2 \ --project HOST_PROJECT_ID \ --network=NETWORK_NAME \ --allow=tcp,udp \ --direction=INGRESS \ --source-ranges=10.0.4.0/22,10.4.0.0/14,10.0.32.0/20
Nell'esempio, i valori IP degli intervalli di origine provengono dal passaggio precedente in cui hai verificato le sottoreti e gli intervalli secondari utilizzabili.
Creare un StorageClass quando si utilizza il driver CSI Filestore con VPC condiviso
Il seguente esempio mostra come creare un StorageClass quando utilizzi il driver CSI Filestore con VPC condiviso:
cat <<EOF | kubectl apply -f -
apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
name: filestore-sharedvpc-example
provisioner: filestore.csi.storage.gke.io
parameters:
network: "projects/HOST_PROJECT_ID/global/networks/SHARED_VPC_NAME"
connect-mode: PRIVATE_SERVICE_ACCESS
reserved-ip-range: RESERVED_IP_RANGE_NAME
allowVolumeExpansion: true
EOF
Sostituisci quanto segue:
HOST_PROJECT_ID
: l'ID o il nome del progetto host della rete VPC condiviso.SHARED_VPC_NAME
: il nome della rete VPC condiviso che hai creato in precedenza.RESERVED_IP_RANGE_NAME
: il nome dell'intervallo di indirizzi IP riservato specifico in cui eseguire il provisioning dell'istanza Filestore. Questo campo è facoltativo. Se viene specificato un intervallo di indirizzi IP riservato, deve essere un intervallo di indirizzi nominato anziché un valore CIDR diretto.
Se vuoi eseguire il provisioning di un volume basato su Filestore Multishares su cluster GKE che eseguono la versione 1.23 o successive, consulta Ottimizzare lo spazio di archiviazione con Filestore Multishares per GKE.
Riconnetti i volumi con una singola condivisione Filestore
Se utilizzi Filestore con il livello HDD base, SSD base o Enterprise (condivisione singola), puoi seguire queste istruzioni per ricollegare l'istanza Filestore esistente ai tuoi carichi di lavoro GKE.
Per trovare i dettagli dell'istanza Filestore preconfigurata, segui le istruzioni riportate in Ottenere informazioni su un'istanza specifica.
Riapplica la specifica PersistentVolume. Nel campo
volumeAttributes
, modifica i seguenti campi in modo da utilizzare gli stessi valori dell'istanza Filestore del passaggio 1:ip
: modifica questo valore con l'indirizzo IP dell'istanza Filestore pre-provisioned.volume
: modifica questo valore in base al nome della condivisione dell'istanza Filestore pre-provisioned. InclaimRef
, assicurati di fare riferimento allo stesso PersistentVolumeClaim nel passaggio 2.
Riapplica la specifica PersistentVolumeClaim.
Controlla lo stato di associazione di PersistentVolumeClaim e PersistentVolume eseguendo
kubectl get pvc
.Riapplica la specifica del pod e assicurati che il pod possa accedere nuovamente alla condivisione Filestore.
Passaggi successivi
- Scopri come eseguire il deployment di un carico di lavoro Filestore stateful su GKE.
- Scopri come condividere un'istanza Filestore Enterprise con più volumi persistenti.
- Scopri come utilizzare l'espansione del volume.
- Scopri come utilizzare gli snapshot dei volumi.
- Scopri di più sul driver CSI su GitHub.