Questa pagina ti guida su come installare e configurare la CLI gdcloud per gestire l'archiviazione di oggetti quando lavori con progetti air-gap di Google Distributed Cloud (GDC). Spiega come scaricare, installare e configurare i componenti e le impostazioni necessari per utilizzare in modo efficace i bucket e gli oggetti di archiviazione in questo ambiente isolato.
Questa pagina è rivolta a segmenti di pubblico come gli amministratori IT all'interno del gruppo di operatori dell'infrastruttura o gli sviluppatori all'interno del gruppo di operatori dell'applicazione che vogliono eseguire il provisioning e gestire i bucket di archiviazione degli oggetti per i progetti all'interno degli ambienti air-gap di GDC. Per saperne di più, consulta la documentazione relativa ai segmenti di pubblico per GDC air-gapped.
Prepara gcloud CLI
Per utilizzare gcloud CLI, segui questi passaggi per scaricare, installare e configurare il pacchetto.
Scarica gcloud CLI
Per scaricare gcloud CLI, consulta la panoramica di gcloud CLI.
Installa gcloud CLI
Per utilizzare la struttura dei comandi di archiviazione, è necessario installare il componente delle dipendenze di archiviazione.
Segui le istruzioni riportate in Installa gcloud CLI.
Per installare il componente delle dipendenze di archiviazione, esegui questi comandi:
gdcloud components install storage-cli-dependencies
Per saperne di più sul comando
components install
, consulta Installare gcloud CLI.
Configura gcloud CLI per l'archiviazione di oggetti
Per utilizzare gcloud CLI per l'archiviazione di oggetti, devono essere impostate le seguenti configurazioni.
Sostituisci
ACCESS_KEY_ID
con l'ID chiave di accesso ottenuto dal secret in Recupero delle credenziali di accesso:gdcloud config set storage/s3_access_key_id ACCESS_KEY_ID
Sostituisci
SECRET_ACCESS_KEY
con la chiave segreta ottenuta dal secret in Ottenere le credenziali di accesso:gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEY
Sostituisci
CA_BUNDLE_FILE
con il percorso del certificato CA:gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILE
Sostituisci
ENDPOINT
con l'endpoint fornito dall'operatore dell'infrastruttura (IO):gdcloud config set storage/s3_endpoint ENDPOINT
Questo passaggio è leggermente diverso per i bucket a doppia zona. Ogni bucket dual-region fornisce tre endpoint che puoi scegliere per accedere al bucket. Nella maggior parte dei casi, l'endpoint globale è appropriato per sfruttare i failover automatici:
- Endpoint zona1: questo endpoint viene sempre ricevuto dalla zona1. Se utilizzi questo endpoint, hai una coerenza read-after-write per tutti gli oggetti scritti nella zona 1. Tuttavia, se la zona 1 non è disponibile, un client deve passare all'utilizzo dell'endpoint della zona 2 o globale per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno di zona1.
- Endpoint Zone2: questo endpoint viene sempre ricevuto da Zone2. Se utilizzi questo endpoint, hai una coerenza di lettura dopo scrittura per tutti gli oggetti scritti in zona2. Tuttavia, se la zona 2 non è disponibile, un client deve passare all'utilizzo dell'endpoint della zona 1 o globale per continuare a leggere/scrivere in questo bucket. Se il client proviene da un cluster utente, questo endpoint sarà accessibile solo dall'interno della zona 2.
- Endpoint globale: questo endpoint fa sì che la tua richiesta venga indirizzata alla zona 1 o alla zona 2. Questa opzione non fornisce l'affinità sessione, il che significa che le richieste effettuate utilizzando la stessa sessione potrebbero arrivare nella zona 1 o nella zona 2. Ciò significa che non esiste alcuna garanzia di lettura dopo la scrittura per le richieste effettuate all'endpoint globale. L'endpoint globale fornisce il failover automatico nel caso in cui una zona non sia più disponibile, quindi gli utenti non dovranno modificare gli endpoint nei loro carichi di lavoro come dovrebbero fare se utilizzassero l'endpoint zonale. Inoltre, questo endpoint è accessibile dai cluster utente in tutte le zone.
Esegui i seguenti comandi per visualizzare gli endpoint globali/zonali per il bucket e scegli quello che vuoi utilizzare:
kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.globalEndpoint}" kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.zonalEndpoints}"