Storage-CLI für Projekte installieren und konfigurieren

Auf dieser Seite wird beschrieben, wie Sie die gdcloud-Befehlszeile installieren und konfigurieren, um den Objektspeicher in Google Distributed Cloud-Projekten (GDC) zu verwalten, die nicht mit dem Internet verbunden sind. Darin wird beschrieben, wie Sie die erforderlichen Komponenten und Einstellungen herunterladen, installieren und konfigurieren, die für die effektive Verwendung von Speicher-Buckets und ‑Objekten in dieser isolierten Umgebung erforderlich sind.

Diese Seite richtet sich an Zielgruppen wie IT-Administratoren in der Gruppe der Infrastrukturbetreiber oder Entwickler in der Gruppe der Anwendungsbetreiber, die Objektspeicher-Buckets für Projekte in GDC-Umgebungen ohne Internetverbindung bereitstellen und verwalten möchten. Weitere Informationen finden Sie unter Zielgruppen für die GDC-Dokumentation für Air-Gap-Umgebungen.

gcloud CLI vorbereiten

Wenn Sie die gdcloud CLI verwenden möchten, folgen Sie der Anleitung unten, um das Paket herunterzuladen, zu installieren und zu konfigurieren.

gdcloud-Befehlszeile herunterladen

Informationen zum Herunterladen der gdcloud CLI finden Sie in der Übersicht zur gdcloud CLI.

gcloud CLI installieren

Damit Sie den Speicherbefehlsbaum verwenden können, muss die Komponente für Speicherabhängigkeiten installiert sein.

  1. Folgen Sie der Anleitung unter gcloud CLI installieren.

  2. Führen Sie die folgenden Befehle aus, um die Komponente für Speicherabhängigkeiten zu installieren:

    gdcloud components install storage-cli-dependencies
    

    Weitere Informationen zum Befehl components install finden Sie unter gcloud CLI installieren.

gcloud CLI für Objektspeicher konfigurieren

Die folgenden Konfigurationen müssen festgelegt werden, damit die gcloud CLI für den Objektspeicher verwendet werden kann.

  1. Ersetzen Sie ACCESS_KEY_ID durch die Zugriffsschlüssel-ID, die Sie aus dem Secret unter Zugangsdaten abrufen erhalten haben:

    gdcloud config set storage/s3_access_key_id ACCESS_KEY_ID
    
  2. Ersetzen Sie SECRET_ACCESS_KEY durch den geheimen Schlüssel, der aus dem Secret in Zugriffsanmeldedaten abrufen abgerufen wurde:

    gdcloud config set storage/s3_secret_access_key SECRET_ACCESS_KEY
    
  3. Ersetzen Sie CA_BUNDLE_FILE durch den Pfad zum CA-Zertifikat:

    gdcloud config set storage/s3_custom_ca_certs_file CA_BUNDLE_FILE
    
  4. Ersetzen Sie ENDPOINT durch den Endpunkt, den Ihr Infrastrukturbetreiber bereitstellt:

    gdcloud config set storage/s3_endpoint ENDPOINT
    

    Dieser Schritt unterscheidet sich geringfügig für Dual-Zone-Buckets. Jeder Bucket mit zwei Zonen bietet drei Endpunkte, über die Sie auf den Bucket zugreifen können. In den meisten Fällen ist der globale Endpunkt geeignet, um automatische Failovers zu nutzen:

    • Zone1-Endpunkt: Dieser Endpunkt wird immer von Zone1 empfangen. Wenn Sie diesen Endpunkt verwenden, haben Sie eine Read-After-Write-Konsistenz für alle Objekte, die in zone1 geschrieben werden. Wenn zone1 jedoch ausfällt, muss ein Client entweder den zone2- oder den globalen Endpunkt verwenden, um weiterhin Daten in diesen Bucket zu lesen/zu schreiben. Wenn der Client aus einem Nutzercluster stammt, ist dieser Endpunkt nur innerhalb von zone1 zugänglich.
    • Zone2-Endpunkt: Dieser Endpunkt wird immer von Zone2 empfangen. Wenn Sie diesen Endpunkt verwenden, haben Sie eine Read-After-Write-Konsistenz für alle Objekte, die in zone2 geschrieben werden. Wenn zone2 jedoch ausfällt, muss ein Client entweder den zone1- oder den globalen Endpunkt verwenden, um weiterhin Daten in diesen Bucket zu lesen/zu schreiben. Wenn der Client aus einem Nutzercluster stammt, ist dieser Endpunkt nur innerhalb von zone2 zugänglich.
    • Globaler Endpunkt: Bei diesem Endpunkt wird Ihre Anfrage entweder an Zone 1 oder Zone 2 weitergeleitet. Diese Option bietet keine Sitzungsaffinität. Anfragen, die in derselben Sitzung gestellt werden, können also in Zone 1 oder Zone 2 eingehen. Das bedeutet, dass es keine Garantie für das Lesen nach dem Schreiben für Anfragen an den globalen Endpunkt gibt. Der globale Endpunkt bietet ein automatisches Failover, falls eine Zone ausfällt. Nutzer müssen die Endpunkte in ihren Arbeitslasten also nicht ändern, wie es bei Verwendung des zonenbasierten Endpunkts erforderlich wäre. Außerdem ist dieser Endpunkt von Nutzerclustern in allen Zonen aus zugänglich.

    Führen Sie die folgenden Befehle aus, um die globalen/zonalen Endpunkte für Ihren Bucket aufzurufen und den gewünschten Endpunkt auszuwählen:

    kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.globalEndpoint}"
    
    kgo get buckets $BUCKET_NAME -n $PROJECT_NAME -o jsonpath="{.status.zonalEndpoints}"