Speicherobjekte in Projekten hoch- und herunterladen

Auf dieser Seite wird beschrieben, wie Sie Objekte in und aus Google Distributed Cloud-Speicher-Buckets (GDC) mit Air Gap hoch- und herunterladen.

Hinweise

In einem Projektnamespace werden Bucket-Ressourcen auf dem Management API-Server verwaltet. Sie benötigen ein Projekt, um mit Buckets und Objekten arbeiten zu können.

Außerdem benötigen Sie die entsprechenden Bucket-Berechtigungen, um den folgenden Vorgang auszuführen. Weitere Informationen finden Sie unter Bucket-Zugriff gewähren.

Benennungsrichtlinien für Objekte

Beachten Sie die folgenden Richtlinien, wenn Sie Objekte benennen:

  • Verwenden Sie UTF-8-Zeichen, wenn Sie Objekte benennen.
  • Geben Sie keine personenidentifizierbaren Informationen an.

Objekte in Speicher-Buckets hochladen

Console

  1. Klicken Sie im Navigationsmenü auf Object Storage.
  2. Klicken Sie auf den Namen des Buckets, in den Sie das Objekt hochladen möchten.
  3. Optional: Wenn Sie einen Ordner zum Speichern des Objekts erstellen möchten, klicken Sie auf Ordner erstellen > geben Sie einen Ordnernamen ein > klicken Sie auf Erstellen.
  4. Klicken Sie direkt auf Datei hochladen oder rufen Sie den Ordner auf, den Sie gerade erstellt haben, und klicken Sie dann auf Datei hochladen.
  5. Wählen Sie die gewünschte Datei aus und klicken Sie auf Öffnen.
  6. Warten Sie auf die Bestätigungsnachricht, dass der Upload erfolgreich war.

Befehlszeile

Führen Sie die folgenden Befehle aus, um ein Objekt hochzuladen:

gdcloud storage cp LOCAL_PATH s3://REMOTE_PATH
gdcloud storage cp s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH
gdcloud storage mv s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH

Für die folgenden Befehle ist die FULLY_QUALIFIED_BUCKET_NAME erforderlich. Verwenden Sie den Befehl GET oder DESCRIBE aus dem Abschnitt Bucket-Konfiguration ansehen, um den voll qualifizierten Bucket-Namen abzurufen.

Mit dem folgenden Befehl werden alle Textdateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:

gdcloud storage cp *.txt s3://FULLY_QUALIFIED_BUCKET_NAME

Mit dem folgenden Befehl werden mehrere Dateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:

gdcloud storage cp abc1.txt abc2.txt s3://FULLY_QUALIFIED_BUCKET_NAME

Wenn Sie einen Ordner in einen Bucket hochladen möchten, verwenden Sie die Option „--recursive“, um eine gesamte Verzeichnisstruktur zu kopieren. Mit dem folgenden Befehl wird der Verzeichnisbaum „dir“ hochgeladen:

gdcloud storage cp dir s3://FULLY_QUALIFIED_BUCKET_NAME --recursive

Führen Sie mehrteilige Uploads für große Objekte durch oder verwenden Sie mehrteilige Uploads automatisch, wenn Sie eine Datei hochladen möchten, die größer als 15 MB ist. In diesem Fall wird die Datei in mehrere Teile mit einer Größe von jeweils 15 MB aufgeteilt. Der letzte Teil ist kleiner. Jeder Teil wird separat hochgeladen und am Zielort wieder zusammengesetzt, wenn die Übertragung abgeschlossen ist.

Wenn der Upload eines Teils fehlschlägt, können Sie den Upload neu starten, ohne dass die bereits hochgeladenen anderen Teile beeinträchtigt werden.

Es gibt zwei Optionen für Multipart-Uploads:

  • --disable-multipart: Deaktiviert mehrteilige Uploads für alle Dateien.
  • --multipart-chunk-size-mb=SIZE: Legt die Größe der einzelnen Chunks eines Multipart-Uploads fest.

Dateien, die größer als SIZE sind, werden automatisch als Multithreaded-Multipart-Upload hochgeladen. Kleinere Dateien werden mit der herkömmlichen Methode hochgeladen. SIZE wird in Megabyte angegeben. Die Standardblockgröße beträgt 15 MB. Die Mindestgröße für Chunks beträgt 5 MB und die Höchstgröße 5 GB.

Objekte aus Speicher-Buckets herunterladen

Console

  1. Klicken Sie im Navigationsmenü auf Object Storage.
  2. Klicken Sie auf den Namen des Buckets, der die Objekte enthält.
  3. Klicken Sie das Kästchen neben dem Namen des Objekts an, das Sie herunterladen möchten.
  4. Klicken Sie auf Herunterladen.

Befehlszeile

So rufen Sie Objekte aus dem Bucket ab:

gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/OBJECT LOCAL_FILE_TO_SAVE

So laden Sie alle Textdateien aus einem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/*.txt .

So laden Sie die Textdatei abc.txt aus einem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt .

Wenn Sie eine ältere Version der Datei herunterladen möchten, listen Sie zuerst alle Versionen der Datei auf:

gdcloud storage ls s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt --all-versions

Beispielausgabe:

s3://my-bucket/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND
s3://my-bucket/abc.txt#ODgzNEYzQ0MtMzEzRS0xMUVFLTk2NEItMjI1MTAwQkJENjND
s3://my-bucket/abc.txt#ODNCNDEzNzgtMzEzRS0xMUVFLTlDOUMtQzRDOTAwQjg3RTg3

Laden Sie dann eine bestimmte Version der Textdatei abc.txt aus dem Bucket in Ihr aktuelles Verzeichnis herunter:

gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND .

Benutzerdefinierten AEADKey verwenden

Für eine noch stärkere Anpassung können Sie einen eigenen AEADKey erstellen und ihn direkt beim Verschlüsseln von Objekten in Ihrem Bucket verwenden. So haben Sie die vollständige Kontrolle über den Verschlüsselungsschlüssel und umgehen die Standardeinstellung. Folgen Sie der Anleitung unter Schlüssel erstellen, um einen neuen AEADKey zu erstellen. Achten Sie darauf, dass er sich im selben Namespace wie der Bucket befindet, den Sie verwenden möchten. Achten Sie dann beim Senden der Anfrage darauf, dass HEADER mit x-amz-server-side-encryption: SSE-KMS und x-amz-server-side-encryption-aws-kms-key-id: NAMESPACE_NAME/AEADKey_NAME konfiguriert ist.