Auf dieser Seite wird beschrieben, wie Sie Objekte in und aus Google Distributed Cloud-Speicher-Buckets (GDC) mit Air Gap hoch- und herunterladen.
Hinweise
In einem Projektnamespace werden Bucket-Ressourcen auf dem Management API-Server verwaltet. Sie benötigen ein Projekt, um mit Buckets und Objekten arbeiten zu können.
Außerdem benötigen Sie die entsprechenden Bucket-Berechtigungen, um den folgenden Vorgang auszuführen. Weitere Informationen finden Sie unter Bucket-Zugriff gewähren.
Benennungsrichtlinien für Objekte
Beachten Sie die folgenden Richtlinien, wenn Sie Objekte benennen:
- Verwenden Sie UTF-8-Zeichen, wenn Sie Objekte benennen.
- Geben Sie keine personenidentifizierbaren Informationen an.
Objekte in Speicher-Buckets hochladen
Console
- Klicken Sie im Navigationsmenü auf Object Storage.
- Klicken Sie auf den Namen des Buckets, in den Sie das Objekt hochladen möchten.
- Optional: Wenn Sie einen Ordner zum Speichern des Objekts erstellen möchten, klicken Sie auf Ordner erstellen > geben Sie einen Ordnernamen ein > klicken Sie auf Erstellen.
- Klicken Sie direkt auf Datei hochladen oder rufen Sie den Ordner auf, den Sie gerade erstellt haben, und klicken Sie dann auf Datei hochladen.
- Wählen Sie die gewünschte Datei aus und klicken Sie auf Öffnen.
- Warten Sie auf die Bestätigungsnachricht, dass der Upload erfolgreich war.
Befehlszeile
Führen Sie die folgenden Befehle aus, um ein Objekt hochzuladen:
gdcloud storage cp LOCAL_PATH s3://REMOTE_PATH
gdcloud storage cp s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH
gdcloud storage mv s3://REMOTE_SOURCE_PATH s3://REMOTE_MOVE_DESTINATION_PATH
Für die folgenden Befehle ist die FULLY_QUALIFIED_BUCKET_NAME erforderlich. Verwenden Sie den Befehl GET
oder DESCRIBE
aus dem Abschnitt Bucket-Konfiguration ansehen, um den voll qualifizierten Bucket-Namen abzurufen.
Mit dem folgenden Befehl werden alle Textdateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:
gdcloud storage cp *.txt s3://FULLY_QUALIFIED_BUCKET_NAME
Mit dem folgenden Befehl werden mehrere Dateien aus dem lokalen Verzeichnis in einen Bucket hochgeladen:
gdcloud storage cp abc1.txt abc2.txt s3://FULLY_QUALIFIED_BUCKET_NAME
Wenn Sie einen Ordner in einen Bucket hochladen möchten, verwenden Sie die Option „--recursive“, um eine gesamte Verzeichnisstruktur zu kopieren. Mit dem folgenden Befehl wird der Verzeichnisbaum „dir“ hochgeladen:
gdcloud storage cp dir s3://FULLY_QUALIFIED_BUCKET_NAME --recursive
Führen Sie mehrteilige Uploads für große Objekte durch oder verwenden Sie mehrteilige Uploads automatisch, wenn Sie eine Datei hochladen möchten, die größer als 15 MB ist. In diesem Fall wird die Datei in mehrere Teile mit einer Größe von jeweils 15 MB aufgeteilt. Der letzte Teil ist kleiner. Jeder Teil wird separat hochgeladen und am Zielort wieder zusammengesetzt, wenn die Übertragung abgeschlossen ist.
Wenn der Upload eines Teils fehlschlägt, können Sie den Upload neu starten, ohne dass die bereits hochgeladenen anderen Teile beeinträchtigt werden.
Es gibt zwei Optionen für Multipart-Uploads:
--disable-multipart
: Deaktiviert mehrteilige Uploads für alle Dateien.--multipart-chunk-size-mb=SIZE
: Legt die Größe der einzelnen Chunks eines Multipart-Uploads fest.
Dateien, die größer als SIZE sind, werden automatisch als Multithreaded-Multipart-Upload hochgeladen. Kleinere Dateien werden mit der herkömmlichen Methode hochgeladen. SIZE wird in Megabyte angegeben. Die Standardblockgröße beträgt 15 MB. Die Mindestgröße für Chunks beträgt 5 MB und die Höchstgröße 5 GB.
Objekte aus Speicher-Buckets herunterladen
Console
- Klicken Sie im Navigationsmenü auf Object Storage.
- Klicken Sie auf den Namen des Buckets, der die Objekte enthält.
- Klicken Sie das Kästchen neben dem Namen des Objekts an, das Sie herunterladen möchten.
- Klicken Sie auf Herunterladen.
Befehlszeile
So rufen Sie Objekte aus dem Bucket ab:
gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/OBJECT LOCAL_FILE_TO_SAVE
So laden Sie alle Textdateien aus einem Bucket in Ihr aktuelles Verzeichnis herunter:
gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/*.txt .
So laden Sie die Textdatei abc.txt
aus einem Bucket in Ihr aktuelles Verzeichnis herunter:
gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt .
Wenn Sie eine ältere Version der Datei herunterladen möchten, listen Sie zuerst alle Versionen der Datei auf:
gdcloud storage ls s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt --all-versions
Beispielausgabe:
s3://my-bucket/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND
s3://my-bucket/abc.txt#ODgzNEYzQ0MtMzEzRS0xMUVFLTk2NEItMjI1MTAwQkJENjND
s3://my-bucket/abc.txt#ODNCNDEzNzgtMzEzRS0xMUVFLTlDOUMtQzRDOTAwQjg3RTg3
Laden Sie dann eine bestimmte Version der Textdatei abc.txt
aus dem Bucket in Ihr aktuelles Verzeichnis herunter:
gdcloud storage cp s3://FULLY_QUALIFIED_BUCKET_NAME/abc.txt#OEQxNTk4MUEtMzEzRS0xMUVFLTk2N0UtQkM4MjAwQkJENjND .
Benutzerdefinierten AEADKey verwenden
Für eine noch stärkere Anpassung können Sie einen eigenen AEADKey erstellen und ihn direkt beim Verschlüsseln von Objekten in Ihrem Bucket verwenden. So haben Sie die vollständige Kontrolle über den Verschlüsselungsschlüssel und umgehen die Standardeinstellung. Folgen Sie der Anleitung unter Schlüssel erstellen, um einen neuen AEADKey zu erstellen. Achten Sie darauf, dass er sich im selben Namespace
wie der Bucket befindet, den Sie verwenden möchten. Achten Sie dann beim Senden der Anfrage darauf, dass HEADER
mit x-amz-server-side-encryption: SSE-KMS
und x-amz-server-side-encryption-aws-kms-key-id: NAMESPACE_NAME/AEADKey_NAME
konfiguriert ist.