Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Auf dieser Seite wird erläutert, wie Sie Daten eines lokalen Rechners in Cloud Storage mithilfe von Cloud Tools for PowerShell sichern. Im Gegensatz zu den meisten Ressourcen bietet Cloud Tools for PowerShell zwei Möglichkeiten, um auf Google Cloud Storage-Ressourcen zuzugreifen: Cmdlets und einen Powershell-Anbieter.
Mit dem Provider können Sie auf Storage-Buckets und Storage-Objekte wie ein Dateisystem zugreifen. Dabei verwenden Sie die Dateisystembefehle, mit denen Sie bereits vertraut sind. Allerdings hat der Provider einige Einschränkungen. Nicht alle legalen Objektnamen können in legale Providernamen umgewandelt werden. Sie können den Provider nicht zur Verwaltung von ACLs verwenden. In diesen erweiterten Fällen können Sie die Cmdlets verwenden.
Weitere Informationen zu Cloud Storage-Cmdlets erhalten Sie in der Cmdlet-Referenz für Cloud Tools for PowerShell.
Daten hochladen
In Cloud Storage sind Daten in Buckets organisiert. So erstellen Sie einen neuen Bucket:
Cmdlets
Verwenden Sie zum Erstellen eines neuen Buckets das Cmdlet New-GcsBucket:
$bucket = "my-gcs-bucket"
New-GcsBucket $bucket
Anbieter
Buckets sind Ordner, die sich im Stammverzeichnis des Laufwerks gs:\ befinden. Wenn Sie ein neues Objekt auf dieser Ebene erstellen, wird ein neuer Bucket erstellt.
cd gs:\
$bucket = "my-gcs-bucket"
mkdir $bucket
Dateien in einen Bucket hochladen
Sie können eine einzelne Datei oder ein ganzes Verzeichnis in Ihren Bucket hochladen:
Cmdlets
Verwenden Sie New-GcsObject. Dies benötigt einen Ziel-Bucket und einen Objektnamen als Parameter. Es hängt vom verwendeten Parametersatz ab, wo die Inhalte des neuen Storage-Objekts herkommen.
Sie können den Inhalt einer lokalen Datei in Cloud Storage hochladen, indem Sie den Parameter -File verwenden und einen Dateipfad angeben. Alternativ können Sie den Inhalt des Objekts als String über die PowerShell-Pipeline übergeben oder den Parameter -Value verwenden.
Sie können ein gesamtes Verzeichnis vom lokalen Laufwerk in Cloud Storage hochladen, indem Sie den Parameter -Folder verwenden und den Ordnerpfad angeben. Wenn der Ordner nicht direkt in das Stammverzeichnis des Cloud Storage-Buckets hochgeladen werden soll, geben Sie mit -ObjectNamePrefix ein Präfix an, das auf jedes hochgeladene Objekt angewendet wird.
# Upload the folder LogFiles and its content to the root of the widget bucket.
New-GcsObject -Bucket "widget" -Folder "C:\inetpub\logs\LogFiles"
# Upload the folder LogFiles and its content to directory Test in the widget bucket.
New-GcsObject -Bucket "widget" -Folder "C:\inetpub\logs\LogFiles" -ObjectNamePrefix "Test"
Anbieter
Verwenden Sie New-Item. Dafür muss ein Pfad zum Objekt erstellt werden. Dabei kann es sich um einen absoluten oder einen relativen Pfad handeln. Der Inhalt des neuen Storage-Objekts kann entweder als String für den Parameter -Value oder durch Angabe eines Dateipfads für den Parameter -File angegeben werden.
New-Item gs:\my-gcs-bucket\new-object -File $file
Mit dem folgenden Snippet wird ein gesamtes Verzeichnis vom lokalen Laufwerk in Cloud Storage hochgeladen.
Sie können Daten mit Cmdlets oder dem Anbieter durchsuchen. Die Suche erfolgt mit herkömmlichen Cmdlets für die Dateisuche.
Cmdlets
Mit Get-GcsObject können Sie die Objekte eines Buckets suchen. Dies kann zum Visualisieren Ihrer Daten in Kombination mit dem Cmdlet Out-GridView nützlich sein.
Sie können Get-ChildItem oder einen der zugehörigen Aliasse verwenden: dir, ls oder gci.
Mit dem Parameter -Recurse können Sie in allen logischen Ordnern suchen:
cd gs:\my-gcs-bucket
ls -Recurse
Daten lesen
Verwenden Sie zum Lesen von Daten über den Anbieter das Standard-Cmdlet Get-Content.
Alternativ können Sie das Cmdlet Read-GcsObject verwenden.
Cmdlets
Verwenden Sie zum Lesen des Inhalts eines Cloud Storage-Objekts das Cmdlet Read-GcsObject. Die Inhalte des Objekts werden standardmäßig als String gelesen und in die PowerShell-Pipeline geschrieben. Sie können den Parameter -OutFile angeben, um stattdessen den Inhalt des Objekts auf das lokale Laufwerk herunterzuladen:
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-17 (UTC)."],[],[],null,["# Backing up data to Cloud Storage\n\nThis page shows how to backup data from a local machine to\nCloud Storage using Cloud Tools for PowerShell. Unlike most resources,\nCloud Tools for PowerShell provides two ways to access Cloud Storage\nresources, the cmdlets and a PowerShell provider.\n\nThe provider allows you to access Storage buckets and objects like a file\nsystem, using the file system commands you are already familiar with. The\nprovider has some limitations, however. Not all legal object names convert to\nlegal provider paths. You can't use the provider to manage ACLs. For these\nadvanced cases, you can use the cmdlets.\nSee the [Cloud Tools for PowerShell cmdlet\nreference](http://googlecloudplatform.github.io/google-cloud-powershell/)\nto learn more about Cloud Storage cmdlets.\n\nUploading data\n--------------\n\nData in Cloud Storage is organized into buckets. Create a new bucket\nas follows: \n\n### Cmdlets\n\n\nUse the `New-GcsBucket` cmdlet\nto create a new bucket: \n\n```\n$bucket = \"my-gcs-bucket\"\nNew-GcsBucket $bucket\n```\n\n### Provider\n\n\nBuckets are folders at the root of the `gs:\\` drive. Creating a\nnew item at that level will create a new bucket. \n\n```\ncd gs:\\\n$bucket = \"my-gcs-bucket\"\nmkdir $bucket\n```\n\nUpload files to a bucket\n------------------------\n\nYou can upload a single file or an entire directory to your bucket: \n\n### Cmdlets\n\n\nUse `New-GcsObject`. This requires a destination bucket and an object name\nas parameters. Where the new Storage object's contents come from depends on\nwhich parameter set you use.\n\nYou can upload the contents of a local file to Cloud Storage by\nusing the `-File` parameter and specifying a file path. Alternatively, you\ncan pass the object's contents as a string via the PowerShell pipeline, or\nyou can use the `-Value` parameter.\n\nYou can upload an entire directory from the local disk to\nCloud Storage by using the `-Folder` parameter and specifying the\nfolder path. If you do not want the folder to be uploaded directly to the\nroot of the Cloud Storage bucket, use `-ObjectNamePrefix` to\nspecify a prefix that will be applied to every object uploaded. \n\n```\n# Upload the folder LogFiles and its content to the root of the widget bucket.\nNew-GcsObject -Bucket \"widget\" -Folder \"C:\\inetpub\\logs\\LogFiles\"\n\n# Upload the folder LogFiles and its content to directory Test in the widget bucket.\nNew-GcsObject -Bucket \"widget\" -Folder \"C:\\inetpub\\logs\\LogFiles\" -ObjectNamePrefix \"Test\"\n```\n\n### Provider\n\n\nUse `New-Item`. It requires a path to the item being created. This can be\nan absolute path or a relative path. The contents of the new Storage Object\ncan be specified either as a string to the `-Value` parameter or by\nspecifying a file path to the `-File` parameter. \n\n```\nNew-Item gs:\\my-gcs-bucket\\new-object -File $file\n```\n\nThe following snippet uploads an entire directory from the local disk to\nCloud Storage. \n\n```\ncd $folder\n$files = Get-ChildItem -Recurse\n$data = @()\nforeach ($file in $files) {\n $objectPath = $file | Resolve-Path -Relative\n $data += @{file = $file; objectPath = $objectPath}\n}\ncd gs:\\my-gcs-bucket\nforeach($element in $data) {\n Write-Host \"`t${$element.objectPath}\"\n New-Item $element.objectPath -File $element.file\n}\n```\n\nSearching data\n--------------\n\nYou can search data with cmdlets, or with the provider through the common file\nsearch cmdlets. \n\n### Cmdlets\n\n\nYou can search through a bucket's objects using `Get-GcsObject`. This can be\nuseful when combined with the `Out-GridView` cmdlet to visualize your data: \n\n```\nGet-GcsObject $bucket | Select Name, Size | Out-GridView\n```\n\n### Provider\n\n\nYou can use `Get-ChildItem` or one of its aliases: `dir`, `ls`, or `gci`.\nYou can use the `-Recurse` parameter to look within all of the logical\nfolders: \n\n```\ncd gs:\\my-gcs-bucket\nls -Recurse\n```\n\nReading data\n------------\n\nTo read data through the provider, use the standard `Get-Content` cmdlet.\nAlternatively, use the `Read-GcsObject` cmdlet. \n\n### Cmdlets\n\n\nTo read the contents of a Cloud Storage object, use the\n`Read-GcsObject` cmdlet. By default it reads the object's contents as a\nstring and writes it to the PowerShell pipeline. You can specify the\n`-OutFile` parameter to download the object's contents to the local disk\ninstead: \n\n```\nRead-GcsObject $bucket \"timestamp.txt\" | Write-Host\nRead-GcsObject $bucket \"logo.png\" `\n -OutFile \"$Env:UserProfile\\pictures\\logo.png\"\n```\n\n### Provider\n\n\nTo read the contents of a Cloud Storage object, use the `Get-Content`\ncmdlet, or one of its aliases: `cat`, `gc`, or `type`. \n\n```\ncd gs:\\my-gcs-bucket\ncat my-object-name\n```\n\nDeleting data\n-------------\n\nTo delete data through the provider, use the standard `Remove-Item` cmdlet.\nAlternatively, use the `Remove-GcsObject` cmdlet. \n\n### Cmdlets\n\n\nTo remove any data in Cloud Storage, use the `Remove-GcsObject`\ncmdlet: \n\n```\nGet-GcsObject $bucket | Remove-GcsObject\n```\n\n### Provider\n\n\nTo remove data in Cloud Storage, use the `Remove-Item` cmdlet, or\none of its aliases `del`, `rm`, `erase`: \n\n```\ncd gs:\\my-gcs-bucket\nrm my-object-name\n```"]]