Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Mit dem browserbasierten Google Cloud Console-Tool können Sie Ihre Cloud Storage-Ressourcen über eine grafische Oberfläche verwalten. Sie können die Google Cloud -Konsole auch zum Verwalten Ihrer Daten verwenden, wenn Sie eine über den Browser bereitgestellte Benutzeroberfläche bevorzugen.
Auf dieser Seite wird beschrieben, wie Sie auf die Google Cloud -Konsole zugreifen, und es werden Aufgaben in Cloud Storage aufgeführt, die mit der Google Cloud -Konsole ausgeführt werden können.
Alternativ zur Google Cloud Console können Sie auch die Google Cloud CLI, die REST API oder die Cloud Storage-Clientbibliotheken verwenden.
Funktionen der Konsole
Die Google Cloud Konsole bietet die folgenden Funktionen:
Ein anpassbares Projektdashboard mit einer Übersicht über Google Cloud-Ressourcen, Abrechnungen und eine Liste mit Aktivitäten, die gefiltert werden können
Zugriff auf alle Google Cloud APIs, einschließlich eines Dashboards für jede einzelne API und Zugriff für die Verwaltung Ihrer Ressourcen
Links zu Google Cloud Ausgangspunkten, Neuigkeiten und Dokumentation
Die Google Cloud Console wird verwendet, um verschiedene Aufgaben in Cloud Storage auszuführen, z. B.:
Wenn Sie mit Google Cloud noch nicht vertraut sind, erstellen Sie ein Konto, um die Leistungsfähigkeit von Cloud Storage in der Praxis sehen und bewerten zu können. Neukunden erhalten außerdem ein Guthaben von 300 $, um Arbeitslasten auszuführen, zu testen und bereitzustellen.
Die Google Cloud Console erfordert keine Einrichtung oder Installation und Sie können direkt in einem Browser darauf zugreifen. Je nach Anwendungsfall greifen Sie über unterschiedliche URLs auf dieGoogle Cloud Console zu.
Als Nutzer, dem Zugriff auf ein Projekt gewährt wurde
Als Nutzer, dem Zugriff auf einen Bucket gewährt wurde
Verwenden Sie https://console.cloud.google.com/storage/browser/BUCKET_NAME.
In diesem Anwendungsfall gewährt Ihnen ein Projektinhaber Zugriff auf einen einzelnen Bucket innerhalb eines größeren Projekts. Der Inhaber sendet Ihnen den Bucket-Namen, den Sie in der URL einsetzen. Sie können nur mit Objekten im angegebenen Bucket arbeiten. Diese Methode ist für Nutzer geeignet, die keinen Zugriff auf das gesamte Projekt haben, aber auf einen Bucket zugreifen müssen. Wenn Sie auf die URL zugreifen, werden Sie aufgefordert, sich zu authentifizieren, sofern Sie nicht bereits angemeldet sind.
Eine Variante dieses Anwendungsfalls ist, wenn ein Projektinhaber allen Nutzern die Berechtigung gibt, Objekte in einem Bucket zu lesen. Dadurch wird ein Bucket erstellt, dessen Inhalt öffentlich lesbar ist. Weitere Informationen finden Sie unter Daten öffentlich machen.
Als Nutzer, dem Zugriff auf ein Objekt gewährt wurde
Verwenden Sie https://console.cloud.google.com/storage/browser/_details/BUCKET_NAME/OBJECT_NAME.
In diesem Anwendungsfall gibt Ihnen ein Projektinhaber Zugriff auf einzelne Objekte in einem Bucket und sendet Ihnen die dafür notwendige URL. Wenn Sie auf die URLs zugreifen, werden Sie aufgefordert, sich mit einem Nutzerkonto zu authentifizieren, wenn Sie nicht bereits angemeldet sind.
Beachten Sie, dass sich die Form dieser URL von der URL für öffentlich freigegebene Objekte unterscheidet. Wenn Sie einen Link öffentlich teilen, hat die URL folgendes Format: https://storage.googleapis.com/BUCKET_NAME/OBJECT_NAME.
Diese öffentliche URL erfordert keine Authentifizierung des Empfängers mit einem gültigen Konto und kann für nicht authentifizierten Zugriff auf ein Objekt verwendet werden.
Listen von Buckets und Objekten filtern und sortieren
In der Google Cloud Console-Liste der Buckets für ein Projekt können Sie die angezeigten Buckets mit dem Feld Filter filtern und sortieren.
Wenn Sie die einzelnen Gruppen filtern möchten, wählen Sie die Option Sortieren und filtern aus und geben Sie dann die Spalte und den Wert an, nach denen gefiltert werden soll.
Wenn Sie Buckets nach Bucket-Namenspräfix filtern möchten, wählen Sie die Option Nur nach Namenspräfix filtern aus und geben Sie dann das Bucket-Namenspräfix an, nach dem Sie filtern möchten.
Wenn Sie Buckets sortieren möchten, klicken Sie neben dem Namen der Spalte, nach der Sie sortieren möchten, auf arrow_upwardSortieren.
In der Google Cloud Console-Liste der Objekte für einen Bucket können Sie die angezeigten Objekte mit dem Feld Filtern filtern.
Wenn Sie Objekte filtern möchten, wählen Sie die Option Sortieren und filtern aus und geben Sie dann die Spalte und den Wert an, nach denen gefiltert werden soll.
Wenn Sie Objekte nach dem Objektnamenspräfix filtern möchten, wählen Sie die Option Nur nach Namenspräfix filtern aus und geben Sie dann das Objektnamenspräfix an, nach dem Sie filtern möchten.
Klicken Sie zum Sortieren von Objekten neben dem Namen der Spalte, nach der Sie sortieren möchten, auf arrow_upwardSortieren.
Das Filtern und Sortieren gilt nur für Objekte und Ordner im aktuellen Pfad, der angezeigt wird. Wenn Sie beispielsweise die oberste Ebene eines Bucket aufrufen, werden beim Filtern und Sortieren keine Objekte zurückgegeben, die in Ordnern enthalten sind.
Spalten ein- und ausblenden
Wenn Sie Spalten für eine Liste von Buckets oder Objekten ein- oder ausblenden möchten, klicken Sie auf Spalte ansehen (view_column) und wählen Sie die gewünschten Spalten aus.
Produktübergreifende Integrationen
Die folgenden Integrationen mit anderen Google Cloud Produkten sind auf dem Tab Objekte eines Buckets verfügbar:
Große Datenmengen mit Storage Transfer Service in und aus dem Bucket übertragen
Der Storage Transfer Service ist ein Dienst, mit dem Sie große Datenmengen zwischen Ihrem Bucket und anderen Speicheroptionen wie Ihrem lokalen Dateisystem, anderen Buckets oder anderen Cloudanbietern übertragen können.
Sie können eine Übertragung starten, indem Sie auf dem Tab Objekte auf das Drop-down-Menü Daten übertragen klicken, entweder Daten übertragen oder Daten exportieren auswählen und der Anleitung folgen.
Bucket mit Sensitive Data Protection nach sensiblen Daten scannen
Sensitive Data Protection ist ein Dienst, mit dem Sie vertrauliche Daten in Ihren Buckets wie Kreditkartennummern, IP-Adressen und andere Formen von personenidentifizierbaren Informationen (PII) identifizieren und schützen können.
Eine Liste der Arten von Daten, die der Schutz sensibler Daten erkennt, finden Sie in der infoType-Detektorreferenz.
Sie können einen Schutz sensibler Daten-Scan für einen Bucket starten, indem Sie auf dem Tab Objekte das Drop-down-Menü Andere Dienste aufrufen, Auf sensible Daten prüfen auswählen und der Anleitung folgen. Eine Anleitung zum Ausführen eines Schutz sensibler Daten-Scans in einem Bucket finden Sie unter Cloud Storage-Standorte prüfen.
Daten aus dem Bucket nach Pub/Sub exportieren
Pub/Sub ist ein Messaging-Dienst, mit dem Sie Abonnenten über Ereignisse informieren können, die für Ihre Google Cloud Ressourcen auftreten.
Pub/Sub unterstützt den Empfang von Ereignisdatensätzen, die als Textdateien in Ihrem Bucket gespeichert sind, und die Veröffentlichung in einem Pub/Sub-Thema.
Sie können einen Exportjob für einen Bucket erstellen, indem Sie auf dem Tab Objekte auf das Drop-down-Menü Andere Dienste klicken, Daten in Pub/Sub exportieren auswählen und der Anleitung folgen. Weitere Informationen finden Sie unter Vorlage „Cloud Storage Text für Pub/Sub (Batch)“.
Daten im Bucket mit Cloud Run-Funktionen verarbeiten
Cloud Run Functions ist ein Dienst, mit dem Sie Code angeben können, der ausgeführt werden soll, wenn bestimmte Ereignisse im Bucket auftreten. Sie können beispielsweise eine Java-Funktion erstellen, die jedes Mal ausgeführt wird, wenn ein Objekt im Bucket gelöscht wird.
Sie können eine Funktion für einen Bucket definieren, indem Sie auf dem Tab Objekte das Drop-down-Menü Andere Dienste aufrufen, Daten verarbeiten auswählen und der Anleitung folgen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-18 (UTC)."],[],[],null,["# Google Cloud console\n\nThe browser-based Google Cloud console tool lets you manage your Cloud Storage\nresources through a graphical interface. Use the Google Cloud console to\nmanage your data if you prefer using a user interface through the browser.\n\nThis page describes how to access the Google Cloud console and lists tasks\nin Cloud Storage that can be performed using the Google Cloud console.\nAs an alternative to the Google Cloud console, you can also use the\n[Google Cloud CLI](/sdk/gcloud), [REST API](/storage/docs/json_api), or\n[Cloud Storage client libraries](/storage/docs/reference/libraries).\n\nConsole features\n----------------\n\nThe Google Cloud console provides the following features:\n\n- Access to all your Google Cloud projects\n- Access to the [Cloud Shell](/shell/docs)\n- A customizable project dashboard, with an overview of Google Cloud resources, billing, and a filterable activity listing\n- Access to all Google Cloud APIs, with a dashboard specific to each API, and access to manage your resources\n- Links to Google Cloud starting points, news, and documentation\n\nThe Google Cloud console is used to perform a variety of tasks in\nCloud Storage, such as the following:\n\n- [Creating buckets](/storage/docs/creating-buckets#storage-create-bucket-console)\n- [Uploading objects to buckets](/storage/docs/uploading-objects) and [downloading objects from buckets](/storage/docs/downloading-objects)\n- [Filtering and sorting lists of buckets and objects](#sort-filter)\n- Creating and managing [folders](/storage/docs/folder-types)\n- [Controlling access to your data and resources](/storage/docs/access-control) by using Identity and Access Management (IAM) and ACLs\n- [Monitoring buckets and bandwidth usage](/storage/docs/monitoring)\n- Using Cloud Storage features like [Anywhere Cache](/storage/docs/anywhere-cache), [soft delete](/storage/docs/soft-delete), and [Object Versioning](/storage/docs/object-versioning)\n\nTry it for yourself\n-------------------\n\n\nIf you're new to Google Cloud, create an account to evaluate how\nCloud Storage performs in real-world\nscenarios. New customers also get $300 in free credits to run, test, and\ndeploy workloads.\n[Try Cloud Storage free](https://console.cloud.google.com/freetrial)\n\nAccess to the Google Cloud console\n----------------------------------\n\nThe Google Cloud console requires no setup or installation, and you can\naccess it directly in a browser. Depending on your use case, you access the\nGoogle Cloud console using different URLs. If you are:\n\nA user granted access to a project\n\n: Use: `https://console.cloud.google.com/`\n\n: [Go to the Google Cloud console](https://console.cloud.google.com/)\n\n: A current project owner can [give you access to the entire project](/iam/docs/granting-changing-revoking-access#grant-single-role), which\n applies equally to all buckets and objects defined in the project.\n\nA user granted access to a bucket\n\n: Use: `https://console.cloud.google.com/storage/browser/`\u003cvar translate=\"no\"\u003eBUCKET_NAME\u003c/var\u003e\n\n: In this use case, a project owner gives you access to an individual bucket\n within a larger project. The owner then sends you the bucket name which you\n substitute into the URL. You are able to only work with objects in the\n specified bucket. This is useful for users who don't have access to the full\n project, but who need to access a bucket. When you access the URL, you\n authenticate if you are not already signed in.\n\n: A variation of this use case is when a project owner grants **All Users**\n permission to read objects in a bucket. This creates a bucket whose contents\n are publicly readable. For more information, see [Make data public](/storage/docs/access-control/making-data-public).\n\nA user granted access to an object\n\n: Use: `https://console.cloud.google.com/storage/browser/_details/`\u003cvar translate=\"no\"\u003eBUCKET_NAME\u003c/var\u003e`/`\u003cvar translate=\"no\"\u003eOBJECT_NAME\u003c/var\u003e\n\n: In this use case, a project owner gives you access to single objects within\n a bucket and sends you the URL to access the objects. When you access the URLs,\n you are prompted to authenticate with a user account if you are not already\n signed in.\n\n: Note that the form of this URL is different from the URL for objects that\n are [shared publicly](/storage/docs/access-control/making-data-public). When you share a link publicly, the URL is of the\n form: `https://storage.googleapis.com/`\u003cvar translate=\"no\"\u003eBUCKET_NAME\u003c/var\u003e`/`\u003cvar translate=\"no\"\u003eOBJECT_NAME\u003c/var\u003e.\n This public URL does not require a recipient to authenticate with a valid\n account and can be used for non-authenticated access to an object.\n\nFiltering and sorting lists of buckets and objects\n--------------------------------------------------\n\nIn the Google Cloud console list of buckets for a project, you can filter and\nsort the buckets you see by using the **Filter** field.\n\n- To filter buckets, select the **Sort and filter** option and then\n specify the column and value you want to filter by.\n\n- To filter buckets by bucket name prefix, select the\n **Filter by name prefix only** option and then specify the bucket name prefix\n you want to filter by.\n\n- To sort buckets, click arrow_upward\n **Sort** next to the name of the column you want to sort by.\n\n| **Note:** Projects with more than 1,000 buckets might experience degraded filtering and sorting performance.\n\nIn the Google Cloud console list of objects for a bucket, you can filter the\nobjects you see by using the **Filter** field.\n\n- To filter objects, select the **Sort and filter** option and then\n specify the column and value you want to filter by.\n\n- To filter objects by object name prefix, select the\n **Filter by name prefix only** option and then specify the object name prefix\n you want to filter by.\n\n- To sort objects, click arrow_upward\n **Sort** next to the name of the column you want to sort by.\n\nFiltering and sorting only applies to objects and folders in the current\npath being displayed. For example, if you're viewing the top-level of a bucket,\nfiltering and sorting don't return objects contained in folders.\n| **Note:** Buckets with large numbers of objects and folders in the current path might experience degraded performance when sorted or filtered with criteria other than the object name prefix.\n\nShowing and hiding columns\n--------------------------\n\nTo show or hide columns for a list of buckets or objects, click\n**View column** (view_column), then select\nthe columns you want to see or hide.\n\nCross-product integrations\n--------------------------\n\nThe following integrations with other Google Cloud products are available\nin the **Objects** tab of a bucket:\n\n- **Large scale data transfers to and from the bucket using Storage Transfer Service**\n\n [Storage Transfer Service](/storage-transfer-service) is a service that lets you transfer large volumes of\n data between your bucket and other storage options, such as\n your on-premises file system, other buckets, or other cloud providers.\n\n You can initiate a transfer by clicking the **Transfer data** drop-down in\n the **Objects** tab, selecting either **Transfer data in** or\n **Transfer data out**, and following the instructions.\n- **Scanning the bucket for sensitive data using Sensitive Data Protection**\n\n [Sensitive Data Protection](/security/products/sensitive-data-protection) is a service that lets you identify and\n protect sensitive data in your buckets, such as credit card numbers, IP\n IP addresses, and other forms of personally identifiable information (PII).\n\n For a list of the types of data Sensitive Data Protection detects,\n see the [Infotype detector reference](/sensitive-data-protection/docs/infotypes-reference).\n\n You can initiate a Sensitive Data Protection scan for a bucket by\n clicking the **Other services** drop-down in the **Objects** tab, selecting\n **Inspect for sensitive data** , and following the instructions. For a guide\n to performing a Sensitive Data Protection scan on a bucket, see\n [Inspecting a Cloud Storage location](/sensitive-data-protection/docs/inspecting-storage#inspecting-gcs).\n- **Exporting data from the bucket to Pub/Sub**\n\n [Pub/Sub](/pubsub) is a messaging service that lets you notify\n subscribers about events that occur for your Google Cloud resources.\n Pub/Sub supports receiving event records that are stored as text\n files in your bucket and publishing them to a Pub/Sub topic.\n\n You can create an export job for a bucket by clicking the **Other services**\n drop-down in the **Objects** tab, selecting **Export data to Pub/Sub** , and\n following the instructions. For more information, see\n [Cloud Storage text to Pub/Sub (Batch) template](/dataflow/docs/guides/templates/provided/cloud-storage-to-pubsub).\n- **Processing data in the bucket using Cloud Run functions**\n\n [Cloud Run functions](/functions) is a service that lets you specify code that should\n run when certain events occur within the bucket. For example, you could\n create a Java function that runs every time an object in the bucket is\n deleted.\n\n You can define a function for a bucket by clicking the **Other services**\n drop-down in the **Objects** tab, selecting **Process data**, and following\n the instructions."]]