Klicken Sie auf den Stream, für den Sie detaillierte Informationen aufrufen möchten. Diese Informationen werden auf der Seite Streamdetails angezeigt.
Allgemeine Informationen anzeigen
Zu den allgemeinen Informationen eines Streams gehören:
Der Name und der Status des Streams.
Die Quell- und Zielverbindungsprofile, die der Stream verwendet, um Daten aus einer Quelldatenbank in ein Ziel zu übertragen.
Die Profiltypen der Verbindungsprofile.
Detaillierte Informationen anzeigen
Neben dem Aufrufen allgemeiner Informationen zu einem Stream können Sie auf einen Stream klicken, um zusätzliche Informationen anzuzeigen, einschließlich folgenden:
Die Region, in der der Stream gespeichert ist. Streams werden wie alle Ressourcen in einer Region gespeichert. Streams können nur Verbindungsprofile und private Konnektivitätskonfigurationen in derselben Region verwenden.
Wann der Stream erstellt, zuletzt aktualisiert oder wiederhergestellt wurde.
Alle Labels, die dem Stream hinzugefügt wurden. Mit diesen Labels wird der Stream organisiert.
Die CDC-Methode, die Sie für den Stream ausgewählt haben, hängt von der Quelldatenbank ab.
Die Tabellen und Schemas in der Quelldatenbank, die Datastream bei der Verarbeitung des Streams berücksichtigen soll.
Die Tabellen und Schemas in der Quelldatenbank, die Datastream bei der Verarbeitung des Streams ausschließen soll.
Für alle Quellen außer PostgreSQL wird die für den Stream festgelegte CDC-Methode verwendet.
Für Oracle-Quellen: die Methode für den Zugriff auf Logdateien.
Ob der Verlaufs-Backfill für den Stream aktiviert oder deaktiviert ist.
Wenn die Option aktiviert ist, wird angegeben, wie viele Schemas und Tabellen in der Quelldatenbank vom Backfill ausgeschlossen sind.
Für BigQuery-Ziele:
Gibt an, ob es sich beim Ziel-Dataset um ein dynamisches oder Standard-Dataset handelt.
Gibt an, ob der Schreibmodus für den Stream auf Zusammenführen oder Nur anhängen festgelegt ist.
Wenn Sie Zusammenführungsmodus ausgewählt haben, wird das Limit für die Veralterung auf die neuen BigQuery-Tabellen angewendet, die von Datastream erstellt werden.
Außerdem gilt für Ziele für BigLake-Iceberg-Tabellen:
Die Kennung der BigQuery-Verbindung, die Sie für Ihren Stream verwenden.
Der Uniform Resource Identifier (URI) des Cloud Storage-Bucket, in dem Sie Ihre Daten speichern.
Für Cloud Storage-Ziele:
Der Speicherort des Ziels, in das der Stream Schemas, Tabellen und Daten aus einer Quelldatenbank überträgt.
Das Format der Dateien, die an das Ziel geschrieben werden. Datastream unterstützt zwei Ausgabeformate: Avro und JSON.
Ob Ihre Daten mit einem von Google (von Google verwaltet) oder von Ihnen (vom Kunden verwaltet) verwalteten Schlüssel verschlüsselt werden.
Einen Link und den Pfad zum vom Kunden verwalteten Verschlüsselungsschlüssel (wenn Sie die Verschlüsselung verwalten).
Ein Link zum Erstellen einer Benachrichtigungsrichtlinie für den Stream.
Einen Status darüber, wie viele Backfills in Bearbeitung, ausstehend oder fehlgeschlagen sind.
Die Anzahl der Ereignisse, die von Datastream in den letzten sieben Tagen verarbeitet und geladen wurden.
Die Anzahl der Ereignisse, die Datastream in den letzten sieben Tagen nicht verarbeiten konnte.
Das Diagramm zur Datenaktualität. In diesem Diagramm wird die Zeitlücke zwischen den Daten in der Quelle und den vom Stream an das Ziel übertragenen Daten angezeigt. Dies wird als die Zeit berechnet, die seit der letzten Prüfung durch Datastream auf neue Daten in der Quelle verstrichen ist.
Weitere Informationen zu diesem Diagramm finden Sie unter Stream überwachen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-12 (UTC)."],[[["\u003cp\u003eYou can view high-level stream information, including its name, status, and the source and destination connection profiles it uses.\u003c/p\u003e\n"],["\u003cp\u003eDetailed stream information available includes the stream's region, creation/update times, labels, CDC method, and included/excluded tables and schemas.\u003c/p\u003e\n"],["\u003cp\u003eFor BigQuery destinations, details such as the dataset type, write mode, and staleness limit configurations can be viewed.\u003c/p\u003e\n"],["\u003cp\u003eFor Cloud Storage destinations, details on the destination location and the output file format (Avro or JSON) are available.\u003c/p\u003e\n"],["\u003cp\u003eYou can view data encryption information, event processing statistics, data freshness, and links to alerting policies for the stream.\u003c/p\u003e\n"]]],[],null,["# View a stream\n\nIn this page, you learn how to get information about your streams.\n\nTo view high-level and detailed information about a stream, do the following:\n\n1. Go to the **Streams** page in the Google Cloud Console.\n\n [Go to the Streams page](https://console.cloud.google.com/datastream/streams)\n2. Click the stream for which you want to see detailed information. This information appears on the **Stream details** page.\n\nView high-level information\n---------------------------\n\nHigh-level information about a stream includes:\n\n- The name and status of the stream.\n- The source and destination connection profiles that the stream uses to transfer data from a source database into a destination.\n- The profile types of the connection profiles.\n\nView detailed information\n-------------------------\n\nIn addition to viewing high-level information about a stream, you can click a stream to see additional information, including:\n\n- The region where the stream is stored. Streams, like all resources, are saved in a region. Streams can only use connection profiles and private connectivity configurations that are in the same region.\n- When the stream was created, last updated, or recovered.\n- Any labels added to the stream. These labels are used to organize the stream.\n- Depending on the source database, the CDC method that you selected for the stream.\n- The tables and schemas in the source database which Datastream should include when processing the stream.\n- The tables and schemas in the source database that Datastream should exclude when processing the stream.\n- For all sources apart from PostgreSQL, the CDC method set for the stream.\n- For Oracle sources: the log file access method.\n- Whether [historical backfill](/datastream/docs/create-a-stream#backfillhistoricaldata) is enabled or disabled for the stream.\n - If it's enabled, how many schemas and tables in the source database are excluded from backfilling.\n- For BigQuery destinations:\n\n - Whether the destination dataset is a dynamic or default dataset.\n - Whether the write mode for the stream is set to **Merge** or **Append-only**.\n - If you selected **Merge mode**, the staleness limit configuration applied to the new BigQuery tables created by Datastream.\n\n Additionally, for BigLake Iceberg tables destinations:\n - The identifier of the BigQuery connection that you use for your stream.\n - The uniform resource identifier (URI) of the Cloud Storage bucket where you store your data.\n- For Cloud Storage destinations:\n\n - The location of the destination into which the stream transfers schemas, tables, and data from a source database.\n - The format of files written to the destination. Datastream supports two output formats: Avro and JSON.\n- Whether your data is encrypted with a key that's managed by Google (Google-managed) or by you (Customer-managed).\n\n- A link and the path to the customer-managed encryption key (if you're managing the encryption).\n\n- A link to create an alerting policy for the stream.\n\n- A status of how many backfills are in progress, pending, or failed.\n\n- The number of events that are processed and loaded to the destination by Datastream in the last 7 days.\n\n- The number of events that Datastream couldn't process in the last 7\n days.\n\n - The Data freshness graph. This graph displays the time gap between data residing in the source and the data being transferred into the destination by the stream. This is calculated as the time elapsed since Datastream last checked for new data in the source.\n\n For more information about this graph, see\n [Monitor a stream](/datastream/docs/monitor-a-stream).\n\nWhat's next\n-----------\n\n- To learn more about streams, see [Stream lifecycle](/datastream/docs/stream-states-and-actions).\n- To learn how to modify your streams, see [Modify a stream](/datastream/docs/modify-a-stream).\n- To learn how to monitor a stream, see [Monitor a stream](/datastream/docs/monitor-a-stream).\n- To learn how to delete an existing stream, see [Delete a stream](/datastream/docs/delete-a-stream)."]]