Was ist Pub/Sub?

Pub/Sub ist ein asynchroner, skalierbarer Messaging-Dienst, der Dienste entkoppelt, die Nachrichten von Diensten erzeugen, die diese Nachrichten verarbeiten.

Pub/Sub ermöglicht die asynchrone Kommunikation von Diensten mit Latenzen im Bereich von 100 Millisekunden.

Pub/Sub wird für Streaminganalysen und Pipelines zur Datenintegration verwendet, um Daten zu laden und zu verteilen. Es ist als nachrichtenorientierte Middleware für die Dienstintegration oder als Warteschlange zur Parallelisierung von Aufgaben gleichermaßen effektiv.

Mit Pub/Sub können Sie Systeme für Ereignisersteller und -nutzer erstellen, die als Publisher und Abonnenten bezeichnet werden. Publisher kommunizieren asynchron mit Abonnenten durch Broadcast-Ereignisse und nicht durch synchrone Remote-Prozeduraufrufe (RPCs).

Publisher senden Ereignisse an den Pub/Sub-Dienst, ohne zu berücksichtigen, wie oder wann diese Ereignisse verarbeitet werden. Pub/Sub liefert dann Ereignisse an alle Dienste, die darauf reagieren müssen. Bei Systemen, die über RPCs kommunizieren, müssen Publisher warten, bis Abonnenten die Daten erhalten. Die asynchrone Integration in Pub/Sub erhöht jedoch die Flexibilität und Robustheit des gesamten Systems.

Erste Schritte mit Pub/Sub finden Sie in der Kurzanleitung zur Verwendung der Google Cloud Console. Eine umfassendere Einführung finden Sie unter Pub/Sub-Messaging-System erstellen.

Gängige Anwendungsfälle

  • Nutzerinteraktion und Serverereignisse aufnehmen. Wenn Sie Nutzerinteraktionsereignisse aus Endnutzeranwendungen oder Serverereignisse aus Ihrem System verwenden möchten, können Sie sie an Pub/Sub weiterleiten. Anschließend können Sie ein Streamverarbeitungstool wie Dataflow verwenden, das die Ereignisse an Datenbanken sendet. Beispiele für solche Datenbanken sind BigQuery, Bigtable und Cloud Storage. Mit Pub/Sub können Sie Ereignisse von vielen Clients gleichzeitig erfassen.
  • Ereignisverteilung in Echtzeit. Sowohl rohe als auch verarbeitete Ereignisse können verschiedenen Anwendungen in Ihrem Team und Ihrer Organisation zur Echtzeitverarbeitung zur Verfügung gestellt werden. Pub/Sub unterstützt einen „Unternehmensereignisbus“ und ereignisgesteuerte Anwendungsdesignmuster. Pub/Sub ermöglicht die Einbindung in viele Systeme, die Ereignisse nach Pub/Sub exportieren.
  • Daten zwischen Datenbanken replizieren. Pub/Sub wird häufig verwendet, um Änderungsereignisse aus Datenbanken zu verteilen. Mit diesen Ereignissen können Sie eine Ansicht des Datenbankstatus und des Statusverlaufs in BigQuery und anderen Datenspeichersystemen erstellen.
  • Parallele Verarbeitung und Workflows Sie können viele Aufgaben effizient auf mehrere Worker verteilen, indem Sie Pub/Sub-Nachrichten verwenden, um mit den Workern zu kommunizieren. Beispiele für solche Aufgaben sind die Komprimierung von Textdateien, das Senden von E-Mail-Benachrichtigungen, die Bewertung von KI-Modellen und das Neuformatieren von Bildern.
  • Ereignisbus für Unternehmen Sie können einen unternehmensweiten Echtzeit-Datenfreigabe-Bus erstellen, der Geschäftsereignisse, Datenbankaktualisierungen und Analyseereignisse in Ihrer gesamten Organisation verteilt.
  • Datenstreaming von Anwendungen, Diensten oder IoT-Geräten Eine SaaS-Anwendung kann beispielsweise einen Echtzeitfeed mit Ereignissen veröffentlichen. Ein Sensor in einem Zuhause kann auch Daten über eine Datenverarbeitungspipeline an Pub/Sub streamen, um sie in anderen Google Cloud-Produkten zu verwenden.
  • Verteilte Cache-Speicher aktualisieren. Zum Beispiel kann eine Anwendung Entwertungsereignisse veröffentlichen, um die IDs von geänderten Objekten zu aktualisieren.
  • Load-Balancing für Zuverlässigkeit. Zum Beispiel können Instanzen eines Dienstes in Compute Engine in mehreren Zonen bereitgestellt werden, aber ein gemeinsames Thema abonnieren. Wenn der Dienst in einer Zone ausfällt, können die anderen Komponenten die Last automatisch übernehmen.

Pub/Sub mit anderen Messaging-Technologien vergleichen

Pub/Sub kombiniert die horizontale Skalierbarkeit von Apache Kafka und Pulsar mit Funktionen in Messaging-Middleware wie Apache ActiveMQ und RabbitMQ. Beispiele für solche Funktionen sind Warteschlangen für unzustellbare E-Mails und Filter.

Ein weiteres Feature, das Pub/Sub von Messaging-Middleware übernimmt, ist die Parallelität pro Nachricht, statt partitionbasierte Messaging-Funktionen. Pub/Sub gibt einzelne Nachrichten an Abonnentenclients weiter und verfolgt, ob eine bestimmte Nachricht erfolgreich verarbeitet wurde.

Im Gegensatz dazu verwenden andere horizontal skalierbare Nachrichtensysteme Partitionen für die horizontale Skalierung. Dadurch werden Abonnenten gezwungen, Nachrichten in jeder Partition der Reihe nach zu verarbeiten. Die Anzahl der gleichzeitigen Clients wird auf die Anzahl der Partitionen begrenzt. Die Verarbeitung pro Nachricht maximiert die Parallelität der Abonnentenanwendungen und hilft, die Unabhängigkeit von Publishern und Abonnenten zu gewährleisten.

Dienst-zu-Dienst-Kommunikation im Vergleich zu Dienst-zu-Client-Kommunikation

Pub/Sub ist für die Dienst-zu-Dienst-Kommunikation gedacht und nicht für die Kommunikation mit Endnutzer- oder IoT-Clients. Andere Muster werden von anderen Produkten besser unterstützt:

Sie können eine Kombination dieser Dienste verwenden, um folgende Muster zu erstellen: Client -> Dienste -> Datenbank. Weitere Informationen finden Sie beispielsweise in der Anleitung Pub/Sub-Nachrichten über WebSockets streamen.

Einbindungen

Pub/Sub bietet viele Integrationen in andere Google Cloud-Produkte, um ein Nachrichtensystem mit komplettem Funktionsumfang zu erstellen:

  • Streamverarbeitung und Datenintegration Wird von Dataflow unterstützt, einschließlich Dataflow-Vorlagen und SQL. Dadurch wird die Verarbeitung und Datenintegration in BigQuery und Data Lakes in Cloud Storage ermöglicht. Dataflow-Vorlagen zum Verschieben von Daten von Pub/Sub in Cloud Storage, BigQuery und andere Produkte sind in den Pub/Sub- und Dataflow-UIs in der Google Cloud Console verfügbar. Die Integration in Apache Spark ist auch verfügbar, insbesondere, wenn die Verwaltung mit Dataproc erfolgt. Die visuelle Zusammensetzung von Integrations- und Verarbeitungspipelines, die auf Spark und Dataproc ausgeführt werden, kann mit Data Fusion erreicht werden.
  • Monitoring, Benachrichtigungen und Logging Unterstützt von Monitoring- und Logging-Produkten.
  • Authentifizierung und IAM Pub/Sub basiert auf einer standardmäßigen OAuth-Authentifizierung, die von anderen Google Cloud-Produkten verwendet wird. Außerdem unterstützt es detailliertes IAM und ermöglicht die Zugriffssteuerung für einzelne Ressourcen.
  • APIs Pub/Sub verwendet standardmäßige gRPC- und REST-Dienst-API-Technologien zusammen mit Clientbibliotheken für mehrere Sprachen.
  • Trigger, Benachrichtigungen und Webhooks Pub/Sub ermöglicht die Zustellung von Nachrichten auf Push-Basis als HTTP POST-Anfragen an Webhooks. Sie können die Workflow-Automatisierung mit Cloud Functions oder anderen serverlosen Produkten implementieren.
  • Orchestrierung Pub/Sub kann deklarativ in mehrstufige serverlose Workflows eingebunden werden. Die Big Data-Orchestrierung und die analytische Orchestrierung erfolgen häufig mit Cloud Composer, das Pub/Sub-Trigger unterstützt. Sie können Pub/Sub auch mit der Anwendungsintegration (Vorabversion) integrieren, einer iPaaS-Lösung (Integration Platform as a Service). Die Anwendungsintegration bietet einen Pub/Sub-Trigger, um Integrationen auszulösen oder zu starten.
  • Integration Connectors(Vorabversion) Mit diesen Connectors können Sie Verbindungen zu verschiedenen Datenquellen herstellen. Mit Connectors werden sowohl Google Cloud-Dienste als auch Geschäftsanwendungen von Drittanbietern über eine transparente Standardschnittstelle in Ihre Integrationen eingebunden. Für Pub/Sub können Sie eine Pub/Sub-Verbindung für Ihre Integrationen erstellen.

Nächste Schritte