Die folgende Tabelle enthält Informationen zur Auswahl des richtigen Zustellungsmechanismus für Ihre Anwendung:
Von Pub/Sub-Abos unterstützte Funktionen
Anwendungsfall
Pull-Abo
Hohe Anzahl von Nachrichten (GB pro Sekunde).
Effizienz und Durchsatz der Nachrichtenverarbeitung sind entscheidend.
Umgebungen, in denen ein öffentlicher HTTPS-Endpunkt mit einem nicht selbst signierten SSL-Zertifikat nicht eingerichtet werden kann.
Push-Abo
Mehrere Themen, die vom selben Webhook verarbeitet werden müssen.
Abonnenten der App Engine-Standardumgebung und Cloud Run Functions.
Umgebungen, in denen keine Google Cloud Abhängigkeiten (z. B. Anmeldedaten und die Clientbibliothek) eingerichtet werden können.
Abo exportieren
Hohe Anzahl von Nachrichten, die bis zu mehreren Millionen pro Sekunde skalieren kann.
Nachrichten werden ohne zusätzliche Verarbeitung direkt an eine Google Cloud -Ressource gesendet.
Endpunkte
Pull-Abo
Jedes Gerät im Internet mit autorisierten Anmeldedaten kann die Pub/Sub API aufrufen.
Push-Abo
Ein im Internet verfügbarer HTTPS-Server mit nicht selbst signiertem Zertifikat.
Der empfangende Endpunkt kann von dem Pub/Sub-Abo getrennt werden, damit Nachrichten aus mehreren Abos an einen einzigen Endpunkt gesendet werden.
Abo exportieren
Ein BigQuery-Dataset und eine BigQuery-Tabelle für ein BigQuery-Abo.
Ein Cloud Storage-Bucket für ein Cloud Storage-Abo.
Load Balancing
Pull-Abo
Mehrere Abonnenten können Abrufe bei dem gleichen „geteilten“ Abo durchführen.
Jeder Abonnent erhält einen bestimmten Teil der Nachrichten.
Push-Abo
Push-Endpunkte können Load Balancer sein.
Abo exportieren
Der Pub/Sub-Dienst gleicht die Last automatisch aus.
Konfiguration
Pull-Abo
Keine Konfiguration notwendig.
Push-Abo
Für App Engine-Anwendungen im selben Projekt wie der Abonnent ist keine Konfiguration erforderlich.
Die Verifizierung der Push-Endpunkte ist in der Google Cloud Console nicht erforderlich.
Endpunkte müssen über DNS-Namen erreichbar sein und für sie müssen SSL-Zertifikate installiert sein.
Abo exportieren
Für das BigQuery-Abo müssen ein BigQuery-Dataset und eine BigQuery-Tabelle mit den entsprechenden Berechtigungen vorhanden sein.
Für das Cloud Storage-Abo muss ein Cloud Storage-Bucket vorhanden sein, der mit den entsprechenden Berechtigungen konfiguriert ist.
Ablaufsteuerung
Pull-Abo
Der Abonnentenclient steuert das Tempo der Zustellung. Der Abonnent kann das Bestätigungszeitlimit dynamisch ändern und ermöglicht damit beliebig lange Nachrichtenverarbeitung.
Push-Abo
Der Pub/Sub-Server implementiert automatisch eine Ablaufsteuerung. Es ist nicht erforderlich, den Nachrichtenfluss auf der Clientseite zu verarbeiten.
Es ist jedoch möglich, anzugeben, dass der Client die aktuelle Nachrichtenlast nicht bewältigen kann, indem man einen HTTP-Fehler zurückgibt.
Abo exportieren
Der Pub/Sub-Server implementiert automatisch eine Ablaufsteuerung, um das Schreiben von Nachrichten in eine Google Cloud -Ressource zu optimieren.
Effizienz und Durchsatz
Pull-Abo
Erzielt hohen Durchsatz bei geringer CPU-Leistung und Bandbreite durch Unterstützung von Stapelzustellung, -Bestätigungen und Massenparallelverarbeitung. Ist möglicherweise ineffizient, wenn versucht wird, durch aggressiven Abruf die Nachrichtenzustellungszeit zu minimieren.
Push-Abo
Stellt eine Nachricht pro Anfrage zu und begrenzt die Höchstzahl der ausstehenden Nachrichten.
Abo exportieren
Die Skalierbarkeit wird dynamisch von Pub/Sub-Servern verwaltet.
Wann ist ein Exportabo sinnvoll?
Ohne Exportabo benötigen Sie ein Pull- oder Push-Abo und einen Abonnenten (z. B. Dataflow), um Nachrichten zu lesen und in eine Google Cloud Ressource zu schreiben.
Der Overhead beim Ausführen eines Dataflow-Jobs ist nicht erforderlich, wenn Nachrichten vor dem Speichern nicht zusätzlich verarbeitet werden müssen.
Abos können exportiert werden. Das hat folgende Vorteile:
Einfache Bereitstellung. Sie können ein Exportabo über einen einzelnen Workflow in der Console, der Google Cloud CLI, der Clientbibliothek oder der Pub/Sub API einrichten.
Niedrige Kosten. Reduziert die zusätzlichen Kosten und die Latenz ähnlicher Pub/Sub-Pipelines, die Dataflow-Jobs enthalten.
Diese Kostenoptimierung eignet sich für Nachrichtensysteme, die vor dem Speichern nicht zusätzlich verarbeitet werden müssen.
Minimales Monitoring Exportabonnemente sind Teil des mehrmandantenfähigen Pub/Sub-Dienstes und erfordern keine separaten Monitoring-Jobs.
Flexibilität: Ein BigQuery-Abo kann das Schema des Themas verwenden, an das es angehängt ist. Das ist mit der grundlegenden Dataflow-Vorlage zum Schreiben von Pub/Sub nach BigQuery nicht möglich. Ebenso bietet ein Cloud Storage-Abo konfigurierbare Optionen für die Dateigruppierung basierend auf der Dateigröße und der verstrichenen Zeit. Diese Optionen sind in der grundlegenden Dataflow-Vorlage für das Schreiben von Pub/Sub nach Cloud Storage nicht konfigurierbar.
Für Pub/Sub-Systeme, bei denen eine gewisse Datentransformation erforderlich ist, bevor die Daten in einerGoogle Cloud Ressource wie einer BigQuery-Tabelle oder einem Cloud Storage-Bucket gespeichert werden, wird jedoch weiterhin eine Dataflow-Pipeline empfohlen.
Weitere Informationen zum Streamen von Daten aus Pub/Sub zu BigQuery mit Transformation mit Dataflow finden Sie unter Von Pub/Sub zu BigQuery streamen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-17 (UTC)."],[],[],null,["# Choose a subscription type\n\nThis document helps you choose the appropriate type of Pub/Sub\nsubscription suited to your business requirements.\n\nBefore you begin\n----------------\n\n- Learn about [subscriptions](/pubsub/docs/subscription-overview).\n\nPub/Sub subscription comparison table\n-------------------------------------\n\nThe following table offers some guidance in choosing the appropriate delivery\nmechanism for your application:\n\nWhen to use an export subscription\n----------------------------------\n\nWithout an export subscription, you need a pull or push\nsubscription and a subscriber (such as Dataflow) to\nread messages and write them to a Google Cloud resource.\nThe overhead of running a Dataflow job is\nnot necessary when messages don't\nrequire additional processing before being stored.\n\nExport subscriptions have the following advantages:\n\n- **Simple deployment.** You can set up an export subscription through a\n single workflow in the console, Google Cloud CLI, client library,\n or Pub/Sub API.\n\n- **Low costs.** Reduces the additional cost and latency of similar\n Pub/Sub pipelines that include Dataflow jobs.\n This cost optimization is useful for messaging systems that don't require\n additional processing before storage.\n\n- **Minimal monitoring.** Export subscriptions are part of the multi-tenant\n Pub/Sub service and don't require you to run separate\n monitoring jobs.\n\n- **Flexibility**. A BigQuery subscription can use the\n schema of the topic to which it is attached, which is not available with\n the basic Dataflow template for writing from\n Pub/Sub to BigQuery. Similarly,\n a Cloud Storage subscription offers configurable file batching options\n based on file size and elapsed time, which are not configurable in the\n basic Dataflow template for writing from\n Pub/Sub to Cloud Storage.\n\nHowever, a Dataflow pipeline is still\nrecommended for Pub/Sub systems where some data\ntransformation is required before the data is stored in a\nGoogle Cloud resource such as a BigQuery table or\nCloud Storage bucket.\n\nTo learn how to stream data from Pub/Sub to\nBigQuery with transformation by using Dataflow,\nsee [Stream from Pub/Sub to BigQuery](/dataflow/docs/tutorials/dataflow-stream-to-bigquery).\n\nTo learn how to stream data from Pub/Sub to\nCloud Storage with transformation by using\nDataflow, see\n[Stream messages from Pub/Sub by using Dataflow](/pubsub/docs/stream-messages-dataflow).\n\nWhat's next\n-----------\n\nUnderstand the workflow for each subscription type:\n\n- [Pull](/pubsub/docs/pull)\n\n- [Push](/pubsub/docs/push)\n\n- [BigQuery](/pubsub/docs/bigquery)\n\n- [Cloud Storage](/pubsub/docs/cloudstorage)"]]