Von Dataflow verwaltete E/A für Apache Kafka

Verwaltete E/A unterstützt das Lesen und Schreiben von Daten in Apache Kafka.

Voraussetzungen

Die folgenden SDKs unterstützen die verwaltete E/A für Apache Kafka:

  • Apache Beam SDK für Java Version 2.58.0 oder höher
  • Apache Beam SDK für Python Version 2.61.0 oder höher

Konfiguration

Managed I/O für BigQuery unterstützt die folgenden Konfigurationsparameter:

KAFKA Lesen

Konfiguration Typ Beschreibung
bootstrap_servers str Eine Liste von Host/Port-Paaren, die zum Herstellen der ersten Verbindung zum Kafka-Cluster verwendet werden. Der Client verwendet alle Server, unabhängig davon, welche Server hier für das Bootstrapping angegeben sind. Diese Liste wirkt sich nur auf die anfänglichen Hosts aus, die zum Ermitteln der vollständigen Servergruppe verwendet werden. Diese Liste muss das Format „host1:port1,host2:port2,...“ haben.
thema str
confluent_schema_registry_subject str
confluent_schema_registry_url str
consumer_config_updates map[str, str] Eine Liste von Schlüssel/Wert-Paaren, die als Konfigurationsparameter für Kafka-Consumer dienen. Die meisten dieser Konfigurationen sind nicht erforderlich. Wenn Sie Ihren Kafka-Consumer jedoch anpassen müssen, können Sie diese verwenden. Eine detaillierte Liste finden Sie unter https://docs.confluent.io/platform/current/installation/configuration/consumer-configs.html.
file_descriptor_path str Der Pfad zur Datei mit dem Satz von Protokollzwischenspeicher-Dateideskriptoren. Diese Datei wird für die Schemadefinition und die Nachrichtenserialisierung verwendet.
Format str Das Codierungsformat für die in Kafka gespeicherten Daten. Gültige Optionen: RAW,STRING,AVRO,JSON,PROTO
message_name str Der Name der Protocol Buffer-Nachricht, die für die Schemaextraktion und Datenkonvertierung verwendet werden soll.
schema str Das Schema, in dem die Daten im Kafka-Thema codiert sind. Für AVRO-Daten ist dies ein Schema, das mit der AVRO-Schemasyntax (https://avro.apache.org/docs/1.10.2/spec.html#schemas) definiert wird. Für JSON-Daten ist dies ein Schema, das mit der JSON-Schema-Syntax (https://json-schema.org/) definiert wird. Wenn eine URL zur Confluent Schema Registry angegeben wird, wird dieses Feld ignoriert und das Schema wird aus der Confluent Schema Registry abgerufen.

KAFKA Schreiben

Konfiguration Typ Beschreibung
bootstrap_servers str Eine Liste von Host/Port-Paaren, die zum Herstellen der ersten Verbindung zum Kafka-Cluster verwendet werden. Der Client verwendet alle Server, unabhängig davon, welche Server hier für das Bootstrapping angegeben sind. Diese Liste wirkt sich nur auf die anfänglichen Hosts aus, die zum Ermitteln der vollständigen Servergruppe verwendet werden. | Format: host1:port1,host2:port2,...
format str Das Codierungsformat für die in Kafka gespeicherten Daten. Gültige Optionen sind: RAW,JSON,AVRO,PROTO
thema str
file_descriptor_path str Der Pfad zur Datei mit dem Satz von Protokollzwischenspeicher-Dateideskriptoren. Diese Datei wird für die Schemadefinition und die Nachrichtenserialisierung verwendet.
message_name str Der Name der Protocol Buffer-Nachricht, die für die Schemaextraktion und Datenkonvertierung verwendet werden soll.
producer_config_updates map[str, str] Eine Liste von Schlüssel/Wert-Paaren, die als Konfigurationsparameter für Kafka-Produzenten dienen. Die meisten dieser Konfigurationen sind nicht erforderlich. Wenn Sie Ihren Kafka-Produzenten jedoch anpassen müssen, können Sie diese verwenden. Eine detaillierte Liste finden Sie unter https://docs.confluent.io/platform/current/installation/configuration/producer-configs.html.
schema str

Nächste Schritte

Weitere Informationen und Codebeispiele finden Sie unter den folgenden Themen: