Managed I/O mendukung pembacaan dan penulisan ke Apache Kafka.
Persyaratan
SDK berikut mendukung I/O terkelola untuk Apache Kafka:
- Apache Beam SDK untuk Java versi 2.58.0 atau yang lebih baru
- Apache Beam SDK untuk Python versi 2.61.0 atau yang lebih baru
Konfigurasi
I/O Terkelola untuk BigQuery mendukung parameter konfigurasi berikut:
KAFKA
Baca
Konfigurasi | Jenis | Deskripsi |
---|---|---|
bootstrap_servers |
str
|
Daftar pasangan host/port yang akan digunakan untuk membuat koneksi awal ke cluster Kafka. Klien akan menggunakan semua server, terlepas dari server mana yang ditentukan di sini untuk bootstrapping—daftar ini hanya memengaruhi host awal yang digunakan untuk menemukan kumpulan lengkap server. Daftar ini harus dalam format `host1:port1,host2:port2,...` |
topik |
str
|
t/a |
confluent_schema_registry_subject |
str
|
t/a |
confluent_schema_registry_url |
str
|
t/a |
consumer_config_updates |
map[str, str]
|
Daftar pasangan nilai kunci yang berfungsi sebagai parameter konfigurasi untuk konsumen Kafka. Sebagian besar konfigurasi ini tidak akan diperlukan, tetapi jika Anda perlu menyesuaikan konsumen Kafka, Anda dapat menggunakannya. Lihat daftar mendetail: https://docs.confluent.io/platform/current/installation/configuration/consumer-configs.html |
file_descriptor_path |
str
|
Jalur ke file Set Deskriptor File Buffer Protokol. File ini digunakan untuk definisi skema dan serialisasi pesan. |
format |
str
|
Format encoding untuk data yang disimpan di Kafka. Opsi yang valid adalah: RAW,STRING,AVRO,JSON,PROTO |
message_name |
str
|
Nama pesan Protocol Buffer yang akan digunakan untuk ekstraksi skema dan konversi data. |
schema |
str
|
Skema tempat data dienkode dalam topik Kafka. Untuk data AVRO, ini adalah skema yang ditentukan dengan sintaksis skema AVRO (https://avro.apache.org/docs/1.10.2/spec.html#schemas). Untuk data JSON, ini adalah skema yang ditentukan dengan sintaksis JSON-schema (https://json-schema.org/). Jika URL ke Confluent Schema Registry disediakan, kolom ini akan diabaikan, dan skema akan diambil dari Confluent Schema Registry. |
KAFKA
Menulis
Konfigurasi | Jenis | Deskripsi |
---|---|---|
bootstrap_servers |
str
|
Daftar pasangan host/port yang akan digunakan untuk membuat koneksi awal ke cluster Kafka. Klien akan menggunakan semua server, terlepas dari server mana yang ditentukan di sini untuk bootstrapping—daftar ini hanya memengaruhi host awal yang digunakan untuk menemukan kumpulan lengkap server. | Format: host1:port1,host2:port2,... |
format |
str
|
Format encoding untuk data yang disimpan di Kafka. Opsi yang valid adalah: RAW,JSON,AVRO,PROTO |
topik |
str
|
t/a |
file_descriptor_path |
str
|
Jalur ke file Set Deskriptor File Buffer Protokol. File ini digunakan untuk definisi skema dan serialisasi pesan. |
message_name |
str
|
Nama pesan Protocol Buffer yang akan digunakan untuk ekstraksi skema dan konversi data. |
producer_config_updates |
map[str, str]
|
Daftar key-value pair yang berfungsi sebagai parameter konfigurasi untuk produser Kafka. Sebagian besar konfigurasi ini tidak akan diperlukan, tetapi jika Anda perlu menyesuaikan produser Kafka, Anda dapat menggunakan konfigurasi ini. Lihat daftar mendetail: https://docs.confluent.io/platform/current/installation/configuration/producer-configs.html |
schema |
str
|
t/a |
Langkah berikutnya
Untuk informasi dan contoh kode selengkapnya, lihat topik berikut: