Apache Kafka to BigQuery 模板

Apache Kafka to BigQuery 模板是一种流处理流水线,可从 Google Cloud Managed Service for Apache Kafka 集群注入文本数据,然后将生成的记录输出到 BigQuery 表。将数据插入输出表时发生的任何错误都会插入 BigQuery 中单独的错误表中。

您还可以将 Apache Kafka to BigQuery 模板与自行管理的 Kafka 或外部 Kafka 搭配使用。

流水线要求

  • Apache Kafka 代理服务器必须正在运行并可从 Dataflow 工作器机器进行访问。
  • Apache Kafka 主题必须已存在。
  • 您必须启用 Dataflow、BigQuery 和 Cloud Storage API。如果需要身份验证,您还必须启用 Secret Manager API。
  • 为 Kafka 输入主题创建具有适当架构的 BigQuery 数据集和表。如果您在同一主题中使用多个架构,并且想要写入多个表,则无需在配置流水线之前创建表。
  • 当模板的死信(未处理的消息)队列处于启用状态时,请为死信队列创建一个没有架构的空表。

Kafka 消息格式

此模板支持以如下格式从 Kafka 读取消息:

JSON 格式

如需读取 JSON 消息,请将 messageFormat 模板参数设置为 "JSON"

Avro 二进制编码

如需读取二进制 Avro 消息,请设置以下模板参数:

  • messageFormat"AVRO_BINARY_ENCODING"
  • binaryAvroSchemaPath:Cloud Storage 中 Avro 架构文件的位置。示例:gs://BUCKET_NAME/message-schema.avsc

如需详细了解 Avro 二进制格式,请参阅 Apache Avro 文档中的二进制编码

Confluent 架构注册表编码的 Avro

如需读取 Confluent 架构注册表中以 Avro 编码的消息,请设置以下模板参数:

  • messageFormat"AVRO_CONFLUENT_WIRE_FORMAT"

  • schemaFormat:以下值之一:
    • "SINGLE_SCHEMA_FILE":消息架构在 Avro 架构文件中定义。 在 confluentAvroSchemaPath 参数中指定架构文件的 Cloud Storage 位置。
    • "SCHEMA_REGISTRY":消息使用 Confluent 架构注册表进行编码。 在 schemaRegistryConnectionUrl 参数中指定 Confluent 架构注册表实例的网址,并在 schemaRegistryAuthenticationMode 参数中指定身份验证模式。

如需详细了解此格式,请参阅 Confluent 文档中的 序列化格式

身份验证

Apache Kafka to BigQuery 模板支持对 Kafka 代理进行 SASL/PLAIN 身份验证。

模板参数

必需参数

  • readBootstrapServerAndTopic:要从中读取输入的 Kafka 主题。
  • writeMode:将记录写入一个表或多个表(根据架构)。DYNAMIC_TABLE_NAMES 模式仅支持 AVRO_CONFLUENT_WIRE_FORMAT 源消息格式和 SCHEMA_REGISTRY 架构源。目标表名称是根据每条消息的 Avro 架构名称自动生成的,可以是单个架构(创建单个表),也可以是多个架构(创建多个表)。SINGLE_TABLE_NAME 模式会写入用户指定的单个表(单个架构)。默认值为 SINGLE_TABLE_NAME
  • kafkaReadAuthenticationMode:与 Kafka 集群搭配使用的身份验证模式。使用 KafkaAuthenticationMethod.NONE 表示不进行身份验证,使用 KafkaAuthenticationMethod.SASL_PLAIN 表示使用 SASL/PLAIN 用户名和密码,使用 KafkaAuthenticationMethod.SASL_SCRAM_512 表示使用 SASL_SCRAM_512 身份验证,使用 KafkaAuthenticationMethod.TLS 表示使用基于证书的身份验证。KafkaAuthenticationMethod.APPLICATION_DEFAULT_CREDENTIALS 应仅用于 Google Cloud Apache Kafka for BigQuery 集群,它允许使用应用默认凭据进行身份验证。
  • messageFormat:要读取的 Kafka 消息的格式。支持的值包括 AVRO_CONFLUENT_WIRE_FORMAT(Confluent 架构注册表编码的 Avro)、AVRO_BINARY_ENCODING(普通二进制 Avro)和 JSON。默认值为:AVRO_CONFLUENT_WIRE_FORMAT。
  • useBigQueryDLQ:如果为 true,失败的消息将写入 BigQuery,并附带额外的错误信息。默认值为:false。

可选参数

  • outputTableSpec:要将输出写入的 BigQuery 表位置。该名称应采用 <project>:<dataset>.<table_name> 格式。表的架构必须与输入对象匹配。
  • persistKafkaKey:如果为 true,流水线会将 Kafka 消息键保留在 BigQuery 表中,并以 BYTES 类型的 _key 字段表示。默认值为 false(忽略密钥)。
  • outputProject:数据集所在的 BigQuery 输出项目。系统会在数据集中动态创建表。默认值为空。
  • outputDataset:要将输出写入的 BigQuery 输出数据集。系统会在数据集中动态创建表。如果这些表是预先创建的,则表名称应遵循指定的命名惯例。名称应为 bqTableNamePrefix + Avro Schema FullName,每个字词之间用连字符分隔 -。默认值为空。
  • bqTableNamePrefix:创建 BigQuery 输出表时要使用的命名前缀。仅在使用架构注册表时适用。默认值为空。
  • createDisposition:BigQuery CreateDisposition。例如:CREATE_IF_NEEDEDCREATE_NEVER。默认值为:CREATE_IF_NEEDED。
  • writeDisposition:BigQuery WriteDisposition。例如:WRITE_APPENDWRITE_EMPTYWRITE_TRUNCATE。默认值为:WRITE_APPEND。
  • useAutoSharding:如果为 true,则流水线在写入 BigQuery 时使用自动分片。默认值为 true
  • numStorageWriteApiStreams:指定写入流的数量,必须设置此参数。默认值为 0
  • storageWriteApiTriggeringFrequencySec:指定触发频率(以秒为单位),必须设置此参数。默认值为 5 秒。
  • useStorageWriteApiAtLeastOnce:此参数仅在启用了“使用 BigQuery Storage Write API”时有效。如果启用,则系统会将“至少一次”语义用于 Storage Write API,否则会使用“正好一次”语义。默认值为:false。
  • enableCommitOffsets:将已处理消息的偏移量提交到 Kafka。如果启用此参数,则在重启流水线时,消息处理的间隔或重复处理会降到最低。需要指定使用方群组 ID。默认值为:false。
  • consumerGroupId:此流水线所属的使用方群组的唯一标识符。如果已启用“将偏移量提交到 Kafka”,则必须使用此参数。默认值为空。
  • kafkaReadOffset:在没有提交偏移量的情况下读取消息的起点。最早的从最开始算起,最新的从最新消息算起。默认值为:latest。
  • kafkaReadUsernameSecretId:Google Cloud Secret Manager Secret ID,其中包含要与 SASL_PLAIN 身份验证搭配使用的 Kafka 用户名。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>。默认值为空。
  • kafkaReadPasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含要与 SASL_PLAIN 身份验证搭配使用的 Kafka 密码。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>。默认值为空。
  • kafkaReadKeystoreLocation:Java KeyStore (JKS) 文件的 Google Cloud Storage 路径,该文件包含在向 Kafka 集群进行身份验证时使用的 TLS 证书和私钥。例如 gs://your-bucket/keystore.jks
  • kafkaReadTruststoreLocation:Java TrustStore (JKS) 文件的 Google Cloud Storage 路径,该文件包含用于验证 Kafka 代理身份的受信任证书。
  • kafkaReadTruststorePasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含用于访问 Java TrustStore (JKS) 文件以进行 Kafka TLS 身份验证的密码。例如,projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • kafkaReadKeystorePasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含用于访问 Java KeyStore (JKS) 文件以进行 Kafka TLS 身份验证的密码。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • kafkaReadKeyPasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含用于访问 Java KeyStore (JKS) 文件中的私钥以进行 Kafka TLS 身份验证的密码。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • kafkaReadSaslScramUsernameSecretId:Google Cloud Secret Manager Secret ID,其中包含要与 SASL_SCRAM 身份验证搭配使用的 Kafka 用户名。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • kafkaReadSaslScramPasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含要与 SASL_SCRAM 身份验证搭配使用的 Kafka 密码。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • kafkaReadSaslScramTruststoreLocation:Java TrustStore (JKS) 文件的 Google Cloud Storage 路径,该文件包含用于验证 Kafka 代理身份的受信任证书。
  • kafkaReadSaslScramTruststorePasswordSecretId:Google Cloud Secret Manager Secret ID,其中包含用于访问 Java TrustStore (JKS) 文件以进行 Kafka SASL_SCRAM 身份验证的密码。例如,projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • schemaFormat:Kafka 架构格式。可以以 SINGLE_SCHEMA_FILESCHEMA_REGISTRY 的形式提供。如果指定了 SINGLE_SCHEMA_FILE,则对所有消息使用 avro 架构文件中提及的架构。如果指定了 SCHEMA_REGISTRY,消息可以具有单个架构或多个架构。默认值为 SINGLE_SCHEMA_FILE。
  • confluentAvroSchemaPath:用于解码主题中所有消息的单个 Avro 架构文件的 Google Cloud Storage 路径。默认值为空。
  • schemaRegistryConnectionUrl:用于管理 Avro 架构以进行消息解码的 Confluent 架构注册表实例的网址。默认值为空。
  • binaryAvroSchemaPath:用于解码二进制编码 Avro 消息的 Avro 架构文件的 Google Cloud Storage 路径。默认值为空。
  • schemaRegistryAuthenticationMode:架构注册表身份验证模式。可以是 NONE、TLS 或 OAUTH。默认为:NONE。
  • schemaRegistryTruststoreLocation:SSL 证书的位置,用于存储对 Schema Registry 进行身份验证的信任库。例如 /your-bucket/truststore.jks
  • schemaRegistryTruststorePasswordSecretId:Secret Manager 中存储信任库中用于访问 Secret 的密码的 SecretId。例如 projects/your-project-number/secrets/your-secret-name/versions/your-secret-version
  • schemaRegistryKeystoreLocation:包含 SSL 证书和私钥的密钥库位置。例如 /your-bucket/keystore.jks
  • schemaRegistryKeystorePasswordSecretId:Secret Manager 中用于访问密钥库文件的密码的 SecretId。例如,projects/your-project-number/secrets/your-secret-name/versions/your-secret-version
  • schemaRegistryKeyPasswordSecretId:访问密钥库中存储的客户端私钥所需的密码的 SecretId。例如,projects/your-project-number/secrets/your-secret-name/versions/your-secret-version
  • schemaRegistryOauthClientId:用于在 OAUTH 模式下对架构注册表客户端进行身份验证的客户端 ID。对于 AVRO_CONFLUENT_WIRE_FORMAT 消息格式,此属性是必需的。
  • schemaRegistryOauthClientSecretId:Google Cloud Secret Manager Secret ID,其中包含用于在 OAUTH 模式下对架构注册表客户端进行身份验证的客户端密钥。对于 AVRO_CONFLUENT_WIRE_FORMAT 消息格式,此属性是必需的。例如 projects/<PROJECT_ID>/secrets/<SECRET_ID>/versions/<SECRET_VERSION>
  • schemaRegistryOauthScope:用于在 OAUTH 模式下对架构注册表客户端进行身份验证的访问令牌范围。此字段是可选字段,因为即使不传递范围参数,也可以发出请求。例如 openid
  • schemaRegistryOauthTokenEndpointUrl:用于在 OAUTH 模式下对架构注册表客户端进行身份验证的基于 HTTP(S) 的 OAuth/OIDC 身份提供商的网址。对于 AVRO_CONFLUENT_WIRE_FORMAT 消息格式,此属性是必需的。
  • outputDeadletterTable:失败消息的完全限定 BigQuery 表名称。出于各种原因(例如,架构不匹配、JSON 格式错误)未能到达输出表的消息会写入该表。该表将由模板创建。例如 your-project-id:your-dataset.your-table-name
  • javascriptTextTransformGcsPath:.js 文件的 Cloud Storage URI,用于定义要使用的 JavaScript 用户定义的函数 (UDF)。例如 gs://my-bucket/my-udfs/my_file.js
  • javascriptTextTransformFunctionName:要使用的 JavaScript 用户定义的函数 (UDF) 的名称。例如,如果 JavaScript 函数代码为 myTransform(inJson) { /*...do stuff...*/ },则函数名称为 myTransform。如需查看 JavaScript UDF 示例,请参阅 UDF 示例 (https://github.com/GoogleCloudPlatform/DataflowTemplates#udf-examples)。
  • javascriptTextTransformReloadIntervalMinutes:指定重新加载 UDF 的频率(以分钟为单位)。如果值大于 0,则 Dataflow 会定期检查 Cloud Storage 中的 UDF 文件,并在文件修改时重新加载 UDF。此参数可让您在流水线运行时更新 UDF,而无需重启作业。如果值为 0,则停用 UDF 重新加载。默认值为 0

用户定义的函数

(可选)您可以通过编写用户定义的函数 (UDF) 来扩展此模板。该模板会为每个输入元素调用 UDF。元素载荷会序列化为 JSON 字符串。如需了解详情,请参阅为 Dataflow 模板创建用户定义的函数

该模板仅支持 JSON 格式的 Kafka 消息的 UDF。如果 Kafka 消息使用 Avro 格式,则不会调用 UDF。

函数规范

UDF 具有以下规范:

  • 输入:Kafka 记录值,序列化为 JSON 字符串
  • 输出:与 BigQuery 目标表的架构匹配的 JSON 字符串

运行模板

控制台

  1. 转到 Dataflow 基于模板创建作业页面。
  2. 转到“基于模板创建作业”
  3. 作业名称字段中,输入唯一的作业名称。
  4. 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为 us-central1

    如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置

  5. Dataflow 模板下拉菜单中,选择 the Kafka to BigQuery template。
  6. 在提供的参数字段中,输入您的参数值。
  7. 可选:如需从“正好一次”处理切换到“至少一次”流处理模式,请选择至少一次
  8. 点击运行作业

gcloud

在 shell 或终端中,运行模板:

gcloud dataflow flex-template run JOB_NAME \
    --project=PROJECT_ID \
    --region=REGION_NAME \
    --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/Kafka_to_BigQuery_Flex \
    --parameters \
readBootstrapServerAndTopic=BOOTSTRAP_SERVER_AND_TOPIC,\
kafkaReadAuthenticationMode=APPLICATION_DEFAULT_CREDENTIALS,\
messageFormat=JSON,\
writeMode=SINGLE_TABLE_NAME,\
outputTableSpec=PROJECT_ID:DATASET_NAME.TABLE_NAME,\
useBigQueryDLQ=true,\
outputDeadletterTable=PROJECT_ID:DATASET_NAME.ERROR_TABLE_NAME
  

替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目 ID
  • JOB_NAME:您选择的唯一性作业名称
  • REGION_NAME:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • BOOTSTRAP_SERVER_AND_TOPIC:Apache Kafka 引导服务器地址和主题

    引导服务器地址和主题的格式取决于集群类型:

    • Managed Service for Apache Kafka 集群: projects/PROJECT_ID/locations/REGION_NAME/clusters/CLUSTER_NAME/topics/TOPIC_NAME
    • 外部 Kafka 集群: BOOTSTRAP_SERVER_ADDRESS;TOPIC_NAME
  • DATASET_NAME:您的 BigQuery 数据集的名称
  • TABLE_NAME:BigQuery 输出表的名称
  • ERROR_TABLE_NAME:用于写入错误记录的 BigQuery 表的名称

API

如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch
{
   "launch_parameter": {
      "jobName": "JOB_NAME",
      "parameters": {
          "readBootstrapServerAndTopic": "BOOTSTRAP_SERVER_AND_TOPIC",
          "kafkaReadAuthenticationMode": "APPLICATION_DEFAULT_CREDENTIALS",
          "messageFormat": "JSON",
          "writeMode": "SINGLE_TABLE_NAME",
          "outputTableSpec": "PROJECT_ID:DATASET_NAME.TABLE_NAME",
          "useBigQueryDLQ": "true",
          "outputDeadletterTable": "PROJECT_ID:DATASET_NAME.ERROR_TABLE_NAME"
      },
      "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/Kafka_to_BigQuery_Flex",
   }
}
  

替换以下内容:

  • PROJECT_ID:您要在其中运行 Dataflow 作业的 Google Cloud 项目 ID
  • JOB_NAME:您选择的唯一性作业名称
  • LOCATION:要在其中部署 Dataflow 作业的区域,例如 us-central1
  • VERSION:您要使用的模板的版本

    您可使用以下值:

  • BOOTSTRAP_SERVER_AND_TOPIC:Apache Kafka 引导服务器地址和主题

    引导服务器地址和主题的格式取决于集群类型:

    • Managed Service for Apache Kafka 集群: projects/PROJECT_ID/locations/LOCATION/clusters/CLUSTER_NAME/topics/TOPIC_NAME
    • 外部 Kafka 集群: BOOTSTRAP_SERVER_ADDRESS;TOPIC_NAME
  • DATASET_NAME:您的 BigQuery 数据集的名称
  • TABLE_NAME:BigQuery 输出表的名称
  • ERROR_TABLE_NAME:用于写入错误记录的 BigQuery 表的名称

如需了解详情,请参阅使用 Dataflow 将数据从 Kafka 写入 BigQuery

后续步骤