BigQuery to Clickhouse 模板是一种批处理流水线,可将数据从 BigQuery 表复制到现有的 Clickhouse 表中。该模板可以读取整个表,也可以使用提供的查询读取特定记录。
流水线要求
- 源 BigQuery 表必须存在。
- Clickhouse 表必须存在。
模板参数
必需参数
- jdbcUrl:目标 ClickHouse JDBC 网址,格式为
jdbc:clickhouse://host:port/schema
。您可以在 JDBC 网址末尾添加任何 JDBC 选项。例如jdbc:clickhouse://localhost:8123/default
。 - clickHouseUsername:用于进行身份验证的 ClickHouse 用户名。
- clickHouseTable:要将数据插入到的目标 ClickHouse 表的名称。
可选参数
- inputTableSpec:要读取的 BigQuery 表。如果指定
inputTableSpec
,模板将使用 BigQuery Storage Read API (https://cloud.google.com/bigquery/docs/reference/storage) 直接从 BigQuery 存储读取数据。如需了解 Storage Read API 中的限制,请参阅 https://cloud.google.com/bigquery/docs/reference/storage#limitations。您必须指定inputTableSpec
或query
。如果同时设置了这两个参数,则模板会使用query
参数。例如<BIGQUERY_PROJECT>:<DATASET_NAME>.<INPUT_TABLE>
。 - outputDeadletterTable:无法到达输出表的消息的 BigQuery 表。如果表不存在,系统会在流水线执行期间创建该表。如果未指定,则系统会使用
<outputTableSpec>_error_records
。例如<PROJECT_ID>:<DATASET_NAME>.<DEADLETTER_TABLE>
。 - query:用于从 BigQuery 读取数据的 SQL 查询。如果 BigQuery 数据集与 Dataflow 作业位于不同的项目中,请在 SQL 查询中指定完整的数据集名称,例如:<PROJECT_ID>.<DATASET_NAME>.<TABLE_NAME>。默认情况下,除非
useLegacySql
为true
,否则query
参数会使用 GoogleSQL (https://cloud.google.com/bigquery/docs/introduction-sql)。您必须指定inputTableSpec
或query
。如果同时设置了这两个参数,则模板会使用query
参数。例如select * from sampledb.sample_table
。 - useLegacySql:设置为
true
即可使用旧版 SQL。此参数仅在使用query
参数时适用。默认值为false
。 - queryLocation:在没有底层表权限的情况下从授权视图读取数据时需要使用。例如
US
。 - queryTempDataset:使用此选项,您可以设置现有数据集以创建临时表来存储查询结果。例如
temp_dataset
。 - KMSEncryptionKey:如果使用查询来源从 BigQuery 读取数据,请使用此 Cloud KMS 密钥对创建的任何临时表进行加密。例如
projects/your-project/locations/global/keyRings/your-keyring/cryptoKeys/your-key
。 - clickHousePassword:用于进行身份验证的 ClickHouse 密码。
- maxInsertBlockSize:如果我们控制插入块的创建(ClickHouseIO 选项),则插入的最大块大小。
- insertDistributedSync:如果启用此设置,则在将数据发送到集群中的所有节点之前,会将查询插入分布式等待中。(ClickHouseIO 选项)。
- insertQuorum:对于复制表中的 INSERT 查询,等待写入指定数量的副本,并将数据添加线性化。0 - 已停用。此设置在默认服务器设置(ClickHouseIO 选项)中处于停用状态。
- insertDeduplicate:对于复制表中的 INSERT 查询,指定应执行插入块的重复数据删除。
- maxRetries:每次插入的重试次数上限。
运行模板
控制台
- 转到 Dataflow 基于模板创建作业页面。 转到“基于模板创建作业”
- 在作业名称字段中,输入唯一的作业名称。
- 可选:对于区域性端点,从下拉菜单中选择一个值。默认区域为
us-central1
。如需查看可以在其中运行 Dataflow 作业的区域列表,请参阅 Dataflow 位置。
- 从 Dataflow 模板下拉菜单中,选择 the BigQuery to Clickhouse template。
- 在提供的参数字段中,输入您的参数值。
- 点击运行作业。
gcloud
在 shell 或终端中,运行模板:
gcloud dataflow flex-template run JOB_NAME \ --project=PROJECT_ID \ --region=REGION_NAME \ --template-file-gcs-location=gs://dataflow-templates-REGION_NAME/VERSION/flex/BigQuery_to_Clickhouse \ --parameters \ jdbcUrl=JDBC_URL,\ clickHouseUsername=CLICKHOUSE_USERNAME,\ clickHouseTable=CLICKHOUSE_TABLE
替换以下内容:
PROJECT_ID
:您要在其中运行 Dataflow 作业的 Google Cloud 项目 IDJOB_NAME
:您选择的唯一性作业名称REGION_NAME
:要在其中部署 Dataflow 作业的区域,例如us-central1
VERSION
:您要使用的模板的版本您可使用以下值:
latest
,以使用模板的最新版本,该模板在存储桶的未标示日期的父文件夹 (gs://dataflow-templates-REGION_NAME/latest/) 中可用- 版本名称(如
2023-09-12-00_RC00
),以使用模板的特定版本,该版本嵌套在存储桶的相应日期父文件夹 (gs://dataflow-templates-REGION_NAME/) 中
JDBC_URL
:您的 JDBC 网址。CLICKHOUSE_USERNAME
:您的 Clickhouse 用户名。CLICKHOUSE_TABLE
:您的 Clickhouse 表。
API
如需使用 REST API 来运行模板,请发送 HTTP POST 请求。如需详细了解 API 及其授权范围,请参阅 projects.templates.launch
。
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/flexTemplates:launch { "launch_parameter": { "jobName": "JOB_NAME", "parameters": { "jdbcUrl": "JDBC_URL", "clickHouseUsername": "CLICKHOUSE_USERNAME", "clickHouseTable": "CLICKHOUSE_TABLE" }, "containerSpecGcsPath": "gs://dataflow-templates-LOCATION/VERSION/flex/BigQuery_to_Clickhouse", } }
替换以下内容:
PROJECT_ID
:您要在其中运行 Dataflow 作业的 Google Cloud 项目 IDJOB_NAME
:您选择的唯一性作业名称LOCATION
:要在其中部署 Dataflow 作业的区域,例如us-central1
VERSION
:您要使用的模板的版本您可使用以下值:
latest
,以使用模板的最新版本,该模板在存储桶的未标示日期的父文件夹 (gs://dataflow-templates-REGION_NAME/latest/) 中可用- 版本名称(如
2023-09-12-00_RC00
),以使用模板的特定版本,该版本嵌套在存储桶的相应日期父文件夹 (gs://dataflow-templates-REGION_NAME/) 中
JDBC_URL
:您的 JDBC 网址。CLICKHOUSE_USERNAME
:您的 Clickhouse 用户名。CLICKHOUSE_TABLE
:您的 Clickhouse 表。
后续步骤
- 了解 Dataflow 模板。
- 参阅 Google 提供的模板列表。