创建和使用数据分析扫描

本页面介绍了如何使用Google Cloud 控制台、Google Cloud CLI 或 REST API 创建数据分析扫描。

如需详细了解 Dataplex Universal Catalog 数据分析扫描,请参阅数据分析简介

准备工作

在 Google Cloud 控制台中,启用 Dataplex API。

启用该 API

权限

如需分析 BigQuery 表,您需要拥有以下权限:

  • 如需对 BigQuery 表运行数据分析扫描,您需要拥有读取 BigQuery 表的权限,以及在用于扫描该表的项目中创建 BigQuery 作业的权限。

  • 如果 BigQuery 表和数据分析扫描位于不同的项目中,您需要为 Dataplex Universal Catalog 服务账号授予相应 BigQuery 表的读取权限。

  • 如果 BigQuery 数据在 Dataplex Universal Catalog 数据湖中整理,则如需创建数据分析扫描,您需要具有 Dataplex Universal Catalog 角色 roles/dataplex.metadataReaderroles/dataplex.viewer。这会授予以下权限:

    • dataplex.lakes.list
    • dataplex.lakes.get
    • dataplex.zones.list
    • dataplex.zones.get
    • dataplex.entities.list
    • dataplex.entities.get
    • dataplex.operations.get
  • 如果您要扫描 Cloud Storage 中的 BigQuery 外部表,请为 Dataplex Universal Catalog 服务账号分配 Cloud Storage Object Viewer (roles/storage.objectViewer) 角色或存储桶的以下权限:

    • storage.buckets.get
    • storage.objects.get
  • 如果您想在Google Cloud 控制台中源表的 BigQuery 和 Dataplex Universal Catalog 页面中发布数据分析扫描结果,则您必须获得该表的 BigQuery Data Editor (roles/bigquery.dataEditor) IAM 角色。或者,您需要拥有以下所有权限:

    • bigquery.tables.get
    • bigquery.tables.update
    • bigquery.tables.updateData
    • bigquery.tables.delete
  • 如需将扫描结果导出到 BigQuery 表,您的 Dataplex Universal Catalog 服务账号需要具有 BigQuery Data Editor (roles/bigquery.dataEditor) 角色。这会授予以下权限:

    • bigquery.datasets.get
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.getData
    • bigquery.tables.update
    • bigquery.tables.updateData
  • 如果您需要访问受 BigQuery 列级访问权限政策保护的列,请为 Dataplex Universal Catalog 服务账号分配这些列的权限。创建或更新数据扫描的用户也需要拥有这些列的权限。

  • 如果某个表启用了 BigQuery 行级访问权限政策,则您只能扫描对 Dataplex Universal Catalog 服务账号可见的行。请注意,系统不会针对行级政策评估单个用户的访问权限。

数据扫描角色和权限

如需使用数据分析,项目管理员可以分配已授予权限的预定义角色,也可以授予个别权限。这些角色如下:

  • roles/dataplex.dataScanAdmin:拥有对 DataScan 资源的完整访问权限。
  • roles/dataplex.dataScanEditor:拥有对 DataScan 资源的写入权限。
  • roles/dataplex.dataScanViewer:拥有对 DataScan 资源(不包括结果)的读取权限。
  • roles/dataplex.dataScanDataViewer:拥有对 DataScan 资源(包括结果)的读取权限。

下表列出了数据扫描权限:

权限名称 授予执行以下操作的权限:
dataplex.datascans.create 创建 DataScan
dataplex.datascans.delete 删除 DataScan
dataplex.datascans.get 查看 DataScan 详细信息(不包括结果)
dataplex.datascans.getData 查看 DataScan 详细信息(包括结果)
dataplex.datascans.list 列出 DataScan
dataplex.datascans.run 执行 DataScan
dataplex.datascans.update 更新 DataScan 的说明
dataplex.datascans.getIamPolicy 查看扫描的当前 IAM 权限
dataplex.datascans.setIamPolicy 设置扫描的 IAM 权限

创建数据分析扫描

控制台

  1. 在 Google Cloud 控制台中,前往数据分析页面。

    前往“Dataplex Universal Catalog 配置文件”

  2. 点击创建数据分析扫描

  3. 输入显示名称

  4. 如需更改自动生成的扫描 ID,请提供您自己的扫描 ID。请参阅资源命名惯例

  5. (可选)输入说明

  6. 字段中,点击浏览

  7. 选择一个表,然后点击选择

  8. 范围字段中,选择增量所有数据

    • 如果您选择增量数据,请在时间戳列字段中,从 BigQuery 表中选择类型为 DATETIMESTAMP 且单调递增的列,该列可用于识别新记录。对于按 DATETIMESTAMP 类型的列进行分区的表,建议将分区列用作时间戳字段。
  9. 如需对数据分析扫描应用采样,请在采样规模列表中选择采样百分比。

    • 选择一个范围介于 0.0% 到 100.0% 之间的百分比值,最多精确到小数点后 3 位。
    • 对于较大的数据集,请选择一个较低的采样百分比。例如,对于一个约 1 PB 的表,如果您输入的值介于 0.1% 到 1.0% 之间,则 Dataplex Universal Catalog 会采样 1-10 TB 的数据。
    • 采样数据中至少需要有 100 条记录才能返回结果。
    • 对于增量数据扫描,Dataplex Universal Catalog 会对最新增量应用采样。
  10. 如需按行过滤,请点击过滤条件,然后选择过滤行

    • 输入一个有效的 SQL 表达式,该表达式可用于 GoogleSQL 语法中的 WHERE 子句。例如:col1 >= 0

    • 过滤条件可以是多个列的 SQL 条件的组合。例如:col1 >= 0 AND col2 < 10

  11. 可选:点击过滤条件。选中过滤列复选框。

    a. 在包含列字段中,点击浏览

    • 指定要包含在数据分析扫描中的所有列。勾选相应复选框,然后点击选择,即可选择所需的列。

    b. 在排除列字段中,点击浏览

    • 指定要从数据分析扫描中排除的所有列。勾选相应复选框,然后点击选择,即可选择所需的列。
  12. 可选:在Google Cloud 控制台中源表的 BigQuery 和 Dataplex Universal Catalog 页面中发布数据分析扫描结果。点击将结果发布到 BigQuery 和 Dataplex Catalog 界面复选框。

    您可以在源表的 BigQuery 和 Dataplex Universal Catalog 页面中的数据分析标签页上查看最新扫描结果。如需使用户能够访问已发布的扫描结果,请参阅共享已发布的结果

    在以下情况下,可能无法使用发布选项:

    • 您没有相应表的所需权限。
    • 另一数据质量扫描已设置为发布结果。

    如需详细了解查看已发布的结果所需的权限,请参阅权限

  13. 可选:将扫描结果导出到 BigQuery 标准表。点击浏览,以选择一个现有的 BigQuery 数据集来存储数据分析扫描结果。

    如果指定的表不存在,Dataplex Universal Catalog 会为您创建该表。如果您使用的是现有表,请确保该表与本部分稍后所述的表架构兼容。

  14. 可选:添加标签。标签是key:value对,可用于将相关对象组合在一起或者与其他 Google Cloud 资源组合在一起。

  15. 时间表选项下,选择以下选项之一:

    • 重复:按时间表(每天、每周、每月或自定义)运行数据分析扫描作业。指定扫描的运行频率和时间。如果您选择自定义,请使用 cron 格式指定时间表。

    • 按需:创建数据分析扫描,然后随时使用“立即运行”操作运行该扫描。

  16. 点击创建

gcloud

如需创建数据分析扫描,请运行以下命令:

gcloud dataplex datascans create data-profile DATASCAN \
--location=LOCATION \
--data-source-entity=DATA_SOURCE_ENTITY
| --data-source-resource=DATA_SOURCE_RESOURCE

执行以下变量替换操作:

  • DATASCAN:数据分析扫描的名称。
  • LOCATION:要在其中创建数据分析扫描的 Google Cloud 区域。
  • DATA_SOURCE_ENTITY:包含数据分析扫描所用数据的 Dataplex Universal Catalog 实体。例如 projects/test-project/locations/test-location/lakes/test-lake/zones/test-zone/entities/test-entity
  • DATA_SOURCE_RESOURCE:包含数据分析扫描所用数据的资源的名称。例如 //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 创建数据分析扫描

创建多个数据分析扫描

控制台

  1. 在 Google Cloud 控制台中,前往数据分析页面。

    前往“Dataplex Universal Catalog 配置文件”

  2. 点击创建多个分析扫描

  3. 输入 ID 前缀。Dataplex Universal Catalog 会使用提供的前缀和唯一后缀自动生成扫描 ID。

  4. 为所有数据分析扫描输入说明

  5. 数据集字段中,点击浏览。选择一个数据集以从中选择表。点击选择

  6. 如果数据集是多区域级数据集,请选择要在其中创建数据分析扫描的区域

  7. 选择通用配置选项

    1. 范围字段中,选择增量所有数据

    2. 如需对数据分析扫描应用采样,请在采样规模列表中选择采样百分比。

      选择一个介于 0.0% 到 100.0% 之间的百分比值,最多精确到小数点后 3 位。

    3. 如需显示所有扫描的结果,请选择发布。您可以在 BigQuery 或 Dataplex Universal Catalog 表详情的分析标签页中查看结果。确保您拥有源表的 bigquery.tables.update 权限。

    4. 时间表选项下,选择以下选项之一:

      1. 重复:按时间表运行数据分析扫描作业。指定扫描的运行频率(每天、每周、每月或自定义)和运行时间。如果您选择自定义,请使用 cron 格式指定时间表。

      2. 按需:创建数据分析扫描作业,然后随时点击运行运行该作业。

  8. 选择表选项中,点击浏览。选择要扫描的一个或多个表。点击选择

  9. 选择其他设置

    1. 如需将数据分析扫描的结果保存到您选择的 BigQuery 表中,请在将扫描结果导出到 BigQuery 表中选择一个表。对于每个扫描作业,Dataplex Universal Catalog 都会自动将结果复制并保存到此表中。

      1. 点击浏览以选择一个数据集。

      2. 输入要将结果保存到的 BigQuery 表。此表可以是现有表,供其他 Dataplex Universal Catalog 数据分析扫描用来保存结果。如果不存在具有指定名称的表,Dataplex Universal Catalog 会创建该表。

    2. 添加标签,为数据分析扫描添加注解。

  10. 点击运行扫描以创建并运行所有扫描。此选项仅适用于按需扫描。

  11. 点击创建以创建所有扫描。

gcloud

不受支持。

REST

不受支持。

导出表架构

如果您要将数据分析扫描结果导出到现有 BigQuery 表,请确保该表与以下表架构兼容:

列名 列数据类型 子字段名称
(如果适用)
子字段数据类型 模式 示例
data_profile_scan struct/record resource_name string nullable //dataplex.googleapis.com/projects/test-project/locations/europe-west2/datascans/test-datascan
project_id string nullable test-project
location string nullable us-central1
data_scan_id string nullable test-datascan
data_source struct/record resource_name string nullable 实体大小写:
//dataplex.googleapis.com/projects/test-project/locations/europe-west2/lakes/test-lake/zones/test-zone/entities/test-entity

表大小写: //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
dataplex_entity_project_id string nullable test-project
dataplex_entity_project_number integer nullable 123456789012
dataplex_lake_id string nullable (仅在来源为实体时有效)
test-lake
dataplex_zone_id string nullable (仅在来源为实体时有效)
test-zone
dataplex_entity_id string nullable (仅在来源为实体时有效)
test-entity
table_project_id string nullable dataplex-table
table_project_number int64 nullable 345678901234
dataset_id string nullable (仅在来源为表时有效)
test-dataset
table_id string nullable (仅在来源为表时有效)
test-table
data_profile_job_id string nullable caeba234-cfde-4fca-9e5b-fe02a9812e38
data_profile_job_configuration json trigger string nullable ondemand/schedule
incremental boolean nullable true/false
sampling_percent float nullable (0-100)
20.0(表示 20%)
row_filter string nullable col1 >= 0 AND col2 < 10
column_filter json nullable {"include_fields":["col1","col2"], "exclude_fields":["col3"]}
job_labels json nullable {"key1":value1}
job_start_time timestamp nullable 2023-01-01 00:00:00 UTC
job_end_time timestamp nullable 2023-01-01 00:00:00 UTC
job_rows_scanned integer nullable 7500
column_name string nullable column-1
column_type string nullable string
column_mode string nullable repeated
percent_null float nullable (0.0-100.0)
20.0(表示 20%)
percent_unique float nullable (0.0-100.0)
92.5
min_string_length integer nullable (仅在列类型为字符串时有效)
10
max_string_length integer nullable (仅在列类型为字符串时有效)
4
average_string_length float nullable (仅在列类型为字符串时有效)
7.2
min_value float nullable (仅在列类型为数值时有效 - 整数/浮点数)
max_value float nullable (仅在列类型为数值时有效 - 整数/浮点数)
average_value float nullable (仅在列类型为数值时有效 - 整数/浮点数)
standard_deviation float nullable (仅在列类型为数值时有效 - 整数/浮点数)
quartile_lower integer nullable (仅在列类型为数值时有效 - 整数/浮点数)
quartile_median integer nullable (仅在列类型为数值时有效 - 整数/浮点数)
quartile_upper integer nullable (仅在列类型为数值时有效 - 整数/浮点数)
top_n struct/record - repeated value string nullable "4009"
count integer nullable 20
percent float nullable 10(表示 10%)

导出表设置

将数据导出到 BigQueryExport 表时,请遵循以下准则:

  • 对于字段 resultsTable,请使用以下格式://bigquery.googleapis.com/projects/{project-id}/datasets/{dataset-id}/tables/{table-id}
  • 使用 BigQuery 标准表。
  • 如果在创建或更新扫描时该表不存在,Dataplex Universal Catalog 会为您创建该表。
  • 默认情况下,该表按 job_start_time 列每天进行分区。
  • 如果您希望以其他配置对表进行分区,或者不希望进行分区,请使用所需的架构和配置重新创建表,然后将预先创建的表作为结果表提供。
  • 确保结果表与源表位于同一位置。
  • 如果为项目配置了 VPC-SC,则结果表必须与源表位于同一 VPC-SC 边界内。
  • 如果表在扫描执行阶段被修改,则当前正在运行的作业会导出到之前的结果表,并且表更改会从下一个扫描作业开始生效。
  • 请勿修改表架构。如果您需要自定义列,请基于表创建视图。
  • 为了降低费用,请根据您的应用场景为分区设置失效时间。如需了解详情,请参阅如何设置分区失效时间

运行数据分析扫描

控制台

  1. 在 Google Cloud 控制台中,前往 Dataplex Universal Catalog 数据分析页面。前往“个人资料”页面
  2. 点击要运行的数据分析扫描。
  3. 点击立即运行

gcloud

如需运行数据分析扫描,请运行以下命令:

gcloud dataplex datascans run DATASCAN \
--location=LOCATION

执行以下变量替换操作:

  • DATASCAN:数据分析扫描的名称。
  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 运行数据分析扫描

查看数据分析扫描作业结果

控制台

您创建的所有数据分析扫描都会显示在数据分析页面中。

如需查看扫描的详细结果,请点击扫描的名称。

  • 概览部分显示扫描运行、每次运行的时间、扫描的表记录数以及作业状态。

  • 数据分析扫描配置部分包含有关扫描的详细信息。

gcloud

如需查看数据分析扫描作业的结果,请运行以下命令:

gcloud dataplex datascans jobs describe JOB \
--location=LOCATION \
--datascan=DATASCAN \
--view=FULL

执行以下变量替换操作:

  • JOB:数据分析扫描作业的 ID。
  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。
  • DATASCAN:作业所属的数据分析扫描的名称。
  • --view=FULL:如需查看扫描作业结果,请指定 FULL

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 查看数据分析扫描的结果

查看最近的数据分析扫描作业

控制台

如果至少有一次成功完成的运行,最新作业结果标签页会提供有关最新作业的信息。该标签页会列出已扫描的表列,以及在扫描中发现的列的相关统计信息。

gcloud

如需查看最近一次成功的数据分析扫描,请运行以下命令:

gcloud dataplex datascans describe DATASCAN \
--location=LOCATION \
--view=FULL

执行以下变量替换操作:

  • DATASCAN:要查看其最近作业的数据分析扫描的名称。
  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。
  • --view=FULL:如需查看扫描作业结果,请指定 FULL

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 查看最近的扫描作业

查看所有数据分析扫描作业

Dataplex Universal Catalog 会保存最近 300 个作业或过去一年的数据分析扫描历史记录,以先到者为准。

控制台

作业历史记录标签页提供有关过往作业的信息。其中列出了所有作业、每个作业中扫描的记录数、作业状态、作业执行时间等。

如需查看作业的详细信息,请点击作业 ID 下的任何作业。

gcloud

如需查看数据分析扫描的所有作业,请运行以下命令:

gcloud dataplex datascans jobs list \
--location=LOCATION \
--datascan=DATASCAN

执行以下变量替换操作:

  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。
  • DATASCAN:要查看其所有作业的数据分析扫描的名称。

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 查看所有扫描作业

共享已发布的结果

创建数据分析扫描时,如果您选择在Google Cloud 控制台的 BigQuery 和 Dataplex Universal Catalog 页面中发布扫描结果,则最新扫描结果将显示在这些页面的数据分析标签页中。

您可以允许组织中的用户访问已发布的扫描结果。如需授予对扫描结果的访问权限,请按照以下步骤操作:

  1. 在 Google Cloud 控制台中,前往数据分析页面。

    前往“Dataplex Universal Catalog 配置文件”

  2. 点击您要共享其结果的数据分析扫描。

  3. 前往权限标签页。

  4. 点击授予访问权限

  5. 新的主账号字段中,添加要向其授予访问权限的主账号。

  6. 选择角色字段中,选择 Dataplex Universal Catalog DataScan DataViewer

  7. 点击保存

如需移除主账号对已发布的扫描结果的访问权限,请按照以下步骤操作:

  1. 在 Google Cloud 控制台中,前往数据分析页面。

    前往“Dataplex Universal Catalog 配置文件”

  2. 点击您要共享其结果的数据分析扫描。

  3. 前往权限标签页。

  4. 选择要移除其 Dataplex Universal Catalog DataScan DataViewer 角色的主账号。

  5. 点击解除使用权限

  6. 点击确认

更新数据分析扫描

控制台

  1. 在 Google Cloud 控制台中,前往数据分析页面。

    前往“Dataplex Universal Catalog 配置文件”

  2. 在要修改的扫描所在的行中,点击 > 修改

  3. 修改值。

  4. 点击保存

gcloud

如需更新数据分析扫描,请运行以下命令:

gcloud dataplex datascans update data-profile DATASCAN \
--location=LOCATION \
--description=DESCRIPTION

执行以下变量替换操作:

  • DATASCAN:要更新的数据分析扫描的名称。
  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。
  • DESCRIPTION:数据分析扫描的新说明。

如需了解要更新的规范字段,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 修改数据分析扫描

删除数据分析扫描

控制台

  1. 在 Google Cloud 控制台中,前往数据分析页面。前往 Dataplex Universal Catalog 数据分析

  2. 点击要删除的扫描。

  3. 点击删除

gcloud

如需删除数据分析扫描,请运行以下命令:

gcloud dataplex datascans delete \
DATASCAN --location=LOCATION \
--async

执行以下变量替换操作:

  • DATASCAN:要删除的数据分析扫描的名称。
  • LOCATION:在其中创建数据分析扫描的 Google Cloud 区域。

如需了解可选参数,请参阅 gcloud CLI 参考文档

REST

使用 APIs Explorer 删除数据分析扫描

后续步骤