本页面介绍了如何使用Google Cloud 控制台、Google Cloud CLI 或 REST API 创建数据分析扫描。
如需详细了解 Dataplex Universal Catalog 数据分析扫描,请参阅数据分析简介。
准备工作
在 Google Cloud 控制台中,启用 Dataplex API。
权限
如需分析 BigQuery 表,您需要拥有以下权限:
如需对 BigQuery 表运行数据分析扫描,您需要拥有读取 BigQuery 表的权限,以及在用于扫描该表的项目中创建 BigQuery 作业的权限。
如果 BigQuery 表和数据分析扫描位于不同的项目中,您需要为 Dataplex Universal Catalog 服务账号授予相应 BigQuery 表的读取权限。
如果 BigQuery 数据在 Dataplex Universal Catalog 数据湖中整理,则如需创建数据分析扫描,您需要具有 Dataplex Universal Catalog 角色
roles/dataplex.metadataReader
和roles/dataplex.viewer
。这会授予以下权限:dataplex.lakes.list
dataplex.lakes.get
dataplex.zones.list
dataplex.zones.get
dataplex.entities.list
dataplex.entities.get
dataplex.operations.get
如果您要扫描 Cloud Storage 中的 BigQuery 外部表,请为 Dataplex Universal Catalog 服务账号分配 Cloud Storage Object Viewer (
roles/storage.objectViewer
) 角色或存储桶的以下权限:storage.buckets.get
storage.objects.get
如果您想在Google Cloud 控制台中源表的 BigQuery 和 Dataplex Universal Catalog 页面中发布数据分析扫描结果,则您必须获得该表的 BigQuery Data Editor (
roles/bigquery.dataEditor
) IAM 角色。或者,您需要拥有以下所有权限:bigquery.tables.get
bigquery.tables.update
bigquery.tables.updateData
bigquery.tables.delete
如需将扫描结果导出到 BigQuery 表,您的 Dataplex Universal Catalog 服务账号需要具有 BigQuery Data Editor (
roles/bigquery.dataEditor
) 角色。这会授予以下权限:bigquery.datasets.get
bigquery.tables.create
bigquery.tables.get
bigquery.tables.getData
bigquery.tables.update
bigquery.tables.updateData
如果您需要访问受 BigQuery 列级访问权限政策保护的列,请为 Dataplex Universal Catalog 服务账号分配这些列的权限。创建或更新数据扫描的用户也需要拥有这些列的权限。
如果某个表启用了 BigQuery 行级访问权限政策,则您只能扫描对 Dataplex Universal Catalog 服务账号可见的行。请注意,系统不会针对行级政策评估单个用户的访问权限。
数据扫描角色和权限
如需使用数据分析,项目管理员可以分配已授予权限的预定义角色,也可以授予个别权限。这些角色如下:
roles/dataplex.dataScanAdmin
:拥有对DataScan
资源的完整访问权限。roles/dataplex.dataScanEditor
:拥有对DataScan
资源的写入权限。roles/dataplex.dataScanViewer
:拥有对DataScan
资源(不包括结果)的读取权限。roles/dataplex.dataScanDataViewer
:拥有对DataScan
资源(包括结果)的读取权限。
下表列出了数据扫描权限:
权限名称 | 授予执行以下操作的权限: |
---|---|
dataplex.datascans.create |
创建 DataScan |
dataplex.datascans.delete |
删除 DataScan |
dataplex.datascans.get |
查看 DataScan 详细信息(不包括结果) |
dataplex.datascans.getData |
查看 DataScan 详细信息(包括结果) |
dataplex.datascans.list |
列出 DataScan |
dataplex.datascans.run |
执行 DataScan |
dataplex.datascans.update |
更新 DataScan 的说明 |
dataplex.datascans.getIamPolicy |
查看扫描的当前 IAM 权限 |
dataplex.datascans.setIamPolicy |
设置扫描的 IAM 权限 |
创建数据分析扫描
控制台
在 Google Cloud 控制台中,前往数据分析页面。
点击创建数据分析扫描。
输入显示名称。
如需更改自动生成的扫描 ID,请提供您自己的扫描 ID。请参阅资源命名惯例。
(可选)输入说明。
在表字段中,点击浏览。
选择一个表,然后点击选择。
在范围字段中,选择增量或所有数据。
- 如果您选择增量数据,请在时间戳列字段中,从 BigQuery 表中选择类型为
DATE
或TIMESTAMP
且单调递增的列,该列可用于识别新记录。对于按DATE
或TIMESTAMP
类型的列进行分区的表,建议将分区列用作时间戳字段。
- 如果您选择增量数据,请在时间戳列字段中,从 BigQuery 表中选择类型为
如需对数据分析扫描应用采样,请在采样规模列表中选择采样百分比。
- 选择一个范围介于 0.0% 到 100.0% 之间的百分比值,最多精确到小数点后 3 位。
- 对于较大的数据集,请选择一个较低的采样百分比。例如,对于一个约 1 PB 的表,如果您输入的值介于 0.1% 到 1.0% 之间,则 Dataplex Universal Catalog 会采样 1-10 TB 的数据。
- 采样数据中至少需要有 100 条记录才能返回结果。
- 对于增量数据扫描,Dataplex Universal Catalog 会对最新增量应用采样。
如需按行过滤,请点击过滤条件,然后选择过滤行。
输入一个有效的 SQL 表达式,该表达式可用于 GoogleSQL 语法中的
WHERE
子句。例如:col1 >= 0
。过滤条件可以是多个列的 SQL 条件的组合。例如:
col1 >= 0 AND col2 < 10
。
可选:点击过滤条件。选中过滤列复选框。
a. 在包含列字段中,点击浏览。
- 指定要包含在数据分析扫描中的所有列。勾选相应复选框,然后点击选择,即可选择所需的列。
b. 在排除列字段中,点击浏览。
- 指定要从数据分析扫描中排除的所有列。勾选相应复选框,然后点击选择,即可选择所需的列。
可选:在Google Cloud 控制台中源表的 BigQuery 和 Dataplex Universal Catalog 页面中发布数据分析扫描结果。点击将结果发布到 BigQuery 和 Dataplex Catalog 界面复选框。
您可以在源表的 BigQuery 和 Dataplex Universal Catalog 页面中的数据分析标签页上查看最新扫描结果。如需使用户能够访问已发布的扫描结果,请参阅共享已发布的结果。
在以下情况下,可能无法使用发布选项:
- 您没有相应表的所需权限。
- 另一数据质量扫描已设置为发布结果。
如需详细了解查看已发布的结果所需的权限,请参阅权限。
可选:将扫描结果导出到 BigQuery 标准表。点击浏览,以选择一个现有的 BigQuery 数据集来存储数据分析扫描结果。
如果指定的表不存在,Dataplex Universal Catalog 会为您创建该表。如果您使用的是现有表,请确保该表与本部分稍后所述的表架构兼容。
可选:添加标签。标签是
key:value
对,可用于将相关对象组合在一起或者与其他 Google Cloud 资源组合在一起。在时间表选项下,选择以下选项之一:
重复:按时间表(每天、每周、每月或自定义)运行数据分析扫描作业。指定扫描的运行频率和时间。如果您选择自定义,请使用 cron 格式指定时间表。
按需:创建数据分析扫描,然后随时使用“立即运行”操作运行该扫描。
点击创建。
gcloud
如需创建数据分析扫描,请运行以下命令:
gcloud dataplex datascans create data-profile DATASCAN \ --location=LOCATION \ --data-source-entity=DATA_SOURCE_ENTITY | --data-source-resource=DATA_SOURCE_RESOURCE
执行以下变量替换操作:
DATASCAN
:数据分析扫描的名称。LOCATION
:要在其中创建数据分析扫描的 Google Cloud 区域。DATA_SOURCE_ENTITY
:包含数据分析扫描所用数据的 Dataplex Universal Catalog 实体。例如projects/test-project/locations/test-location/lakes/test-lake/zones/test-zone/entities/test-entity
。DATA_SOURCE_RESOURCE
:包含数据分析扫描所用数据的资源的名称。例如//bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 创建数据分析扫描。
创建多个数据分析扫描
控制台
在 Google Cloud 控制台中,前往数据分析页面。
点击创建多个分析扫描。
输入 ID 前缀。Dataplex Universal Catalog 会使用提供的前缀和唯一后缀自动生成扫描 ID。
为所有数据分析扫描输入说明。
在数据集字段中,点击浏览。选择一个数据集以从中选择表。点击选择。
如果数据集是多区域级数据集,请选择要在其中创建数据分析扫描的区域。
选择通用配置选项:
在范围字段中,选择增量或所有数据。
如需对数据分析扫描应用采样,请在采样规模列表中选择采样百分比。
选择一个介于 0.0% 到 100.0% 之间的百分比值,最多精确到小数点后 3 位。
如需显示所有扫描的结果,请选择发布。您可以在 BigQuery 或 Dataplex Universal Catalog 表详情的分析标签页中查看结果。确保您拥有源表的
bigquery.tables.update
权限。在时间表选项下,选择以下选项之一:
重复:按时间表运行数据分析扫描作业。指定扫描的运行频率(每天、每周、每月或自定义)和运行时间。如果您选择自定义,请使用 cron 格式指定时间表。
按需:创建数据分析扫描作业,然后随时点击运行运行该作业。
在选择表选项中,点击浏览。选择要扫描的一个或多个表。点击选择。
选择其他设置:
如需将数据分析扫描的结果保存到您选择的 BigQuery 表中,请在将扫描结果导出到 BigQuery 表中选择一个表。对于每个扫描作业,Dataplex Universal Catalog 都会自动将结果复制并保存到此表中。
点击浏览以选择一个数据集。
输入要将结果保存到的 BigQuery 表。此表可以是现有表,供其他 Dataplex Universal Catalog 数据分析扫描用来保存结果。如果不存在具有指定名称的表,Dataplex Universal Catalog 会创建该表。
添加标签,为数据分析扫描添加注解。
点击运行扫描以创建并运行所有扫描。此选项仅适用于按需扫描。
点击创建以创建所有扫描。
gcloud
不受支持。
REST
不受支持。
导出表架构
如果您要将数据分析扫描结果导出到现有 BigQuery 表,请确保该表与以下表架构兼容:
列名 | 列数据类型 | 子字段名称 (如果适用) |
子字段数据类型 | 模式 | 示例 |
---|---|---|---|---|---|
data_profile_scan | struct/record |
resource_name |
string |
nullable | //dataplex.googleapis.com/projects/test-project/locations/europe-west2/datascans/test-datascan |
project_id |
string |
nullable | test-project |
||
location |
string |
nullable | us-central1 |
||
data_scan_id |
string |
nullable | test-datascan |
||
data_source | struct/record |
resource_name |
string |
nullable | 实体大小写://dataplex.googleapis.com/projects/test-project/locations/europe-west2/lakes/test-lake/zones/test-zone/entities/test-entity
表大小写: //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
|
dataplex_entity_project_id |
string |
nullable | test-project |
||
dataplex_entity_project_number |
integer |
nullable | 123456789012 |
||
dataplex_lake_id |
string |
nullable | (仅在来源为实体时有效)test-lake
|
||
dataplex_zone_id |
string |
nullable | (仅在来源为实体时有效)test-zone |
||
dataplex_entity_id |
string |
nullable | (仅在来源为实体时有效)test-entity |
||
table_project_id |
string |
nullable | dataplex-table |
||
table_project_number |
int64 |
nullable | 345678901234 |
||
dataset_id |
string |
nullable | (仅在来源为表时有效)test-dataset |
||
table_id |
string |
nullable | (仅在来源为表时有效)test-table |
||
data_profile_job_id | string |
nullable | caeba234-cfde-4fca-9e5b-fe02a9812e38 |
||
data_profile_job_configuration | json |
trigger |
string |
nullable | ondemand /schedule |
incremental |
boolean |
nullable | true /false |
||
sampling_percent |
float |
nullable | (0-100)20.0 (表示 20%) |
||
row_filter |
string |
nullable | col1 >= 0 AND col2 < 10 |
||
column_filter |
json |
nullable | {"include_fields":["col1","col2"], "exclude_fields":["col3"]} |
||
job_labels | json |
nullable | {"key1":value1} |
||
job_start_time | timestamp |
nullable | 2023-01-01 00:00:00 UTC |
||
job_end_time | timestamp |
nullable | 2023-01-01 00:00:00 UTC |
||
job_rows_scanned | integer |
nullable | 7500 |
||
column_name | string |
nullable | column-1 |
||
column_type | string |
nullable | string |
||
column_mode | string |
nullable | repeated |
||
percent_null | float |
nullable | (0.0-100.0)20.0 (表示 20%) |
||
percent_unique | float |
nullable | (0.0-100.0)92.5 |
||
min_string_length | integer |
nullable | (仅在列类型为字符串时有效)10 |
||
max_string_length | integer |
nullable | (仅在列类型为字符串时有效)4 |
||
average_string_length | float |
nullable | (仅在列类型为字符串时有效)7.2 |
||
min_value | float |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
max_value | float |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
average_value | float |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
standard_deviation | float |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
quartile_lower | integer |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
quartile_median | integer |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
quartile_upper | integer |
nullable | (仅在列类型为数值时有效 - 整数/浮点数) | ||
top_n | struct/record - repeated |
value |
string |
nullable | "4009" |
count |
integer |
nullable | 20 |
||
percent |
float |
nullable | 10 (表示 10%) |
导出表设置
将数据导出到 BigQueryExport 表时,请遵循以下准则:
- 对于字段
resultsTable
,请使用以下格式://bigquery.googleapis.com/projects/{project-id}/datasets/{dataset-id}/tables/{table-id}
。 - 使用 BigQuery 标准表。
- 如果在创建或更新扫描时该表不存在,Dataplex Universal Catalog 会为您创建该表。
- 默认情况下,该表按
job_start_time
列每天进行分区。 - 如果您希望以其他配置对表进行分区,或者不希望进行分区,请使用所需的架构和配置重新创建表,然后将预先创建的表作为结果表提供。
- 确保结果表与源表位于同一位置。
- 如果为项目配置了 VPC-SC,则结果表必须与源表位于同一 VPC-SC 边界内。
- 如果表在扫描执行阶段被修改,则当前正在运行的作业会导出到之前的结果表,并且表更改会从下一个扫描作业开始生效。
- 请勿修改表架构。如果您需要自定义列,请基于表创建视图。
- 为了降低费用,请根据您的应用场景为分区设置失效时间。如需了解详情,请参阅如何设置分区失效时间。
运行数据分析扫描
控制台
- 在 Google Cloud 控制台中,前往 Dataplex Universal Catalog 数据分析页面。前往“个人资料”页面
- 点击要运行的数据分析扫描。
- 点击立即运行。
gcloud
如需运行数据分析扫描,请运行以下命令:
gcloud dataplex datascans run DATASCAN \ --location=LOCATION
执行以下变量替换操作:
DATASCAN
:数据分析扫描的名称。LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 运行数据分析扫描。
查看数据分析扫描作业结果
控制台
您创建的所有数据分析扫描都会显示在数据分析页面中。
如需查看扫描的详细结果,请点击扫描的名称。
概览部分显示扫描运行、每次运行的时间、扫描的表记录数以及作业状态。
数据分析扫描配置部分包含有关扫描的详细信息。
gcloud
如需查看数据分析扫描作业的结果,请运行以下命令:
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
执行以下变量替换操作:
JOB
:数据分析扫描作业的 ID。LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。DATASCAN
:作业所属的数据分析扫描的名称。--view=FULL
:如需查看扫描作业结果,请指定FULL
。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 查看数据分析扫描的结果。
查看最近的数据分析扫描作业
控制台
如果至少有一次成功完成的运行,最新作业结果标签页会提供有关最新作业的信息。该标签页会列出已扫描的表列,以及在扫描中发现的列的相关统计信息。
gcloud
如需查看最近一次成功的数据分析扫描,请运行以下命令:
gcloud dataplex datascans describe DATASCAN \ --location=LOCATION \ --view=FULL
执行以下变量替换操作:
DATASCAN
:要查看其最近作业的数据分析扫描的名称。LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。--view=FULL
:如需查看扫描作业结果,请指定FULL
。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 查看最近的扫描作业。
查看所有数据分析扫描作业
Dataplex Universal Catalog 会保存最近 300 个作业或过去一年的数据分析扫描历史记录,以先到者为准。
控制台
作业历史记录标签页提供有关过往作业的信息。其中列出了所有作业、每个作业中扫描的记录数、作业状态、作业执行时间等。
如需查看作业的详细信息,请点击作业 ID 下的任何作业。
gcloud
如需查看数据分析扫描的所有作业,请运行以下命令:
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
执行以下变量替换操作:
LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。DATASCAN
:要查看其所有作业的数据分析扫描的名称。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 查看所有扫描作业。
共享已发布的结果
创建数据分析扫描时,如果您选择在Google Cloud 控制台的 BigQuery 和 Dataplex Universal Catalog 页面中发布扫描结果,则最新扫描结果将显示在这些页面的数据分析标签页中。
您可以允许组织中的用户访问已发布的扫描结果。如需授予对扫描结果的访问权限,请按照以下步骤操作:
在 Google Cloud 控制台中,前往数据分析页面。
点击您要共享其结果的数据分析扫描。
前往权限标签页。
点击授予访问权限。
在新的主账号字段中,添加要向其授予访问权限的主账号。
在选择角色字段中,选择 Dataplex Universal Catalog DataScan DataViewer。
点击保存。
如需移除主账号对已发布的扫描结果的访问权限,请按照以下步骤操作:
在 Google Cloud 控制台中,前往数据分析页面。
点击您要共享其结果的数据分析扫描。
前往权限标签页。
选择要移除其 Dataplex Universal Catalog DataScan DataViewer 角色的主账号。
点击解除使用权限。
点击确认。
更新数据分析扫描
控制台
在 Google Cloud 控制台中,前往数据分析页面。
在要修改的扫描所在的行中,点击 > 修改。
修改值。
点击保存。
gcloud
如需更新数据分析扫描,请运行以下命令:
gcloud dataplex datascans update data-profile DATASCAN \ --location=LOCATION \ --description=DESCRIPTION
执行以下变量替换操作:
DATASCAN
:要更新的数据分析扫描的名称。LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。DESCRIPTION
:数据分析扫描的新说明。
如需了解要更新的规范字段,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 修改数据分析扫描。
删除数据分析扫描
控制台
在 Google Cloud 控制台中,前往数据分析页面。前往 Dataplex Universal Catalog 数据分析
点击要删除的扫描。
点击删除。
gcloud
如需删除数据分析扫描,请运行以下命令:
gcloud dataplex datascans delete \ DATASCAN --location=LOCATION \ --async
执行以下变量替换操作:
DATASCAN
:要删除的数据分析扫描的名称。LOCATION
:在其中创建数据分析扫描的 Google Cloud 区域。
如需了解可选参数,请参阅 gcloud CLI 参考文档。
REST
使用 APIs Explorer 删除数据分析扫描。
后续步骤
- 了解如何通过生成数据分析洞见来探索数据。
- 了解数据分析。
- 了解自动数据质量。
- 了解如何使用自动数据质量。