Descubrir y catalogar datos de Cloud Storage
En este documento se explica cómo usar la función de descubrimiento automático de Universal Catalog de Dataplex, una función de BigQuery que te permite analizar datos en segmentos de Cloud Storage para extraer y catalogar metadatos. Como parte del análisis de descubrimiento, el descubrimiento automático crea tablas de BigLake o externas para los datos estructurados y tablas de objetos para los datos no estructurados. Esta tabla centralizada facilita las estadísticas de datos basadas en IA, la seguridad de los datos y la gobernanza.
Para usar el descubrimiento automático de datos de Cloud Storage, crea y ejecuta un análisis de descubrimiento.
El descubrimiento automático también se denomina descubrimiento independiente.
Descripción general del análisis de descubrimiento
Un análisis de descubrimiento hace lo siguiente:
- Analiza los datos del segmento o la ruta de Cloud Storage.
- Agrupa los datos estructurados y semiestructurados en tablas.
- Recoge metadatos, como el nombre de la tabla, el esquema y la definición de partición.
- Crea y actualiza tablas de BigLake, externas o de objetos en BigQuery con el esquema y la definición de partición.
En el caso de los datos sin estructurar, como imágenes y vídeos, el análisis de descubrimiento detecta y registra grupos de archivos que comparten el mismo tipo de contenido multimedia que las tablas de objetos de BigLake. Por ejemplo, si gs://images/group1
contiene imágenes GIF y gs://images/group2
contiene imágenes JPEG, la detección detecta y registra dos conjuntos de archivos.
En el caso de los datos estructurados, como Avro, el análisis de detección registra grupos de archivos como tablas externas de BigLake y detecta archivos solo si se encuentran en carpetas que contienen el mismo formato de datos y un esquema compatible.
El análisis de descubrimiento admite los siguientes formatos de datos estructurados y semiestructurados:
- Parquet
- Avro
- ORC
- JSON (solo el formato delimitado por líneas nuevas)
- CSV (pero no archivos CSV que tengan filas de comentarios)
El análisis de descubrimiento admite los siguientes formatos de compresión para datos estructurados y semiestructurados:
Compresión interna para los siguientes formatos:
Compresión Ejemplo de extensión de archivo Formato admitido gzip .gz.parquet
Parquet lz4 .lz4.parquet
Parquet Snappy .snappy.parquet
Parquet, ORC y Avro lzo .lzo.parquet
Parquet, ORC Compresión externa de archivos JSON y CSV:
- gzip
- bzip2
Para ver el límite de tablas que admite un análisis de descubrimiento, consulta Cuotas y límites.
Las tablas detectadas se registran en BigQuery como tablas externas de BigLake, tablas de objetos de BigLake o tablas externas. De esta forma, sus datos estarán disponibles para analizarlos en BigQuery. También se habilita el almacenamiento en caché de metadatos de las tablas de BigLake y de objetos. Todas las tablas de BigLake se insertan automáticamente en Dataplex Universal Catalog para que se puedan buscar y descubrir.
Antes de empezar
Enable the Dataplex API.
Roles required to enable APIs
To enable APIs, you need the Service Usage Admin IAM
role (roles/serviceusage.serviceUsageAdmin
), which
contains the serviceusage.services.enable
permission. Learn how to grant
roles.
Roles necesarios para la cuenta de servicio de Dataplex Universal Catalog
Antes de empezar, asigna los permisos de gestión de identidades y accesos a la cuenta de servicio de catálogo universal de Dataplex en tu proyecto.
service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
Sustituye PROJECT_NUMBER
por el proyecto en el que esté habilitada la API de Dataplex.
Para asegurarte de que la cuenta de servicio de Dataplex tiene los permisos necesarios para crear y ejecutar un análisis de descubrimiento, pide a tu administrador que le asigne los siguientes roles de gestión de identidades y accesos:
-
Agente de servicio de Dataplex Discovery (
roles/dataplex.discoveryServiceAgent
) en el bucket de almacenamiento -
Agente de servicio de publicación de Discovery de Dataplex (
roles/dataplex.discoveryPublishingServiceAgent
) en el proyecto del usuario -
Crea tablas de BigLake:
Agente del servicio de publicación de BigLake de Discovery de Dataplex (
roles/dataplex.discoveryBigLakePublishingServiceAgent
) en la conexión de BigQuery
Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.
Estos roles predefinidos contienen los permisos necesarios para crear y ejecutar un análisis de descubrimiento. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:
Permisos obligatorios
Para crear y ejecutar un análisis de descubrimiento, se necesitan los siguientes permisos:
-
bigquery.datasets.create
en el proyecto de la fuente de datos -
storage.buckets.get
en el contenedor de la fuente de datos -
storage.objects.get
en el contenedor de la fuente de datos -
storage.objects.list
en el contenedor de la fuente de datos -
bigquery.datasets.get
en el proyecto de la fuente de datos -
Proporciona una conexión:
-
bigquery.connections.delegate
en la conexión de BigQuery -
bigquery.connections.use
en la conexión de BigQuery
-
Es posible que tu administrador también pueda conceder estos permisos a la cuenta de servicio de Dataplex con roles personalizados u otros roles predefinidos.
Roles necesarios para la cuenta de servicio de conexión de BigQuery
Para asegurarte de que la cuenta de servicio de conexión de BigQuery tiene los permisos necesarios para crear un análisis de descubrimiento, pide a tu administrador que le conceda el rol de gestión de identidades y accesos Agente del servicio de descubrimiento de Dataplex (roles/dataplex.discoveryServiceAgent
) en el bucket de Cloud Storage.
Este rol predefinido contiene los permisos necesarios para crear un análisis de descubrimiento. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:
Permisos obligatorios
Para crear un análisis de descubrimiento, se necesitan los siguientes permisos:
-
bigquery.datasets.create
en el proyecto de la fuente de datos -
storage.buckets.get
en el contenedor de la fuente de datos -
storage.objects.get
en el contenedor de la fuente de datos -
storage.objects.list
en el contenedor de la fuente de datos -
bigquery.datasets.get
en el proyecto de la fuente de datos -
Proporciona una conexión:
-
bigquery.connections.delegate
en la conexión de BigQuery -
bigquery.connections.use
en la conexión de BigQuery
-
Es posible que tu administrador también pueda dar a la cuenta de servicio de conexión de BigQuery estos permisos con roles personalizados u otros roles predefinidos.
Roles necesarios para los usuarios finales
Para obtener los permisos que necesitas para crear y gestionar análisis de descubrimiento de datos, pide a tu administrador que te conceda los siguientes roles de gestión de identidades y accesos en el segmento de Cloud Storage:
-
Acceso completo a los recursos de DataScan:
Administrador de DataScan de Dataplex (
roles/dataplex.dataScanAdmin
): tu proyecto -
Acceso de escritura a los recursos de DataScan:
Editor de DataScan de Dataplex (
roles/dataplex.dataScanEditor
): tu proyecto -
Acceso de lectura a los recursos de DataScan, excepto a los resultados:
Visor de DataScan de Dataplex (
roles/dataplex.dataScanViewer
): tu proyecto -
Acceso de lectura a los recursos de DataScan, incluidos los resultados:
DataViewer de DataScan de Dataplex (
roles/dataplex.dataScanDataViewer
): tu proyecto
Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.
Estos roles predefinidos contienen los permisos necesarios para crear y gestionar análisis de descubrimiento de datos. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:
Permisos obligatorios
Para crear y gestionar análisis de descubrimiento de datos, se necesitan los siguientes permisos:
-
Crea un DataScan:
dataplex.datascans.create
en tu proyecto -
Eliminar un DataScan:
dataplex.datascans.delete
en tu proyecto o un recurso DataScan -
Ver los detalles de DataScan sin incluir los resultados:
dataplex.datascans.get
en el proyector, un recurso DataScan -
Consulta los detalles de DataScan, incluidos los resultados:
dataplex.datascans.getData
en tu proyecto o en un recurso DataScan -
Lista de DataScans:
dataplex.datascans.list
en tu proyecto o en un recurso DataScan -
Ejecutar un DataScan:
dataplex.datascans.run
en tu proyecto o en un recurso DataScan -
Actualiza la descripción de un DataScan:
dataplex.datascans.update
en tu proyector un recurso DataScan -
Consulta los permisos de gestión de identidades y accesos de DataScan:
dataplex.datascans.getIamPolicy
en tu proyecto o en un recurso DataScan -
Define los permisos de gestión de identidades y accesos en DataScan:
dataplex.datascans.setIamPolicy
en tu proyecto o en un recurso DataScan
También puedes obtener estos permisos con roles personalizados u otros roles predefinidos.
Crear un análisis de descubrimiento
Para descubrir datos, debe crear y ejecutar un análisis de descubrimiento. Puedes programar el análisis o ejecutarlo cuando quieras.
Cuando se ejecuta el análisis de detección, se crea un conjunto de datos en BigQuery que corresponde al bucket de Cloud Storage analizado. El nombre del conjunto de datos de BigQuery es el mismo que el del segmento de Cloud Storage. Los caracteres no válidos del nombre del
contenedor se sustituyen por un guion bajo. Si el nombre del conjunto de datos no está disponible, se añade un sufijo (por ejemplo, _discovered_001
). El conjunto de datos contiene las tablas externas de BigLake o que no son de BigLake que se crearon mediante la búsqueda de descubrimiento para analizarlas más a fondo.
Consola
En la Google Cloud consola, ve a la página Curación de metadatos.
En la pestaña Detección de Cloud Storage, haga clic en Crear.
En el panel Crear análisis de descubrimiento, configure los detalles de los datos que quiera analizar.
Introduce el nombre del análisis.
En el campo Scan ID (ID de análisis), introduce un ID único que siga las convenciones de nomenclatura de recursos de Google Cloud. Si no proporcionas un ID, la detección genera el ID de análisis.
Opcional: Proporciona una descripción del análisis.
Para especificar el segmento de Cloud Storage que contiene los archivos que quieres analizar, en el campo Segmento, busca y selecciona el segmento.
Opcional: Defina los datos que se incluirán o excluirán del análisis de detección proporcionando una lista de patrones glob para filtrar archivos.
- Incluir: si solo se debe analizar un subconjunto de los datos, proporcione una lista de patrones glob que coincidan con los objetos que se deben incluir.
- Excluir: proporciona una lista de patrones glob que coincidan con los objetos que quieras excluir.
Por ejemplo, si quiere excluir
gs://test_bucket/foo/..
del análisis de descubrimiento, introduzca**/foo/**
como ruta de exclusión. Las comillas provocan errores. Asegúrate de introducir**/foo/**
en lugar de"**/foo/**"
.Si proporciona patrones de inclusión y de exclusión, los patrones de exclusión se aplican primero.
Opcional: En Proyecto, selecciona el proyecto del conjunto de datos de BigQuery que contenga las tablas externas de BigLake o las tablas externas que no sean de BigLake creadas por la búsqueda de descubrimiento. Si no se proporciona, el conjunto de datos se crea en el proyecto que contiene el segmento de Cloud Storage.
En Tipo de ubicación, selecciona Región o Multirregión (la opción que esté disponible) donde se cree el conjunto de datos de publicación de BigQuery.
Para crear tablas de BigLake a partir de los datos analizados, en el campo ID de conexión, proporcione el ID de conexión de su recurso Google Cloud . Para obtener más información, consulta el artículo sobre las Google Cloud conexiones de recursos en BigQuery.
Puedes crear un ID de conexión en la misma ubicación que el conjunto de datos de BigQuery, que es compatible con la ubicación del segmento de Cloud Storage.
Si no proporcionas un ID de conexión de recursos, el análisis de descubrimiento crea tablas externas que no son de BigLake.
En la sección Frecuencia de descubrimiento, configure cuándo quiere que se ejecute el análisis de descubrimiento:
Repetir: el análisis se ejecuta según una programación predefinida. Proporciona la hora de inicio, los días que debe ejecutarse el análisis y la frecuencia (por ejemplo, cada hora).
Bajo demanda: el análisis se ejecuta bajo demanda.
Opcional: En la sección Especificaciones de JSON o CSV, especifica cómo debe procesar el análisis los archivos JSON y CSV. Haz clic en Especificaciones JSON o CSV.
- Para configurar las opciones de JSON, selecciona Habilitar opciones de análisis de JSON.
- Inhabilitar la inferencia de tipos: indica si el análisis de descubrimiento debe inferir tipos de datos al analizar datos. Si inhabilitas la inferencia de tipos para los datos JSON, todas las columnas se registrarán con sus tipos primitivos, como cadena, número o booleano.
- Formato de codificación: la codificación de caracteres de los datos, como UTF-8, US-ASCII o ISO-8859-1. Si no especificas ningún valor, se usará UTF-8 de forma predeterminada.
- Para configurar las opciones de CSV, marca Habilitar opciones de análisis de CSV.
- Inhabilitar la inferencia de tipos: indica si el análisis de descubrimiento debe inferir tipos de datos al analizar datos. Si inhabilitas la inferencia de tipos para los datos CSV, todas las columnas se registrarán como cadenas.
- Filas de encabezado: el número de filas de encabezado, que puede ser
0
o1
. Si especifica el valor0
, la detección infiere los encabezados y extrae los nombres de las columnas del archivo. El valor predeterminado es0
. - Carácter de delimitación de columnas: el carácter que se usa para separar los valores. Proporciona un solo carácter,
\r
(retorno de carro) o\n
(nueva línea). El valor predeterminado es una coma (,
). - Formato de codificación: la codificación de caracteres de los datos, como
UTF-8
,US-ASCII
oISO-8859-1
. Si no especificas ningún valor, se usará UTF-8 de forma predeterminada.
- Para configurar las opciones de JSON, selecciona Habilitar opciones de análisis de JSON.
Haz clic en Crear (para programar un análisis) o en Ejecutar ahora (para realizar un análisis bajo demanda).
Un análisis programado se ejecuta según la programación que hayas definido.
Un análisis bajo demanda se ejecuta una vez al crearlo y puedes ejecutarlo en cualquier momento. El análisis de detección puede tardar varios minutos en completarse.
gcloud
Para crear un análisis de descubrimiento, usa el comando gcloud dataplex datascans create data-discovery
.
gcloud dataplex datascans create data-discovery --location=LOCATION --data-source-resource=BUCKET_PATH
Haz los cambios siguientes:
LOCATION
: la ubicación en la que quieres crear el análisis de descubrimientoBUCKET_PATH
: la ruta de Cloud Storage del segmento que quieres analizar
REST
Para crear un análisis de descubrimiento, usa el método dataScans.create
.
Consultar tablas de BigLake publicadas
Después de ejecutar el análisis de descubrimiento, las tablas de BigLake se publican en un nuevo conjunto de datos de BigQuery. Las tablas estarán disponibles para analizarlas en BigQuery con SQL o en Dataproc con Apache Spark o HiveQL.
SQL
Puedes ver o consultar tablas en BigQuery. Para obtener más información sobre cómo ejecutar consultas en BigQuery, consulta Ejecutar una consulta.
Apache Spark
Para consultar tablas de BigLake con Spark SQL en un trabajo de Dataproc sin servidor, sigue estos pasos:
Crea una secuencia de comandos de PySpark similar a la siguiente:
from pyspark.sql import SparkSession session = ( SparkSession.builder.appName("testing") .config("viewsEnabled","true") .config("materializationDataset", "DATASET_ID") .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID") .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory") .enableHiveSupport() .getOrCreate() ) session.sql("show databases").show() session.sql("use TABLE_NAME").show() session.sql("show tables").show() sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10" df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql) df.show()
Haz los cambios siguientes:
DATASET_ID
: ID del conjunto de datos para el que los usuarios tienen permiso de creación.PROJECT_ID
: ID del proyecto con la tabla de BigLakeTABLE_NAME
: nombre de la tabla de BigLakeTABLE_ID
: ID de la tabla de BigLake
Gestionar tablas de BigLake publicadas
Las tablas de BigLake publicadas se crean y gestionan en BigQuery mediante el análisis de descubrimiento. De forma predeterminada, el análisis de descubrimiento gestiona el descubrimiento de datos nuevos, las inferencias de esquemas y la evolución de los esquemas cada vez que se ejecutan los análisis programados o bajo demanda. Para indicar que los metadatos se gestionan mediante el análisis, este publica tablas con la etiqueta metadata-managed-mode
definida como discovery-managed
.
Si quiere gestionar el esquema y otros metadatos, como las opciones de CSV o JSON, por su cuenta, asigne el valor user_managed
a la etiqueta metadata-managed-mode
. De esta forma, el esquema no cambia cuando se ejecute el siguiente análisis de descubrimiento. Este enfoque puede ser útil en situaciones en las que el esquema inferido por el análisis de descubrimiento sea incorrecto o diferente de lo que se espera de una tabla determinada. Si la etiqueta metadata-managed-mode
se define como user_managed
, se puede reducir el coste.
Para actualizar la etiqueta, puedes editar el valor de la clave de la etiqueta
metadata-managed-mode
a user_managed
en lugar de discovery-managed
. En este caso, el análisis de descubrimiento no actualiza el esquema de la tabla mientras la etiqueta user_managed
esté asociada a la tabla.
Actualizar tablas de BigLake publicadas
En el caso de las tablas de BigLake publicadas mediante trabajos de análisis de descubrimiento con la configuración predeterminada, el esquema y otros metadatos se actualizan automáticamente con cada ejecución del trabajo de análisis de descubrimiento a la frecuencia programada.
Para actualizar una tabla BigLake publicada, sigue estos pasos:
En la Google Cloud consola, ve a la página BigQuery.
En el panel Explorador, expande tu proyecto y tu conjunto de datos, y selecciona la tabla.
En la pestaña Detalles, en la sección Etiquetas, comprueba que la etiqueta metadata-managed-mode tenga el valor user_managed. Si tiene otro valor, siga estos pasos:
Haz clic en
Editar detalles.Junto a la clave metadata-managed-mode, en el campo value (valor), introduce
user_managed
.
Eliminar tablas de BigLake publicadas
Para eliminar una tabla de BigLake publicada, sigue estos pasos:
Elimina los archivos de datos de la tabla del segmento de Cloud Storage.
En la Google Cloud consola, ve a la página BigQuery.
En el panel Explorador, expande tu proyecto y tu conjunto de datos, y selecciona la tabla.
En el panel Detalles, en la sección Etiquetas, comprueba que la etiqueta metadata-managed-mode no esté definida como
user_managed
. Si está configurado comouser_managed
, sigue estos pasos:Haz clic en Editar detalles
.Junto a la clave metadata-managed-mode, en el campo value (valor), introduce
discovery-managed
.
Haz clic en Ejecutar. El análisis de detección se ejecuta bajo demanda.
Una vez que se ejecuta el análisis de descubrimiento, la tabla de BigLake se elimina en BigQuery y no se puede enumerar ni consultar mediante Spark.
Ejecutar un análisis de descubrimiento bajo demanda
Para ejecutar un análisis de detección bajo demanda, selecciona una de las siguientes opciones.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, haz clic en el análisis de detección que quieras ejecutar.
Haz clic en Ejecutar ahora.
gcloud
Para ejecutar un análisis de descubrimiento, usa el comando gcloud dataplex datascans run
:
gcloud dataplex datascans runDATASCAN
\ --location=LOCATION
Sustituye las siguientes variables:
LOCATION
: la región en la que se creó el análisis de descubrimiento. Google CloudDATASCAN
: el nombre del análisis de descubrimiento.
REST
Para ejecutar un análisis de descubrimiento bajo demanda, usa el método dataScans.run
de la API de Dataplex.
Mostrar análisis de descubrimiento
Para ver la lista de análisis de detección, selecciona una de las siguientes opciones.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, se muestran las detecciones creadas en el proyecto.
gcloud
gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID
Haz los cambios siguientes:
LOCATION
: la ubicación de tu proyectoPROJECT_ID
: tu ID de proyecto Google Cloud
REST
Para obtener la lista de análisis de descubrimiento de tu proyecto, usa el método dataScans.list
de la API Dataplex.
Ver un análisis de descubrimiento
Para ver una búsqueda de detección, selecciona una de las siguientes opciones.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, haz clic en la detección que quieras consultar.
- En la sección Detalles del análisis se muestran los detalles del análisis de detección.
- En la sección Estado del análisis se muestran los resultados de detección del último trabajo de análisis.
gcloud
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
Haz los cambios siguientes:
JOB
: el ID del trabajo de análisis de descubrimiento.LOCATION
: la región en la que se creó el análisis de descubrimiento. Google CloudDATASCAN
: el nombre del análisis de descubrimiento al que pertenece el trabajo.--view=FULL
: consulta el resultado del trabajo de análisis de descubrimiento.
REST
Para ver los resultados de un análisis de detección de datos, usa el método dataScans.get
de la API Dataplex.
Ver el historial de resultados de análisis de detección
Para ver los resultados históricos de las búsquedas de detección, selecciona una de las siguientes opciones.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, haz clic en la detección que quieras consultar.
Haz clic en el panel Historial de análisis. El panel Historial de análisis proporciona información sobre los trabajos anteriores, incluido el número de registros analizados en cada trabajo, el estado de cada trabajo y la hora en que se ejecutaron.
Para ver información detallada sobre un trabajo, haz clic en él en la columna ID de trabajo.
gcloud
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
Haz los cambios siguientes:
LOCATION
: la región en la que se creó el análisis de descubrimiento. Google CloudDATASCAN
: el nombre del análisis de descubrimiento al que pertenece el trabajo.
REST
Para ver todos los trabajos de un análisis de descubrimiento, usa el método dataScans.job/list
de la API de Dataplex.
Actualizar un análisis de descubrimiento
Para cambiar la programación de un análisis de descubrimiento (por ejemplo, de análisis bajo demanda a análisis periódico), actualiza el análisis de descubrimiento.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, haga clic en Acciones > Editar en la detección que quiera actualizar.
Edita los valores.
Haz clic en Guardar.
gcloud
Para actualizar un análisis de descubrimiento, usa el comando gcloud dataplex datascans update data-discovery
.
gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION
Haz los cambios siguientes:
SCAN_ID
: el ID del análisis de descubrimiento que quieras actualizarLOCATION
: la región en la que se creó el análisis de descubrimiento Google CloudDESCRIPTION
: la nueva descripción del análisis de descubrimiento
REST
Para actualizar un análisis de descubrimiento, usa el método dataScans.patch
de la API Dataplex.
Eliminar un análisis de descubrimiento
Para eliminar un análisis de detección, seleccione una de las siguientes opciones.
Consola
En la Google Cloud consola, ve a la página BigQuery.
En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.
En el panel Detección de Cloud Storage, haga clic en Acciones > Eliminar en la detección que quiera eliminar.
Haz clic en Eliminar.
gcloud
gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async
Haz los cambios siguientes:
SCAN_ID
: el ID del análisis de descubrimiento que quieras eliminar.LOCATION
: la región en la que se creó el análisis de descubrimiento. Google Cloud
REST
Para eliminar un análisis de descubrimiento, usa el método dataScans.delete
de la API de Dataplex.