Descubrir y catalogar datos de Cloud Storage

En este documento se explica cómo usar la función de descubrimiento automático de Universal Catalog de Dataplex, una función de BigQuery que te permite analizar datos en segmentos de Cloud Storage para extraer y catalogar metadatos. Como parte del análisis de descubrimiento, el descubrimiento automático crea tablas de BigLake o externas para los datos estructurados y tablas de objetos para los datos no estructurados. Esta tabla centralizada facilita las estadísticas de datos basadas en IA, la seguridad de los datos y la gobernanza.

Para usar el descubrimiento automático de datos de Cloud Storage, crea y ejecuta un análisis de descubrimiento.

El descubrimiento automático también se denomina descubrimiento independiente.

Descripción general del análisis de descubrimiento

Un análisis de descubrimiento hace lo siguiente:

  • Analiza los datos del segmento o la ruta de Cloud Storage.
  • Agrupa los datos estructurados y semiestructurados en tablas.
  • Recoge metadatos, como el nombre de la tabla, el esquema y la definición de partición.
  • Crea y actualiza tablas de BigLake, externas o de objetos en BigQuery con el esquema y la definición de partición.

En el caso de los datos sin estructurar, como imágenes y vídeos, el análisis de descubrimiento detecta y registra grupos de archivos que comparten el mismo tipo de contenido multimedia que las tablas de objetos de BigLake. Por ejemplo, si gs://images/group1 contiene imágenes GIF y gs://images/group2 contiene imágenes JPEG, la detección detecta y registra dos conjuntos de archivos.

En el caso de los datos estructurados, como Avro, el análisis de detección registra grupos de archivos como tablas externas de BigLake y detecta archivos solo si se encuentran en carpetas que contienen el mismo formato de datos y un esquema compatible.

El análisis de descubrimiento admite los siguientes formatos de datos estructurados y semiestructurados:

El análisis de descubrimiento admite los siguientes formatos de compresión para datos estructurados y semiestructurados:

  • Compresión interna para los siguientes formatos:

    Compresión Ejemplo de extensión de archivo Formato admitido
    gzip .gz.parquet Parquet
    lz4 .lz4.parquet Parquet
    Snappy .snappy.parquet Parquet, ORC y Avro
    lzo .lzo.parquet Parquet, ORC
  • Compresión externa de archivos JSON y CSV:

    • gzip
    • bzip2

Para ver el límite de tablas que admite un análisis de descubrimiento, consulta Cuotas y límites.

Las tablas detectadas se registran en BigQuery como tablas externas de BigLake, tablas de objetos de BigLake o tablas externas. De esta forma, sus datos estarán disponibles para analizarlos en BigQuery. También se habilita el almacenamiento en caché de metadatos de las tablas de BigLake y de objetos. Todas las tablas de BigLake se insertan automáticamente en Dataplex Universal Catalog para que se puedan buscar y descubrir.

Antes de empezar

Enable the Dataplex API.

Roles required to enable APIs

To enable APIs, you need the Service Usage Admin IAM role (roles/serviceusage.serviceUsageAdmin), which contains the serviceusage.services.enable permission. Learn how to grant roles.

Enable the API

Roles necesarios para la cuenta de servicio de Dataplex Universal Catalog

Antes de empezar, asigna los permisos de gestión de identidades y accesos a la cuenta de servicio de catálogo universal de Dataplex en tu proyecto.

  service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
  

Sustituye PROJECT_NUMBER por el proyecto en el que esté habilitada la API de Dataplex.

Para asegurarte de que la cuenta de servicio de Dataplex tiene los permisos necesarios para crear y ejecutar un análisis de descubrimiento, pide a tu administrador que le asigne los siguientes roles de gestión de identidades y accesos:

Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.

Estos roles predefinidos contienen los permisos necesarios para crear y ejecutar un análisis de descubrimiento. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:

Permisos obligatorios

Para crear y ejecutar un análisis de descubrimiento, se necesitan los siguientes permisos:

  • bigquery.datasets.create en el proyecto de la fuente de datos
  • storage.buckets.get en el contenedor de la fuente de datos
  • storage.objects.get en el contenedor de la fuente de datos
  • storage.objects.list en el contenedor de la fuente de datos
  • bigquery.datasets.get en el proyecto de la fuente de datos
  • Proporciona una conexión:
    • bigquery.connections.delegate en la conexión de BigQuery
    • bigquery.connections.use en la conexión de BigQuery

Es posible que tu administrador también pueda conceder estos permisos a la cuenta de servicio de Dataplex con roles personalizados u otros roles predefinidos.

Roles necesarios para la cuenta de servicio de conexión de BigQuery

Para asegurarte de que la cuenta de servicio de conexión de BigQuery tiene los permisos necesarios para crear un análisis de descubrimiento, pide a tu administrador que le conceda el rol de gestión de identidades y accesos Agente del servicio de descubrimiento de Dataplex (roles/dataplex.discoveryServiceAgent) en el bucket de Cloud Storage.

Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.

Este rol predefinido contiene los permisos necesarios para crear un análisis de descubrimiento. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:

Permisos obligatorios

Para crear un análisis de descubrimiento, se necesitan los siguientes permisos:

  • bigquery.datasets.create en el proyecto de la fuente de datos
  • storage.buckets.get en el contenedor de la fuente de datos
  • storage.objects.get en el contenedor de la fuente de datos
  • storage.objects.list en el contenedor de la fuente de datos
  • bigquery.datasets.get en el proyecto de la fuente de datos
  • Proporciona una conexión:
    • bigquery.connections.delegate en la conexión de BigQuery
    • bigquery.connections.use en la conexión de BigQuery

Es posible que tu administrador también pueda dar a la cuenta de servicio de conexión de BigQuery estos permisos con roles personalizados u otros roles predefinidos.

Roles necesarios para los usuarios finales

Para obtener los permisos que necesitas para crear y gestionar análisis de descubrimiento de datos, pide a tu administrador que te conceda los siguientes roles de gestión de identidades y accesos en el segmento de Cloud Storage:

  • Acceso completo a los recursos de DataScan: Administrador de DataScan de Dataplex (roles/dataplex.dataScanAdmin): tu proyecto
  • Acceso de escritura a los recursos de DataScan: Editor de DataScan de Dataplex (roles/dataplex.dataScanEditor): tu proyecto
  • Acceso de lectura a los recursos de DataScan, excepto a los resultados: Visor de DataScan de Dataplex (roles/dataplex.dataScanViewer): tu proyecto
  • Acceso de lectura a los recursos de DataScan, incluidos los resultados: DataViewer de DataScan de Dataplex (roles/dataplex.dataScanDataViewer): tu proyecto

Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.

Estos roles predefinidos contienen los permisos necesarios para crear y gestionar análisis de descubrimiento de datos. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:

Permisos obligatorios

Para crear y gestionar análisis de descubrimiento de datos, se necesitan los siguientes permisos:

  • Crea un DataScan: dataplex.datascans.create en tu proyecto
  • Eliminar un DataScan: dataplex.datascans.delete en tu proyecto o un recurso DataScan
  • Ver los detalles de DataScan sin incluir los resultados: dataplex.datascans.get en el proyector, un recurso DataScan
  • Consulta los detalles de DataScan, incluidos los resultados: dataplex.datascans.getData en tu proyecto o en un recurso DataScan
  • Lista de DataScans: dataplex.datascans.list en tu proyecto o en un recurso DataScan
  • Ejecutar un DataScan: dataplex.datascans.run en tu proyecto o en un recurso DataScan
  • Actualiza la descripción de un DataScan: dataplex.datascans.update en tu proyector un recurso DataScan
  • Consulta los permisos de gestión de identidades y accesos de DataScan: dataplex.datascans.getIamPolicy en tu proyecto o en un recurso DataScan
  • Define los permisos de gestión de identidades y accesos en DataScan: dataplex.datascans.setIamPolicy en tu proyecto o en un recurso DataScan

También puedes obtener estos permisos con roles personalizados u otros roles predefinidos.

Crear un análisis de descubrimiento

Para descubrir datos, debe crear y ejecutar un análisis de descubrimiento. Puedes programar el análisis o ejecutarlo cuando quieras.

Cuando se ejecuta el análisis de detección, se crea un conjunto de datos en BigQuery que corresponde al bucket de Cloud Storage analizado. El nombre del conjunto de datos de BigQuery es el mismo que el del segmento de Cloud Storage. Los caracteres no válidos del nombre del contenedor se sustituyen por un guion bajo. Si el nombre del conjunto de datos no está disponible, se añade un sufijo (por ejemplo, _discovered_001). El conjunto de datos contiene las tablas externas de BigLake o que no son de BigLake que se crearon mediante la búsqueda de descubrimiento para analizarlas más a fondo.

Consola

  1. En la Google Cloud consola, ve a la página Curación de metadatos.

    Ir a Curación de metadatos

  2. En la pestaña Detección de Cloud Storage, haga clic en Crear.

  3. En el panel Crear análisis de descubrimiento, configure los detalles de los datos que quiera analizar.

  4. Introduce el nombre del análisis.

  5. En el campo Scan ID (ID de análisis), introduce un ID único que siga las convenciones de nomenclatura de recursos de Google Cloud. Si no proporcionas un ID, la detección genera el ID de análisis.

  6. Opcional: Proporciona una descripción del análisis.

  7. Para especificar el segmento de Cloud Storage que contiene los archivos que quieres analizar, en el campo Segmento, busca y selecciona el segmento.

  8. Opcional: Defina los datos que se incluirán o excluirán del análisis de detección proporcionando una lista de patrones glob para filtrar archivos.

    • Incluir: si solo se debe analizar un subconjunto de los datos, proporcione una lista de patrones glob que coincidan con los objetos que se deben incluir.
    • Excluir: proporciona una lista de patrones glob que coincidan con los objetos que quieras excluir.

    Por ejemplo, si quiere excluir gs://test_bucket/foo/.. del análisis de descubrimiento, introduzca **/foo/** como ruta de exclusión. Las comillas provocan errores. Asegúrate de introducir **/foo/** en lugar de "**/foo/**".

    Si proporciona patrones de inclusión y de exclusión, los patrones de exclusión se aplican primero.

  9. Opcional: En Proyecto, selecciona el proyecto del conjunto de datos de BigQuery que contenga las tablas externas de BigLake o las tablas externas que no sean de BigLake creadas por la búsqueda de descubrimiento. Si no se proporciona, el conjunto de datos se crea en el proyecto que contiene el segmento de Cloud Storage.

  10. En Tipo de ubicación, selecciona Región o Multirregión (la opción que esté disponible) donde se cree el conjunto de datos de publicación de BigQuery.

  11. Para crear tablas de BigLake a partir de los datos analizados, en el campo ID de conexión, proporcione el ID de conexión de su recurso Google Cloud . Para obtener más información, consulta el artículo sobre las Google Cloud conexiones de recursos en BigQuery.

    Puedes crear un ID de conexión en la misma ubicación que el conjunto de datos de BigQuery, que es compatible con la ubicación del segmento de Cloud Storage.

    Si no proporcionas un ID de conexión de recursos, el análisis de descubrimiento crea tablas externas que no son de BigLake.

  12. En la sección Frecuencia de descubrimiento, configure cuándo quiere que se ejecute el análisis de descubrimiento:

    • Repetir: el análisis se ejecuta según una programación predefinida. Proporciona la hora de inicio, los días que debe ejecutarse el análisis y la frecuencia (por ejemplo, cada hora).

    • Bajo demanda: el análisis se ejecuta bajo demanda.

  13. Opcional: En la sección Especificaciones de JSON o CSV, especifica cómo debe procesar el análisis los archivos JSON y CSV. Haz clic en Especificaciones JSON o CSV.

    1. Para configurar las opciones de JSON, selecciona Habilitar opciones de análisis de JSON.
      • Inhabilitar la inferencia de tipos: indica si el análisis de descubrimiento debe inferir tipos de datos al analizar datos. Si inhabilitas la inferencia de tipos para los datos JSON, todas las columnas se registrarán con sus tipos primitivos, como cadena, número o booleano.
      • Formato de codificación: la codificación de caracteres de los datos, como UTF-8, US-ASCII o ISO-8859-1. Si no especificas ningún valor, se usará UTF-8 de forma predeterminada.
    2. Para configurar las opciones de CSV, marca Habilitar opciones de análisis de CSV.
      • Inhabilitar la inferencia de tipos: indica si el análisis de descubrimiento debe inferir tipos de datos al analizar datos. Si inhabilitas la inferencia de tipos para los datos CSV, todas las columnas se registrarán como cadenas.
      • Filas de encabezado: el número de filas de encabezado, que puede ser 0 o 1. Si especifica el valor 0, la detección infiere los encabezados y extrae los nombres de las columnas del archivo. El valor predeterminado es 0.
      • Carácter de delimitación de columnas: el carácter que se usa para separar los valores. Proporciona un solo carácter, \r (retorno de carro) o \n (nueva línea). El valor predeterminado es una coma (,).
      • Formato de codificación: la codificación de caracteres de los datos, como UTF-8, US-ASCII o ISO-8859-1. Si no especificas ningún valor, se usará UTF-8 de forma predeterminada.
  14. Haz clic en Crear (para programar un análisis) o en Ejecutar ahora (para realizar un análisis bajo demanda).

    Un análisis programado se ejecuta según la programación que hayas definido.

    Un análisis bajo demanda se ejecuta una vez al crearlo y puedes ejecutarlo en cualquier momento. El análisis de detección puede tardar varios minutos en completarse.

gcloud

Para crear un análisis de descubrimiento, usa el comando gcloud dataplex datascans create data-discovery.

gcloud dataplex datascans create data-discovery --location=LOCATION
--data-source-resource=BUCKET_PATH

Haz los cambios siguientes:

  • LOCATION: la ubicación en la que quieres crear el análisis de descubrimiento
  • BUCKET_PATH: la ruta de Cloud Storage del segmento que quieres analizar

REST

Para crear un análisis de descubrimiento, usa el método dataScans.create.

Consultar tablas de BigLake publicadas

Después de ejecutar el análisis de descubrimiento, las tablas de BigLake se publican en un nuevo conjunto de datos de BigQuery. Las tablas estarán disponibles para analizarlas en BigQuery con SQL o en Dataproc con Apache Spark o HiveQL.

SQL

Puedes ver o consultar tablas en BigQuery. Para obtener más información sobre cómo ejecutar consultas en BigQuery, consulta Ejecutar una consulta.

Apache Spark

Para consultar tablas de BigLake con Spark SQL en un trabajo de Dataproc sin servidor, sigue estos pasos:

  1. Crea una secuencia de comandos de PySpark similar a la siguiente:

    from pyspark.sql import SparkSession
    session = (
      SparkSession.builder.appName("testing")
        .config("viewsEnabled","true")
        .config("materializationDataset", "DATASET_ID")
        .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID")
        .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory")
        .enableHiveSupport()
        .getOrCreate()
    )
    
    session.sql("show databases").show()
    session.sql("use TABLE_NAME").show()
    session.sql("show tables").show()
    
    sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10"
    df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql)
    df.show()

    Haz los cambios siguientes:

    • DATASET_ID: ID del conjunto de datos para el que los usuarios tienen permiso de creación.
    • PROJECT_ID: ID del proyecto con la tabla de BigLake
    • TABLE_NAME: nombre de la tabla de BigLake
    • TABLE_ID: ID de la tabla de BigLake
  2. Envía el trabajo por lotes.

Gestionar tablas de BigLake publicadas

Las tablas de BigLake publicadas se crean y gestionan en BigQuery mediante el análisis de descubrimiento. De forma predeterminada, el análisis de descubrimiento gestiona el descubrimiento de datos nuevos, las inferencias de esquemas y la evolución de los esquemas cada vez que se ejecutan los análisis programados o bajo demanda. Para indicar que los metadatos se gestionan mediante el análisis, este publica tablas con la etiqueta metadata-managed-mode definida como discovery-managed.

Si quiere gestionar el esquema y otros metadatos, como las opciones de CSV o JSON, por su cuenta, asigne el valor user_managed a la etiqueta metadata-managed-mode. De esta forma, el esquema no cambia cuando se ejecute el siguiente análisis de descubrimiento. Este enfoque puede ser útil en situaciones en las que el esquema inferido por el análisis de descubrimiento sea incorrecto o diferente de lo que se espera de una tabla determinada. Si la etiqueta metadata-managed-mode se define como user_managed, se puede reducir el coste.

Para actualizar la etiqueta, puedes editar el valor de la clave de la etiqueta metadata-managed-mode a user_managed en lugar de discovery-managed. En este caso, el análisis de descubrimiento no actualiza el esquema de la tabla mientras la etiqueta user_managed esté asociada a la tabla.

Actualizar tablas de BigLake publicadas

En el caso de las tablas de BigLake publicadas mediante trabajos de análisis de descubrimiento con la configuración predeterminada, el esquema y otros metadatos se actualizan automáticamente con cada ejecución del trabajo de análisis de descubrimiento a la frecuencia programada.

Para actualizar una tabla BigLake publicada, sigue estos pasos:

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. Actualizar una o varias propiedades de la tabla

  3. En el panel Explorador, expande tu proyecto y tu conjunto de datos, y selecciona la tabla.

  4. En la pestaña Detalles, en la sección Etiquetas, comprueba que la etiqueta metadata-managed-mode tenga el valor user_managed. Si tiene otro valor, siga estos pasos:

    1. Haz clic en Editar detalles.

    2. Junto a la clave metadata-managed-mode, en el campo value (valor), introduce user_managed.

Eliminar tablas de BigLake publicadas

Para eliminar una tabla de BigLake publicada, sigue estos pasos:

  1. Elimina los archivos de datos de la tabla del segmento de Cloud Storage.

  2. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  3. En el panel Explorador, expande tu proyecto y tu conjunto de datos, y selecciona la tabla.

  4. En el panel Detalles, en la sección Etiquetas, comprueba que la etiqueta metadata-managed-mode no esté definida como user_managed. Si está configurado como user_managed, sigue estos pasos:

    1. Haz clic en Editar detalles .

    2. Junto a la clave metadata-managed-mode, en el campo value (valor), introduce discovery-managed.

  5. Haz clic en Ejecutar. El análisis de detección se ejecuta bajo demanda.

Una vez que se ejecuta el análisis de descubrimiento, la tabla de BigLake se elimina en BigQuery y no se puede enumerar ni consultar mediante Spark.

Ejecutar un análisis de descubrimiento bajo demanda

Para ejecutar un análisis de detección bajo demanda, selecciona una de las siguientes opciones.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, haz clic en el análisis de detección que quieras ejecutar.

  4. Haz clic en Ejecutar ahora.

gcloud

Para ejecutar un análisis de descubrimiento, usa el comando gcloud dataplex datascans run:

gcloud dataplex datascans run DATASCAN \
  --location=LOCATION

Sustituye las siguientes variables:

  • LOCATION: la región en la que se creó el análisis de descubrimiento. Google Cloud
  • DATASCAN: el nombre del análisis de descubrimiento.

REST

Para ejecutar un análisis de descubrimiento bajo demanda, usa el método dataScans.run de la API de Dataplex.

Mostrar análisis de descubrimiento

Para ver la lista de análisis de detección, selecciona una de las siguientes opciones.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, se muestran las detecciones creadas en el proyecto.

gcloud

gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID

Haz los cambios siguientes:

  • LOCATION: la ubicación de tu proyecto
  • PROJECT_ID: tu ID de proyecto Google Cloud

REST

Para obtener la lista de análisis de descubrimiento de tu proyecto, usa el método dataScans.list de la API Dataplex.

Ver un análisis de descubrimiento

Para ver una búsqueda de detección, selecciona una de las siguientes opciones.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, haz clic en la detección que quieras consultar.

    • En la sección Detalles del análisis se muestran los detalles del análisis de detección.
    • En la sección Estado del análisis se muestran los resultados de detección del último trabajo de análisis.

gcloud

gcloud dataplex datascans jobs describe JOB \
    --location=LOCATION \
    --datascan=DATASCAN \
    --view=FULL

Haz los cambios siguientes:

  • JOB: el ID del trabajo de análisis de descubrimiento.
  • LOCATION: la región en la que se creó el análisis de descubrimiento. Google Cloud
  • DATASCAN: el nombre del análisis de descubrimiento al que pertenece el trabajo.
  • --view=FULL: consulta el resultado del trabajo de análisis de descubrimiento.

REST

Para ver los resultados de un análisis de detección de datos, usa el método dataScans.get de la API Dataplex.

Ver el historial de resultados de análisis de detección

Para ver los resultados históricos de las búsquedas de detección, selecciona una de las siguientes opciones.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, haz clic en la detección que quieras consultar.

  4. Haz clic en el panel Historial de análisis. El panel Historial de análisis proporciona información sobre los trabajos anteriores, incluido el número de registros analizados en cada trabajo, el estado de cada trabajo y la hora en que se ejecutaron.

  5. Para ver información detallada sobre un trabajo, haz clic en él en la columna ID de trabajo.

gcloud

gcloud dataplex datascans jobs list \
    --location=LOCATION \
    --datascan=DATASCAN

Haz los cambios siguientes:

  • LOCATION: la región en la que se creó el análisis de descubrimiento. Google Cloud
  • DATASCAN: el nombre del análisis de descubrimiento al que pertenece el trabajo.

REST

Para ver todos los trabajos de un análisis de descubrimiento, usa el método dataScans.job/list de la API de Dataplex.

Actualizar un análisis de descubrimiento

Para cambiar la programación de un análisis de descubrimiento (por ejemplo, de análisis bajo demanda a análisis periódico), actualiza el análisis de descubrimiento.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, haga clic en Acciones > Editar en la detección que quiera actualizar.

  4. Edita los valores.

  5. Haz clic en Guardar.

gcloud

Para actualizar un análisis de descubrimiento, usa el comando gcloud dataplex datascans update data-discovery.

gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION

Haz los cambios siguientes:

  • SCAN_ID: el ID del análisis de descubrimiento que quieras actualizar
  • LOCATION: la región en la que se creó el análisis de descubrimiento Google Cloud
  • DESCRIPTION: la nueva descripción del análisis de descubrimiento

REST

Para actualizar un análisis de descubrimiento, usa el método dataScans.patch de la API Dataplex.

Eliminar un análisis de descubrimiento

Para eliminar un análisis de detección, seleccione una de las siguientes opciones.

Consola

  1. En la Google Cloud consola, ve a la página BigQuery.

    Ir a BigQuery

  2. En el menú de navegación, haga clic en Gobernanza > Curación de metadatos.

  3. En el panel Detección de Cloud Storage, haga clic en Acciones > Eliminar en la detección que quiera eliminar.

  4. Haz clic en Eliminar.

gcloud

gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async

Haz los cambios siguientes:

  • SCAN_ID: el ID del análisis de descubrimiento que quieras eliminar.
  • LOCATION: la región en la que se creó el análisis de descubrimiento. Google Cloud

REST

Para eliminar un análisis de descubrimiento, usa el método dataScans.delete de la API de Dataplex.