Trova e cataloga i dati di Cloud Storage

Questo documento spiega come utilizzare il rilevamento automatico di Dataplex Universal Catalog, una funzionalità di BigQuery che consente di analizzare i dati nei bucket Cloud Storage per estrarre e catalogare i metadati. Nell'ambito della scansione di rilevamento, il rilevamento automatico crea tabelle BigLake o esterne per dati strutturati e tabelle degli oggetti per dati non strutturati. Questi dati tabellari centralizzati semplificano gli approfondimenti sui dati basati sull'AI, la sicurezza dei dati e la governance.

Per utilizzare il rilevamento automatico dei dati di Cloud Storage, crea ed esegui una scansione di rilevamento.

Panoramica della scansione di rilevamento

Una scansione di rilevamento esegue le seguenti operazioni:

  • Scansiona i dati nel bucket o nel percorso Cloud Storage.
  • Raggruppa i dati strutturati e semistrutturati in tabelle.
  • Raccoglie i metadati, come il nome della tabella, lo schema e la definizione della partizione.
  • Crea e aggiorna tabelle BigLake, esterne o di oggetti in BigQuery utilizzando lo schema e la definizione di partizione.

Per i dati non strutturati, come immagini e video, la scansione di rilevamento rileva e registra gruppi di file che condividono lo stesso tipo di media delle tabelle di oggetti BigLake. Ad esempio, se gs://images/group1 contiene immagini GIF e gs://images/group2 contiene immagini JPEG, la scansione di rilevamento rileva e registra due fileset.

Per i dati strutturati, come Avro, la scansione di rilevamento registra gruppi di file come tabelle esterne BigLake e rileva i file solo se si trovano in cartelle che contengono lo stesso formato di dati e uno schema compatibile.

La scansione di rilevamento supporta i seguenti formati di dati strutturati e semistrutturati:

La scansione di rilevamento supporta i seguenti formati di compressione per dati strutturati e semistrutturati:

  • Compressione interna per i seguenti formati:

    Compressione Esempio di estensione del file Formato supportato
    gzip .gz.parquet Parquet
    lz4 .lz4.parquet Parquet
    Snappy .snappy.parquet Parquet, ORC, Avro
    lzo .lzo.parquet Parquet, ORC
  • Compressione esterna per file JSON e CSV:

    • gzip
    • bzip2

Per visualizzare il limite del numero di tabelle supportate da una scansione di rilevamento, consulta Quote e limiti.

Le tabelle rilevate vengono registrate in BigQuery come tabelle esterne BigLake, tabelle di oggetti BigLake o tabelle esterne. In questo modo, i dati sono disponibili per l'analisi in BigQuery. Viene abilitata anche la memorizzazione nella cache dei metadati per le tabelle BigLake e le tabelle degli oggetti. Tutte le tabelle BigLake vengono inserite automaticamente nel catalogo universale Dataplex per la ricerca e l'individuazione.

Prima di iniziare

Enable the Dataplex API.

Enable the API

Ruoli richiesti per il account di servizio Dataplex Universal Catalog

Prima di iniziare, assegna le autorizzazioni IAM all'account di servizio Dataplex Universal Catalog nel tuo progetto.

  service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
  

Sostituisci PROJECT_NUMBER con il progetto in cui è abilitata l'API Dataplex.

Per assicurarti che il account di servizio Dataplex disponga delle autorizzazioni necessarie per creare ed eseguire una scansione di rilevamento, chiedi all'amministratore di concedere al account di servizio Dataplex i seguenti ruoli IAM:

Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.

Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare ed eseguire una scansione di rilevamento. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:

Autorizzazioni obbligatorie

Per creare ed eseguire una scansione di rilevamento sono necessarie le seguenti autorizzazioni:

  • bigquery.datasets.create sul progetto origine dati
  • storage.buckets.get nel bucket dell'origine dati
  • storage.objects.get nel bucket dell'origine dati
  • storage.objects.list nel bucket dell'origine dati
  • bigquery.datasets.get sul progetto origine dati
  • Fornisci una connessione:
    • bigquery.connections.delegate nella connessione BigQuery
    • bigquery.connections.use nella connessione BigQuery

Il tuo amministratore potrebbe anche essere in grado di concedere al account di servizio Dataplex queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.

Ruoli richiesti per il account di servizio di connessione BigQuery

Per assicurarti che il service account BigQuery Connection disponga delle autorizzazioni necessarie per creare una scansione di rilevamento, chiedi all'amministratore di concedere al service account BigQuery Connection il ruolo IAM Agente di servizio Dataplex Discovery (roles/dataplex.discoveryServiceAgent) nel bucket Cloud Storage.

Per ulteriori informazioni sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.

Questo ruolo predefinito contiene le autorizzazioni necessarie per creare una scansione di rilevamento. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:

Autorizzazioni obbligatorie

Per creare una scansione di rilevamento sono necessarie le seguenti autorizzazioni:

  • bigquery.datasets.create sul progetto origine dati
  • storage.buckets.get nel bucket dell'origine dati
  • storage.objects.get nel bucket dell'origine dati
  • storage.objects.list nel bucket dell'origine dati
  • bigquery.datasets.get sul progetto origine dati
  • Fornisci una connessione:
    • bigquery.connections.delegate nella connessione BigQuery
    • bigquery.connections.use nella connessione BigQuery

Il tuo amministratore potrebbe anche essere in grado di concedere all'account di servizio BigQuery Connection queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.

Ruoli richiesti per gli utenti finali

Per ottenere le autorizzazioni necessarie per creare e gestire le analisi di rilevamento dei dati, chiedi all'amministratore di concederti i seguenti ruoli IAM nel bucket Cloud Storage:

  • Accesso completo alle risorse DataScan: Amministratore Dataplex DataScan (roles/dataplex.dataScanAdmin) - il tuo progetto
  • Accesso in scrittura alle risorse DataScan: Editor Dataplex DataScan (roles/dataplex.dataScanEditor) - il tuo progetto
  • Accesso in lettura alle risorse DataScan, esclusi i risultati: Dataplex DataScan Viewer (roles/dataplex.dataScanViewer) - il tuo progetto
  • Accesso in lettura alle risorse DataScan, inclusi i risultati: Dataplex DataScan DataViewer (roles/dataplex.dataScanDataViewer) - il tuo progetto

Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.

Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare e gestire le scansioni di rilevamento dei dati. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:

Autorizzazioni obbligatorie

Per creare e gestire le analisi di rilevamento dei dati sono necessarie le seguenti autorizzazioni:

  • Crea una scansione dei dati: dataplex.datascans.create sul tuo progetto
  • Elimina una scansione DataScan: dataplex.datascans.delete nel tuo progetto o in una risorsa DataScan
  • Visualizza i dettagli di DataScan esclusi i risultati: dataplex.datascans.get sul proiettore una risorsa DataScan
  • Visualizza i dettagli di DataScan, inclusi i risultati: dataplex.datascans.getData sul tuo progetto o su una risorsa DataScan
  • Elenca DataScan: dataplex.datascans.list sul tuo progetto o su una risorsa DataScan
  • Esegui una scansione DataScan: dataplex.datascans.run sul tuo progetto o su una risorsa DataScan
  • Aggiorna la descrizione di un DataScan: dataplex.datascans.update sulla risorsa DataScan del proiettore
  • Visualizza le autorizzazioni IAM di DataScan: dataplex.datascans.getIamPolicy sul tuo progetto o su una risorsa DataScan
  • Imposta le autorizzazioni IAM su DataScan: dataplex.datascans.setIamPolicy sul tuo progetto o su una risorsa DataScan

Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.

Creare una scansione di rilevamento

Per rilevare i dati, devi creare ed eseguire una scansione di rilevamento. Puoi impostare una pianificazione per la scansione o eseguirla on demand.

Quando viene eseguita la scansione di rilevamento, viene creato un nuovo set di dati in BigQuery che corrisponde al bucket Cloud Storage scansionato. Il nome del set di dati BigQuery è lo stesso del nome del bucket Cloud Storage. I caratteri non validi nel nome del bucket vengono sostituiti da un trattino basso. Se il nome del set di dati non è disponibile, viene aggiunto un suffisso (ad esempio, _discovered_001). Il set di dati contiene le tabelle esterne BigLake o non BigLake create dalla scansione di rilevamento per ulteriori analisi.

Console

  1. Nella console Google Cloud , vai alla pagina Cura dei metadati.

    Vai a Selezione dei metadati

  2. Nella scheda Rilevamento di Cloud Storage, fai clic su Crea.

  3. Nel riquadro Crea scansione di rilevamento, configura i dettagli sui dati da scansionare.

  4. Inserisci un nome per la scansione.

  5. Nel campo ID scansione, inserisci un ID univoco che rispetti le convenzioni di denominazione delle risorse in Google Cloud. Se non fornisci un ID, la scansione di rilevamento genera l'ID scansione.

  6. (Facoltativo) Fornisci una descrizione della scansione.

  7. Per specificare il bucket Cloud Storage contenente i file da scansionare, nel campo Bucket, individua e seleziona il bucket.

  8. (Facoltativo) Definisci i dati da includere o escludere dalla scansione di rilevamento fornendo un elenco di pattern glob per il filtro dei file.

    • Includi: se deve essere analizzato solo un sottoinsieme dei dati, fornisci un elenco di pattern glob che corrispondono agli oggetti da includere.
    • Escludi: fornisci un elenco di pattern glob che corrispondono agli oggetti da escludere.

    Ad esempio, se vuoi escludere gs://test_bucket/foo/.. dalla scansione di rilevamento, inserisci **/foo/** come percorso di esclusione. Le virgolette causano errori. Assicurati di inserire **/foo/** anziché "**/foo/**".

    Se fornisci sia pattern di inclusione che di esclusione, questi ultimi vengono applicati per primi.

  9. (Facoltativo) In Progetto, seleziona il progetto del set di dati BigQuery che contiene le tabelle esterne BigLake o non BigLake create dalla scansione di rilevamento. Se non viene fornito, il set di dati viene creato nel progetto contenente il bucket Cloud Storage.

  10. In Tipo di località, seleziona Regione o Più regioni (a seconda di quale è disponibile) in cui viene creato il set di dati di pubblicazione BigQuery.

  11. Per creare tabelle BigLake dai dati scansionati, nel campo ID connessione, fornisci l'ID connessione risorsa Google Cloud . Per ulteriori informazioni, vedi Google Cloud Connessioni alle risorse in BigQuery.

    Puoi creare un nuovo ID connessione nella stessa posizione del set di dati BigQuery, che è compatibile con la posizione del bucket Cloud Storage.

    Se non fornisci un ID connessione risorsa, la scansione di rilevamento crea tabelle esterne non BigLake.

  12. Nella sezione Frequenza di rilevamento, configura quando vuoi che venga eseguita la scansione di rilevamento:

    • Ripeti: la scansione viene eseguita in base a una pianificazione predefinita. Fornisci l'ora di inizio, i giorni in cui eseguire la scansione e la frequenza, ad esempio oraria.

    • On demand: la scansione viene eseguita su richiesta.

  13. (Facoltativo) Nella sezione Specifiche JSON o CSV, specifica come la scansione deve elaborare i file JSON e CSV. Fai clic su Specifiche JSON o CSV.

    1. Per configurare le opzioni JSON, seleziona Abilita opzioni di analisi JSON.
      • Disabilita inferenza dei tipi: indica se la scansione di rilevamento deve dedurre i tipi di dati durante la scansione dei dati. Se disattivi l'inferenza del tipo per i dati JSON, tutte le colonne vengono registrate come tipi primitivi, ad esempio stringa, numero o booleano.
      • Formato di codifica: la codifica dei caratteri dei dati, ad esempio UTF-8, US-ASCII o ISO-8859-1. Se non specifichi un valore, viene utilizzato UTF-8 come valore predefinito.
    2. Per configurare le opzioni CSV, seleziona Abilita opzioni di analisi CSV.
      • Disabilita inferenza dei tipi: indica se la scansione di rilevamento deve dedurre i tipi di dati durante la scansione dei dati. Se disattivi l'inferenza del tipo per i dati CSV, tutte le colonne vengono registrate come stringhe.
      • Righe di intestazione: il numero di righe di intestazione, 0 o 1. Se specifichi il valore 0, la scansione di rilevamento deduce le intestazioni ed estrae i nomi delle colonne dal file. Il valore predefinito è 0.
      • Carattere delimitatore di colonna: il carattere utilizzato per separare i valori. Fornisci un singolo carattere, \r (ritorno a capo) o \n (nuova riga). Il valore predefinito è una virgola (,).
      • Formato di codifica: la codifica dei caratteri dei dati, ad esempio UTF-8, US-ASCII o ISO-8859-1. Se non specifichi un valore, viene utilizzato UTF-8 come valore predefinito.
  14. Fai clic su Crea (per una scansione pianificata) o Esegui ora (per una scansione on demand).

    Una scansione pianificata viene eseguita in base alla pianificazione impostata.

    Una scansione on demand viene eseguita una sola volta al momento della creazione e puoi eseguirla in qualsiasi momento. L'esecuzione della scansione di rilevamento può richiedere diversi minuti.

gcloud

Per creare una scansione di rilevamento, utilizza il comando gcloud dataplex datascans create data-discovery.

gcloud dataplex datascans create data-discovery --location=LOCATION
--data-source-resource=BUCKET_PATH

Sostituisci quanto segue:

  • LOCATION: la località in cui vuoi creare la scansione di rilevamento
  • BUCKET_PATH: il percorso Cloud Storage del bucket che vuoi analizzare

REST

Per creare una scansione di rilevamento, utilizza il metodo dataScans.create.

Esegui query sulle tabelle BigLake pubblicate

Dopo aver eseguito la scansione di rilevamento, le tabelle BigLake vengono pubblicate in un nuovo set di dati in BigQuery. Le tabelle sono poi disponibili per l'analisi in BigQuery utilizzando SQL o in Dataproc utilizzando Apache Spark o HiveQL.

SQL

Puoi visualizzare o interrogare le tabelle in BigQuery. Per saperne di più su come eseguire query in BigQuery, consulta Eseguire una query.

Apache Spark

Per eseguire query sulle tabelle BigLake utilizzando Spark SQL in un job Dataproc Serverless:

  1. Crea uno script PySpark simile al seguente script di esempio:

    from pyspark.sql import SparkSession
    session = (
      SparkSession.builder.appName("testing")
        .config("viewsEnabled","true")
        .config("materializationDataset", "DATASET_ID")
        .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID")
        .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory")
        .enableHiveSupport()
        .getOrCreate()
    )
    
    session.sql("show databases").show()
    session.sql("use TABLE_NAME").show()
    session.sql("show tables").show()
    
    sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10"
    df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql)
    df.show()

    Sostituisci quanto segue:

    • DATASET_ID: ID del set di dati per il quale gli utenti dispongono dell'autorizzazione di creazione
    • PROJECT_ID: ID del progetto con la tabella BigLake
    • TABLE_NAME: Nome della tabella BigLake
    • TABLE_ID: ID della tabella BigLake
  2. Invia il job batch.

Gestire le tabelle BigLake pubblicate

Le tabelle BigLake pubblicate vengono create e gestite in BigQuery dalla scansione di rilevamento. Per impostazione predefinita, la scansione di rilevamento gestisce il rilevamento di nuovi dati, le inferenze dello schema e l'evoluzione dello schema ogni volta che vengono eseguite le scansioni pianificate o on demand. Per indicare che i metadati sono gestiti dall'analisi, quest'ultima pubblica le tabelle con l'etichetta metadata-managed-mode impostata su discovery-managed.

Se vuoi gestire lo schema e altri metadati come le opzioni CSV o JSON in autonomia, imposta l'etichetta metadata-managed-mode su user_managed. In questo modo, lo schema rimane invariato quando viene eseguita la successiva scansione del rilevamento. Questo approccio può essere utile negli scenari in cui lo schema dedotto dalla scansione di rilevamento è errato o diverso da quello previsto per una determinata tabella. Quando l'etichetta metadata-managed-mode è impostata su user_managed, può ridurre il costo.

Per aggiornare l'etichetta, puoi modificare il valore della chiave dell'etichetta metadata-managed-mode in user_managed anziché discovery-managed. In questo caso, la scansione di rilevamento non aggiorna lo schema della tabella finché l'etichetta user_managed è associata alla tabella.

Aggiornare le tabelle BigLake pubblicate

Per le tabelle BigLake pubblicate utilizzando i job di scansione di rilevamento con la configurazione predefinita, lo schema e altri metadati vengono aggiornati automaticamente a ogni esecuzione del job di scansione di rilevamento alla frequenza pianificata.

Per aggiornare una tabella BigLake pubblicata:

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Aggiorna una o più proprietà della tabella.

  3. Nel riquadro Explorer, espandi il progetto e il set di dati, quindi seleziona la tabella.

  4. Nella scheda Dettagli, nella sezione Etichette, assicurati che l'etichetta metadata-managed-mode sia impostata su user_managed. Se è impostato su un valore diverso, segui questi passaggi:

    1. Fai clic su Modifica dettagli.

    2. Accanto alla chiave metadata-managed-mode, nel campo value, inserisci user_managed.

Eliminare le tabelle BigLake pubblicate

Per eliminare una tabella BigLake pubblicata:

  1. Elimina i file di dati per la tabella nel bucket Cloud Storage.

  2. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  3. Nel riquadro Explorer, espandi il progetto e il set di dati, quindi seleziona la tabella.

  4. Nel riquadro Dettagli, nella sezione Etichette, assicurati che l'etichetta metadata-managed-mode non sia impostata su user_managed. Se è impostato su user_managed, segui questi passaggi:

    1. Fai clic su Modifica dettagli .

    2. Accanto alla chiave metadata-managed-mode, nel campo value, inserisci discovery-managed.

  5. Fai clic su Esegui. La scansione di rilevamento viene eseguita on demand.

Dopo l'esecuzione della scansione di rilevamento, la tabella BigLake viene eliminata in BigQuery e non è disponibile per l'elenco o le query tramite Spark.

Eseguire una scansione di rilevamento on demand

Per eseguire una scansione di rilevamento on demand, seleziona una delle seguenti opzioni.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento Cloud Storage, fai clic sulla scansione di rilevamento che vuoi eseguire.

  4. Fai clic su Esegui ora.

gcloud

Per eseguire una scansione di rilevamento, utilizza il comando gcloud dataplex datascans run:

gcloud dataplex datascans run DATASCAN \
  --location=LOCATION

Sostituisci le seguenti variabili:

  • LOCATION: la Google Cloud regione in cui è stata creata la scansione di rilevamento.
  • DATASCAN: il nome della scansione di rilevamento.

REST

Per eseguire una scansione di rilevamento on demand, utilizza il metodo dataScans.run nell'API Dataplex.

Elenco scansioni di rilevamento

Per elencare le scansioni di rilevamento, seleziona una delle seguenti opzioni.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento di Cloud Storage, sono elencate le scansioni di rilevamento create nel progetto.

gcloud

gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID

Sostituisci quanto segue:

  • LOCATION: la posizione del progetto
  • PROJECT_ID: il tuo ID progetto Google Cloud

REST

Per recuperare l'elenco delle scansioni di rilevamento nel tuo progetto, utilizza il metodo dataScans.list nell'API Dataplex Universal Catalog.

Visualizzare una scansione di rilevamento

Per visualizzare una scansione di rilevamento, seleziona una delle seguenti opzioni.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento di Cloud Storage, fai clic sulla scansione di rilevamento di cui vuoi visualizzare i dettagli.

    • La sezione Dettagli scansione mostra i dettagli della scansione di rilevamento.
    • La sezione Stato scansione mostra i risultati del rilevamento dell'ultimo job di scansione.

gcloud

gcloud dataplex datascans jobs describe JOB \
    --location=LOCATION \
    --datascan=DATASCAN \
    --view=FULL

Sostituisci quanto segue:

  • JOB: l'ID job del job di scansione di rilevamento.
  • LOCATION: la Google Cloud regione in cui è stata creata la scansione di rilevamento.
  • DATASCAN: il nome della scansione di rilevamento a cui appartiene il job.
  • --view=FULL: visualizza il risultato del job di scansione di rilevamento.

REST

Per visualizzare i risultati di una scansione di individuazione dei dati, utilizza il metodo dataScans.get nell'API Dataplex Universal Catalog.

Visualizzare i risultati storici della scansione di rilevamento

Per visualizzare i risultati storici della scansione di rilevamento, seleziona una delle seguenti opzioni.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento di Cloud Storage, fai clic sulla scansione di rilevamento di cui vuoi visualizzare i dettagli.

  4. Fai clic sul riquadro Cronologia scansioni. Il riquadro Cronologia scansioni fornisce informazioni sui job precedenti, tra cui il numero di record scansionati in ogni job, lo stato di ogni job e l'ora in cui sono stati eseguiti.

  5. Per visualizzare informazioni dettagliate su un job, fai clic sul job nella colonna ID job.

gcloud

gcloud dataplex datascans jobs list \
    --location=LOCATION \
    --datascan=DATASCAN

Sostituisci quanto segue:

  • LOCATION: la Google Cloud regione in cui è stata creata la scansione di rilevamento.
  • DATASCAN: il nome della scansione di rilevamento a cui appartiene il job.

REST

Per visualizzare tutti i job di una scansione di rilevamento, utilizza il metodo dataScans.job/list nell'API Dataplex Universal Catalog.

Aggiornamento di una scansione di rilevamento

Per modificare la pianificazione di una scansione di rilevamento, ad esempio per passare da una pianificazione on demand a una ricorrente, aggiorna la scansione di rilevamento.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento di Cloud Storage, per la scansione di rilevamento da aggiornare, fai clic su Azioni > Modifica.

  4. Modifica i valori.

  5. Fai clic su Salva.

gcloud

Per aggiornare una scansione di rilevamento, utilizza il comando gcloud dataplex datascans update data-discovery.

gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION

Sostituisci quanto segue:

  • SCAN_ID: l'ID della scansione di rilevamento che vuoi aggiornare
  • LOCATION: la regione Google Cloud in cui è stata creata la scansione di rilevamento
  • DESCRIPTION: la nuova descrizione della scansione di rilevamento

REST

Per aggiornare una scansione di rilevamento, utilizza il metodo dataScans.patch nell'API Dataplex Universal Catalog.

Eliminare una scansione di rilevamento

Per eliminare una scansione di rilevamento, seleziona una delle seguenti opzioni.

Console

  1. Nella console Google Cloud , vai alla pagina BigQuery.

    Vai a BigQuery

  2. Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.

  3. Nel riquadro Rilevamento di Cloud Storage, per la scansione di rilevamento da eliminare, fai clic su Azioni > Elimina.

  4. Fai clic su Elimina.

gcloud

gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async

Sostituisci quanto segue:

  • SCAN_ID: l'ID della scansione di rilevamento che vuoi eliminare.
  • LOCATION: la Google Cloud regione in cui è stata creata la scansione di rilevamento.

REST

Per eliminare una scansione di rilevamento, utilizza il metodo dataScans.delete nell'API Dataplex Universal Catalog.