Trova e cataloga i dati di Cloud Storage
Questo documento spiega come utilizzare il rilevamento automatico di Dataplex Universal Catalog, una funzionalità di BigQuery che consente di analizzare i dati nei bucket Cloud Storage per estrarre e catalogare i metadati. Nell'ambito della scansione di rilevamento, il rilevamento automatico crea tabelle BigLake o esterne per dati strutturati e tabelle degli oggetti per dati non strutturati. Questi dati tabellari centralizzati semplificano gli approfondimenti sui dati basati sull'AI, la sicurezza dei dati e la governance.
Per utilizzare il rilevamento automatico dei dati di Cloud Storage, crea ed esegui una scansione di rilevamento.
Panoramica della scansione di rilevamento
Una scansione di rilevamento esegue le seguenti operazioni:
- Scansiona i dati nel bucket o nel percorso Cloud Storage.
- Raggruppa i dati strutturati e semistrutturati in tabelle.
- Raccoglie i metadati, come il nome della tabella, lo schema e la definizione della partizione.
- Crea e aggiorna tabelle BigLake, esterne o di oggetti in BigQuery utilizzando lo schema e la definizione di partizione.
Per i dati non strutturati, come immagini e video, la scansione di rilevamento
rileva e registra gruppi di file che condividono lo stesso tipo di media delle
tabelle di oggetti BigLake. Ad esempio, se gs://images/group1
contiene immagini GIF e gs://images/group2
contiene immagini JPEG,
la scansione di rilevamento rileva e registra due fileset.
Per i dati strutturati, come Avro, la scansione di rilevamento registra gruppi di file come tabelle esterne BigLake e rileva i file solo se si trovano in cartelle che contengono lo stesso formato di dati e uno schema compatibile.
La scansione di rilevamento supporta i seguenti formati di dati strutturati e semistrutturati:
- Parquet
- Avro
- ORC
- JSON (solo il formato delimitato da nuova riga)
- CSV (ma non file CSV con righe di commento)
La scansione di rilevamento supporta i seguenti formati di compressione per dati strutturati e semistrutturati:
Compressione interna per i seguenti formati:
Compressione Esempio di estensione del file Formato supportato gzip .gz.parquet
Parquet lz4 .lz4.parquet
Parquet Snappy .snappy.parquet
Parquet, ORC, Avro lzo .lzo.parquet
Parquet, ORC Compressione esterna per file JSON e CSV:
- gzip
- bzip2
Per visualizzare il limite del numero di tabelle supportate da una scansione di rilevamento, consulta Quote e limiti.
Le tabelle rilevate vengono registrate in BigQuery come tabelle esterne BigLake, tabelle di oggetti BigLake o tabelle esterne. In questo modo, i dati sono disponibili per l'analisi in BigQuery. Viene abilitata anche la memorizzazione nella cache dei metadati per le tabelle BigLake e le tabelle degli oggetti. Tutte le tabelle BigLake vengono inserite automaticamente nel catalogo universale Dataplex per la ricerca e l'individuazione.
Prima di iniziare
Enable the Dataplex API.
Ruoli richiesti per il account di servizio Dataplex Universal Catalog
Prima di iniziare, assegna le autorizzazioni IAM all'account di servizio Dataplex Universal Catalog nel tuo progetto.
service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
Sostituisci PROJECT_NUMBER
con il progetto in cui è abilitata l'API Dataplex.
Per assicurarti che il account di servizio Dataplex disponga delle autorizzazioni necessarie per creare ed eseguire una scansione di rilevamento, chiedi all'amministratore di concedere al account di servizio Dataplex i seguenti ruoli IAM:
-
Agente di servizio Dataplex Discovery (
roles/dataplex.discoveryServiceAgent
) sul bucket di archiviazione -
Dataplex Discovery Publishing Service Agent (
roles/dataplex.discoveryPublishingServiceAgent
) sul progetto utente -
Crea tabelle BigLake:
Dataplex Discovery BigLake Publishing Service Agent (
roles/dataplex.discoveryBigLakePublishingServiceAgent
) nella connessione BigQuery
Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.
Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare ed eseguire una scansione di rilevamento. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:
Autorizzazioni obbligatorie
Per creare ed eseguire una scansione di rilevamento sono necessarie le seguenti autorizzazioni:
-
bigquery.datasets.create
sul progetto origine dati -
storage.buckets.get
nel bucket dell'origine dati -
storage.objects.get
nel bucket dell'origine dati -
storage.objects.list
nel bucket dell'origine dati -
bigquery.datasets.get
sul progetto origine dati -
Fornisci una connessione:
-
bigquery.connections.delegate
nella connessione BigQuery -
bigquery.connections.use
nella connessione BigQuery
-
Il tuo amministratore potrebbe anche essere in grado di concedere al account di servizio Dataplex queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Ruoli richiesti per il account di servizio di connessione BigQuery
Per assicurarti che il service account BigQuery Connection disponga delle autorizzazioni necessarie
per creare una scansione di rilevamento,
chiedi all'amministratore di concedere al service account BigQuery Connection il
ruolo IAM Agente di servizio Dataplex Discovery (roles/dataplex.discoveryServiceAgent
)
nel bucket Cloud Storage.
Questo ruolo predefinito contiene le autorizzazioni necessarie per creare una scansione di rilevamento. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:
Autorizzazioni obbligatorie
Per creare una scansione di rilevamento sono necessarie le seguenti autorizzazioni:
-
bigquery.datasets.create
sul progetto origine dati -
storage.buckets.get
nel bucket dell'origine dati -
storage.objects.get
nel bucket dell'origine dati -
storage.objects.list
nel bucket dell'origine dati -
bigquery.datasets.get
sul progetto origine dati -
Fornisci una connessione:
-
bigquery.connections.delegate
nella connessione BigQuery -
bigquery.connections.use
nella connessione BigQuery
-
Il tuo amministratore potrebbe anche essere in grado di concedere all'account di servizio BigQuery Connection queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Ruoli richiesti per gli utenti finali
Per ottenere le autorizzazioni necessarie per creare e gestire le analisi di rilevamento dei dati, chiedi all'amministratore di concederti i seguenti ruoli IAM nel bucket Cloud Storage:
-
Accesso completo alle risorse DataScan:
Amministratore Dataplex DataScan (
roles/dataplex.dataScanAdmin
) - il tuo progetto -
Accesso in scrittura alle risorse DataScan:
Editor Dataplex DataScan (
roles/dataplex.dataScanEditor
) - il tuo progetto -
Accesso in lettura alle risorse DataScan, esclusi i risultati:
Dataplex DataScan Viewer (
roles/dataplex.dataScanViewer
) - il tuo progetto -
Accesso in lettura alle risorse DataScan, inclusi i risultati:
Dataplex DataScan DataViewer (
roles/dataplex.dataScanDataViewer
) - il tuo progetto
Per saperne di più sulla concessione dei ruoli, consulta Gestisci l'accesso a progetti, cartelle e organizzazioni.
Questi ruoli predefiniti contengono le autorizzazioni necessarie per creare e gestire le scansioni di rilevamento dei dati. Per vedere quali sono esattamente le autorizzazioni richieste, espandi la sezione Autorizzazioni obbligatorie:
Autorizzazioni obbligatorie
Per creare e gestire le analisi di rilevamento dei dati sono necessarie le seguenti autorizzazioni:
-
Crea una scansione dei dati:
dataplex.datascans.create
sul tuo progetto -
Elimina una scansione DataScan:
dataplex.datascans.delete
nel tuo progetto o in una risorsa DataScan -
Visualizza i dettagli di DataScan esclusi i risultati:
dataplex.datascans.get
sul proiettore una risorsa DataScan -
Visualizza i dettagli di DataScan, inclusi i risultati:
dataplex.datascans.getData
sul tuo progetto o su una risorsa DataScan -
Elenca DataScan:
dataplex.datascans.list
sul tuo progetto o su una risorsa DataScan -
Esegui una scansione DataScan:
dataplex.datascans.run
sul tuo progetto o su una risorsa DataScan -
Aggiorna la descrizione di un DataScan:
dataplex.datascans.update
sulla risorsa DataScan del proiettore -
Visualizza le autorizzazioni IAM di DataScan:
dataplex.datascans.getIamPolicy
sul tuo progetto o su una risorsa DataScan -
Imposta le autorizzazioni IAM su DataScan:
dataplex.datascans.setIamPolicy
sul tuo progetto o su una risorsa DataScan
Potresti anche ottenere queste autorizzazioni con ruoli personalizzati o altri ruoli predefiniti.
Creare una scansione di rilevamento
Per rilevare i dati, devi creare ed eseguire una scansione di rilevamento. Puoi impostare una pianificazione per la scansione o eseguirla on demand.
Quando viene eseguita la scansione di rilevamento, viene creato un nuovo set di dati in BigQuery che corrisponde al bucket Cloud Storage scansionato. Il nome del set di dati BigQuery è
lo stesso del nome del bucket Cloud Storage. I caratteri non validi nel nome del bucket vengono sostituiti da un trattino basso. Se il nome del set di dati non è
disponibile, viene aggiunto un suffisso (ad esempio, _discovered_001
). Il
set di dati contiene le tabelle esterne BigLake o
non BigLake create dalla
scansione di rilevamento per ulteriori analisi.
Console
Nella console Google Cloud , vai alla pagina Cura dei metadati.
Nella scheda Rilevamento di Cloud Storage, fai clic su Crea.
Nel riquadro Crea scansione di rilevamento, configura i dettagli sui dati da scansionare.
Inserisci un nome per la scansione.
Nel campo ID scansione, inserisci un ID univoco che rispetti le convenzioni di denominazione delle risorse in Google Cloud. Se non fornisci un ID, la scansione di rilevamento genera l'ID scansione.
(Facoltativo) Fornisci una descrizione della scansione.
Per specificare il bucket Cloud Storage contenente i file da scansionare, nel campo Bucket, individua e seleziona il bucket.
(Facoltativo) Definisci i dati da includere o escludere dalla scansione di rilevamento fornendo un elenco di pattern glob per il filtro dei file.
- Includi: se deve essere analizzato solo un sottoinsieme dei dati, fornisci un elenco di pattern glob che corrispondono agli oggetti da includere.
- Escludi: fornisci un elenco di pattern glob che corrispondono agli oggetti da escludere.
Ad esempio, se vuoi escludere
gs://test_bucket/foo/..
dalla scansione di rilevamento, inserisci**/foo/**
come percorso di esclusione. Le virgolette causano errori. Assicurati di inserire**/foo/**
anziché"**/foo/**"
.Se fornisci sia pattern di inclusione che di esclusione, questi ultimi vengono applicati per primi.
(Facoltativo) In Progetto, seleziona il progetto del set di dati BigQuery che contiene le tabelle esterne BigLake o non BigLake create dalla scansione di rilevamento. Se non viene fornito, il set di dati viene creato nel progetto contenente il bucket Cloud Storage.
In Tipo di località, seleziona Regione o Più regioni (a seconda di quale è disponibile) in cui viene creato il set di dati di pubblicazione BigQuery.
Per creare tabelle BigLake dai dati scansionati, nel campo ID connessione, fornisci l'ID connessione risorsa Google Cloud . Per ulteriori informazioni, vedi Google Cloud Connessioni alle risorse in BigQuery.
Puoi creare un nuovo ID connessione nella stessa posizione del set di dati BigQuery, che è compatibile con la posizione del bucket Cloud Storage.
Se non fornisci un ID connessione risorsa, la scansione di rilevamento crea tabelle esterne non BigLake.
Nella sezione Frequenza di rilevamento, configura quando vuoi che venga eseguita la scansione di rilevamento:
Ripeti: la scansione viene eseguita in base a una pianificazione predefinita. Fornisci l'ora di inizio, i giorni in cui eseguire la scansione e la frequenza, ad esempio oraria.
On demand: la scansione viene eseguita su richiesta.
(Facoltativo) Nella sezione Specifiche JSON o CSV, specifica come la scansione deve elaborare i file JSON e CSV. Fai clic su Specifiche JSON o CSV.
- Per configurare le opzioni JSON, seleziona Abilita opzioni di analisi JSON.
- Disabilita inferenza dei tipi: indica se la scansione di rilevamento deve dedurre i tipi di dati durante la scansione dei dati. Se disattivi l'inferenza del tipo per i dati JSON, tutte le colonne vengono registrate come tipi primitivi, ad esempio stringa, numero o booleano.
- Formato di codifica: la codifica dei caratteri dei dati, ad esempio UTF-8, US-ASCII o ISO-8859-1. Se non specifichi un valore, viene utilizzato UTF-8 come valore predefinito.
- Per configurare le opzioni CSV, seleziona Abilita opzioni di analisi CSV.
- Disabilita inferenza dei tipi: indica se la scansione di rilevamento deve dedurre i tipi di dati durante la scansione dei dati. Se disattivi l'inferenza del tipo per i dati CSV, tutte le colonne vengono registrate come stringhe.
- Righe di intestazione: il numero di righe di intestazione,
0
o1
. Se specifichi il valore0
, la scansione di rilevamento deduce le intestazioni ed estrae i nomi delle colonne dal file. Il valore predefinito è0
. - Carattere delimitatore di colonna: il carattere utilizzato per
separare i valori. Fornisci un singolo carattere,
\r
(ritorno a capo) o\n
(nuova riga). Il valore predefinito è una virgola (,
). - Formato di codifica: la codifica dei caratteri dei dati, ad esempio
UTF-8
,US-ASCII
oISO-8859-1
. Se non specifichi un valore, viene utilizzato UTF-8 come valore predefinito.
- Per configurare le opzioni JSON, seleziona Abilita opzioni di analisi JSON.
Fai clic su Crea (per una scansione pianificata) o Esegui ora (per una scansione on demand).
Una scansione pianificata viene eseguita in base alla pianificazione impostata.
Una scansione on demand viene eseguita una sola volta al momento della creazione e puoi eseguirla in qualsiasi momento. L'esecuzione della scansione di rilevamento può richiedere diversi minuti.
gcloud
Per creare una scansione di rilevamento, utilizza il comando gcloud dataplex datascans create data-discovery
.
gcloud dataplex datascans create data-discovery --location=LOCATION --data-source-resource=BUCKET_PATH
Sostituisci quanto segue:
LOCATION
: la località in cui vuoi creare la scansione di rilevamentoBUCKET_PATH
: il percorso Cloud Storage del bucket che vuoi analizzare
REST
Per creare una scansione di rilevamento, utilizza il metodo dataScans.create
.
Esegui query sulle tabelle BigLake pubblicate
Dopo aver eseguito la scansione di rilevamento, le tabelle BigLake vengono pubblicate in un nuovo set di dati in BigQuery. Le tabelle sono poi disponibili per l'analisi in BigQuery utilizzando SQL o in Dataproc utilizzando Apache Spark o HiveQL.
SQL
Puoi visualizzare o interrogare le tabelle in BigQuery. Per saperne di più su come eseguire query in BigQuery, consulta Eseguire una query.
Apache Spark
Per eseguire query sulle tabelle BigLake utilizzando Spark SQL in un job Dataproc Serverless:
Crea uno script PySpark simile al seguente script di esempio:
from pyspark.sql import SparkSession session = ( SparkSession.builder.appName("testing") .config("viewsEnabled","true") .config("materializationDataset", "DATASET_ID") .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID") .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory") .enableHiveSupport() .getOrCreate() ) session.sql("show databases").show() session.sql("use TABLE_NAME").show() session.sql("show tables").show() sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10" df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql) df.show()
Sostituisci quanto segue:
DATASET_ID
: ID del set di dati per il quale gli utenti dispongono dell'autorizzazione di creazionePROJECT_ID
: ID del progetto con la tabella BigLakeTABLE_NAME
: Nome della tabella BigLakeTABLE_ID
: ID della tabella BigLake
Gestire le tabelle BigLake pubblicate
Le tabelle BigLake pubblicate vengono create e gestite in
BigQuery dalla scansione di rilevamento. Per impostazione predefinita, la scansione di rilevamento
gestisce il rilevamento di nuovi dati, le inferenze dello schema e l'evoluzione dello schema ogni volta
che vengono eseguite le scansioni pianificate o on demand. Per indicare che i metadati sono gestiti
dall'analisi, quest'ultima pubblica le tabelle con l'etichetta metadata-managed-mode
impostata su discovery-managed
.
Se vuoi gestire lo schema e altri metadati come le opzioni CSV o JSON
in autonomia, imposta l'etichetta metadata-managed-mode
su user_managed
. In questo modo, lo schema rimane invariato quando viene eseguita la successiva scansione del rilevamento. Questo approccio può
essere utile negli scenari in cui lo schema dedotto dalla scansione di rilevamento è
errato o diverso da quello previsto per una determinata tabella. Quando l'etichetta
metadata-managed-mode
è impostata su user_managed
, può ridurre il costo.
Per aggiornare l'etichetta, puoi modificare il valore della chiave dell'etichetta
metadata-managed-mode
in user_managed
anziché discovery-managed
. In
questo caso, la scansione di rilevamento non aggiorna lo schema della tabella finché
l'etichetta user_managed
è associata alla tabella.
Aggiornare le tabelle BigLake pubblicate
Per le tabelle BigLake pubblicate utilizzando i job di scansione di rilevamento con la configurazione predefinita, lo schema e altri metadati vengono aggiornati automaticamente a ogni esecuzione del job di scansione di rilevamento alla frequenza pianificata.
Per aggiornare una tabella BigLake pubblicata:
Nella console Google Cloud , vai alla pagina BigQuery.
Nel riquadro Explorer, espandi il progetto e il set di dati, quindi seleziona la tabella.
Nella scheda Dettagli, nella sezione Etichette, assicurati che l'etichetta metadata-managed-mode sia impostata su user_managed. Se è impostato su un valore diverso, segui questi passaggi:
Fai clic su
Modifica dettagli.Accanto alla chiave metadata-managed-mode, nel campo value, inserisci
user_managed
.
Eliminare le tabelle BigLake pubblicate
Per eliminare una tabella BigLake pubblicata:
Elimina i file di dati per la tabella nel bucket Cloud Storage.
Nella console Google Cloud , vai alla pagina BigQuery.
Nel riquadro Explorer, espandi il progetto e il set di dati, quindi seleziona la tabella.
Nel riquadro Dettagli, nella sezione Etichette, assicurati che l'etichetta metadata-managed-mode non sia impostata su
user_managed
. Se è impostato suuser_managed
, segui questi passaggi:Fai clic su Modifica dettagli
.Accanto alla chiave metadata-managed-mode, nel campo value, inserisci
discovery-managed
.
Fai clic su Esegui. La scansione di rilevamento viene eseguita on demand.
Dopo l'esecuzione della scansione di rilevamento, la tabella BigLake viene eliminata in BigQuery e non è disponibile per l'elenco o le query tramite Spark.
Eseguire una scansione di rilevamento on demand
Per eseguire una scansione di rilevamento on demand, seleziona una delle seguenti opzioni.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento Cloud Storage, fai clic sulla scansione di rilevamento che vuoi eseguire.
Fai clic su Esegui ora.
gcloud
Per eseguire una scansione di rilevamento, utilizza il
comando gcloud dataplex datascans run
:
gcloud dataplex datascans runDATASCAN
\ --location=LOCATION
Sostituisci le seguenti variabili:
LOCATION
: la Google Cloud regione in cui è stata creata la scansione di rilevamento.DATASCAN
: il nome della scansione di rilevamento.
REST
Per eseguire una scansione di rilevamento on demand, utilizza il
metodo dataScans.run
nell'API Dataplex.
Elenco scansioni di rilevamento
Per elencare le scansioni di rilevamento, seleziona una delle seguenti opzioni.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento di Cloud Storage, sono elencate le scansioni di rilevamento create nel progetto.
gcloud
gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID
Sostituisci quanto segue:
LOCATION
: la posizione del progettoPROJECT_ID
: il tuo ID progetto Google Cloud
REST
Per recuperare l'elenco delle scansioni di rilevamento nel tuo progetto, utilizza il
metodo dataScans.list
nell'API Dataplex Universal Catalog.
Visualizzare una scansione di rilevamento
Per visualizzare una scansione di rilevamento, seleziona una delle seguenti opzioni.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento di Cloud Storage, fai clic sulla scansione di rilevamento di cui vuoi visualizzare i dettagli.
- La sezione Dettagli scansione mostra i dettagli della scansione di rilevamento.
- La sezione Stato scansione mostra i risultati del rilevamento dell'ultimo job di scansione.
gcloud
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
Sostituisci quanto segue:
JOB
: l'ID job del job di scansione di rilevamento.LOCATION
: la Google Cloud regione in cui è stata creata la scansione di rilevamento.DATASCAN
: il nome della scansione di rilevamento a cui appartiene il job.--view=FULL
: visualizza il risultato del job di scansione di rilevamento.
REST
Per visualizzare i risultati di una scansione di individuazione dei dati, utilizza il
metodo dataScans.get
nell'API Dataplex Universal Catalog.
Visualizzare i risultati storici della scansione di rilevamento
Per visualizzare i risultati storici della scansione di rilevamento, seleziona una delle seguenti opzioni.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento di Cloud Storage, fai clic sulla scansione di rilevamento di cui vuoi visualizzare i dettagli.
Fai clic sul riquadro Cronologia scansioni. Il riquadro Cronologia scansioni fornisce informazioni sui job precedenti, tra cui il numero di record scansionati in ogni job, lo stato di ogni job e l'ora in cui sono stati eseguiti.
Per visualizzare informazioni dettagliate su un job, fai clic sul job nella colonna ID job.
gcloud
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
Sostituisci quanto segue:
LOCATION
: la Google Cloud regione in cui è stata creata la scansione di rilevamento.DATASCAN
: il nome della scansione di rilevamento a cui appartiene il job.
REST
Per visualizzare tutti i job di una scansione di rilevamento, utilizza il
metodo dataScans.job/list
nell'API Dataplex Universal Catalog.
Aggiornamento di una scansione di rilevamento
Per modificare la pianificazione di una scansione di rilevamento, ad esempio per passare da una pianificazione on demand a una ricorrente, aggiorna la scansione di rilevamento.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento di Cloud Storage, per la scansione di rilevamento da aggiornare, fai clic su Azioni > Modifica.
Modifica i valori.
Fai clic su Salva.
gcloud
Per aggiornare una scansione di rilevamento, utilizza il comando gcloud dataplex datascans update data-discovery
.
gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION
Sostituisci quanto segue:
SCAN_ID
: l'ID della scansione di rilevamento che vuoi aggiornareLOCATION
: la regione Google Cloud in cui è stata creata la scansione di rilevamentoDESCRIPTION
: la nuova descrizione della scansione di rilevamento
REST
Per aggiornare una scansione di rilevamento, utilizza il metodo
dataScans.patch
nell'API Dataplex Universal Catalog.
Eliminare una scansione di rilevamento
Per eliminare una scansione di rilevamento, seleziona una delle seguenti opzioni.
Console
Nella console Google Cloud , vai alla pagina BigQuery.
Nel menu di navigazione, fai clic su Governance > Curatela dei metadati.
Nel riquadro Rilevamento di Cloud Storage, per la scansione di rilevamento da eliminare, fai clic su Azioni > Elimina.
Fai clic su Elimina.
gcloud
gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async
Sostituisci quanto segue:
SCAN_ID
: l'ID della scansione di rilevamento che vuoi eliminare.LOCATION
: la Google Cloud regione in cui è stata creata la scansione di rilevamento.
REST
Per eliminare una scansione di rilevamento, utilizza il
metodo dataScans.delete
nell'API Dataplex Universal Catalog.