Découvrir et cataloguer des données Cloud Storage
Ce document explique comment utiliser la découverte automatique de Universal Catalog Dataplex, une fonctionnalité de BigQuery qui vous permet d'analyser les données des buckets Cloud Storage pour extraire et cataloguer les métadonnées. Lors de l'analyse de découverte, la découverte automatique crée des tables BigLake ou externes pour les données structurées, et des tables d'objets pour les données non structurées. Ces données tabulaires centralisées facilitent les insights sur les données, la sécurité des données et la gouvernance optimisés par l'IA.
Pour utiliser la découverte automatique des données Cloud Storage, vous devez créer et exécuter une analyse de découverte.
Présentation des analyses de découverte
Une analyse de découverte effectue les opérations suivantes :
- Analyse les données dans le bucket ou le chemin d'accès Cloud Storage.
- Regroupe les données structurées et semi-structurées dans des tableaux.
- Collecte les métadonnées, telles que le nom de la table, le schéma et la définition de partition.
- Crée et met à jour des tables BigLake, externes ou d'objets dans BigQuery à l'aide du schéma et de la définition de partition.
Pour les données non structurées, telles que les images et les vidéos, l'analyse de découverte détecte et enregistre les groupes de fichiers qui partagent le même type de contenu multimédia que les tables d'objets BigLake. Par exemple, si gs://images/group1
contient des images GIF et que gs://images/group2
contient des images JPEG, l'analyse de découverte détecte et enregistre deux ensembles de fichiers.
Pour les données structurées, telles qu'Avro, l'analyse de découverte enregistre les groupes de fichiers en tant que tables externes BigLake et ne détecte les fichiers que s'ils se trouvent dans des dossiers contenant le même format de données et un schéma compatible.
L'analyse de découverte est compatible avec les formats de données structurées et semi-structurées suivants :
- Parquet
- Avro
- ORC
- JSON (uniquement le format délimité par un retour à la ligne)
- CSV (mais pas les fichiers CSV comportant des lignes de commentaires)
L'analyse de découverte est compatible avec les formats de compression suivants pour les données structurées et semi-structurées :
Compression interne pour les formats suivants :
Compression Exemple d'extension de fichier Format accepté gzip .gz.parquet
Parquet lz4 .lz4.parquet
Parquet Snappy .snappy.parquet
Parquet, ORC, Avro lzo .lzo.parquet
Parquet, ORC Compression externe pour les fichiers JSON et CSV :
- gzip
- bzip2
Pour connaître le nombre maximal de tables qu'une analyse de découverte peut prendre en charge, consultez Quotas et limites.
Les tables détectées sont enregistrées dans BigQuery en tant que tables externes BigLake, tables d'objets BigLake ou tables externes. Leurs données sont ainsi disponibles pour analyse dans BigQuery. La mise en cache des métadonnées pour les tables BigLake et les tables d'objets est également activée. Toutes les tables BigLake sont automatiquement ingérées dans Dataplex Universal Catalog pour la recherche et la découverte.
Avant de commencer
Enable the Dataplex API.
Rôles requis pour le compte de service Dataplex Universal Catalog
Avant de commencer, attribuez les autorisations IAM au compte de service Dataplex Universal Catalog dans votre projet.
service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
Remplacez PROJECT_NUMBER
par le projet dans lequel l'API Dataplex est activée.
Pour vous assurer que le compte de service Dataplex dispose des autorisations nécessaires pour créer et exécuter une analyse de découverte, demandez à votre administrateur d'accorder au compte de service Dataplex les rôles IAM suivants :
-
Agent de service Dataplex Discovery (
roles/dataplex.discoveryServiceAgent
) sur le bucket de stockage -
Agent de service de publication Dataplex Discovery (
roles/dataplex.discoveryPublishingServiceAgent
) sur le projet utilisateur -
Créez des tables BigLake :
Agent de service de publication BigLake Dataplex Discovery (
roles/dataplex.discoveryBigLakePublishingServiceAgent
) sur la connexion BigQuery
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Ces rôles prédéfinis contiennent les autorisations requises pour créer et exécuter une analyse de découverte. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :
Autorisations requises
Vous devez disposer des autorisations suivantes pour créer et exécuter une analyse de découverte :
-
bigquery.datasets.create
sur le projet de source de données -
storage.buckets.get
sur le bucket de source de données -
storage.objects.get
sur le bucket de source de données -
storage.objects.list
sur le bucket de source de données -
bigquery.datasets.get
sur le projet de source de données -
Fournissez une connexion :
-
bigquery.connections.delegate
sur la connexion BigQuery -
bigquery.connections.use
sur la connexion BigQuery
-
Votre administrateur peut également attribuer au compte de service Dataplex ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.
Rôles requis pour le compte de service de connexion BigQuery
Pour vous assurer que le compte de service BigQuery Connection dispose des autorisations nécessaires pour créer une analyse de découverte, demandez à votre administrateur d'accorder au compte de service BigQuery Connection le rôle IAM Agent du service de découverte Dataplex (roles/dataplex.discoveryServiceAgent
) sur le bucket Cloud Storage.
Ce rôle prédéfini contient les autorisations requises pour créer un scan de découverte. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :
Autorisations requises
Les autorisations suivantes sont requises pour créer une analyse de découverte :
-
bigquery.datasets.create
sur le projet de source de données -
storage.buckets.get
sur le bucket de source de données -
storage.objects.get
sur le bucket de source de données -
storage.objects.list
sur le bucket de source de données -
bigquery.datasets.get
sur le projet de source de données -
Fournissez une connexion :
-
bigquery.connections.delegate
sur la connexion BigQuery -
bigquery.connections.use
sur la connexion BigQuery
-
Votre administrateur peut également attribuer au compte de service de connexion BigQuery ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.
Rôles requis pour les utilisateurs finaux
Pour obtenir les autorisations nécessaires pour créer et gérer des analyses de découverte des données, demandez à votre administrateur de vous accorder les rôles IAM suivants sur le bucket Cloud Storage :
-
Accès complet aux ressources DataScan :
Administrateur Dataplex DataScan (
roles/dataplex.dataScanAdmin
) : votre projet -
Accès en écriture aux ressources DataScan :
Éditeur Dataplex DataScan (
roles/dataplex.dataScanEditor
) : votre projet -
Accès en lecture aux ressources DataScan, à l'exclusion des résultats :
Lecteur Dataplex DataScan (
roles/dataplex.dataScanViewer
) : votre projet -
Accès en lecture aux ressources DataScan, y compris les résultats :
Lecteur de données Dataplex DataScan (
roles/dataplex.dataScanDataViewer
) : votre projet
Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.
Ces rôles prédéfinis contiennent les autorisations requises pour créer et gérer des analyses de découverte de données. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :
Autorisations requises
Vous devez disposer des autorisations suivantes pour créer et gérer des analyses de découverte de données :
-
Créez un DataScan :
dataplex.datascans.create
sur votre projet -
Supprimer une analyse de données :
dataplex.datascans.delete
sur votre projet ou une ressource d'analyse de données -
Afficher les détails de DataScan, à l'exclusion des résultats :
dataplex.datascans.get
sur votre projecteur une ressource DataScan -
Afficher les détails de DataScan, y compris les résultats :
dataplex.datascans.getData
sur votre projet ou une ressource DataScan -
Lister les DataScans :
dataplex.datascans.list
sur votre projet ou une ressource DataScan -
Exécutez une analyse de données :
dataplex.datascans.run
sur votre projet ou une ressource DataScan -
Mettez à jour la description d'un DataScan :
dataplex.datascans.update
sur votre projecteur, une ressource DataScan -
Affichez les autorisations IAM de DataScan :
dataplex.datascans.getIamPolicy
sur votre projet ou une ressource DataScan. -
Définissez les autorisations IAM sur DataScan :
dataplex.datascans.setIamPolicy
sur votre projet ou une ressource DataScan
Vous pouvez également obtenir ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.
Créer une analyse de découverte
Pour découvrir des données, vous devez créer et exécuter une analyse de découverte. Vous pouvez planifier l'analyse ou l'exécuter à la demande.
Lorsque l'analyse de découverte s'exécute, elle crée un ensemble de données dans BigQuery qui correspond au bucket Cloud Storage analysé. Le nom de l'ensemble de données BigQuery est identique à celui du bucket Cloud Storage. Les caractères non valides dans le nom du bucket sont remplacés par un trait de soulignement. Si le nom de l'ensemble de données n'est pas disponible, un suffixe est ajouté (par exemple, _discovered_001
). L'ensemble de données contient les tables externes BigLake ou non BigLake créées par l'analyse de découverte pour une analyse plus approfondie.
Console
Dans la console Google Cloud , accédez à la page Curation des métadonnées.
Dans l'onglet Découverte Cloud Storage, cliquez sur Créer.
Dans le volet Créer une analyse de découverte, configurez les détails des données à analyser.
Attribuez un nom à l'analyse.
Dans le champ ID d'analyse, saisissez un ID unique qui respecte les conventions de dénomination des ressources dans Google Cloud. Si vous ne fournissez pas d'ID, l'analyse de découverte génère l'ID d'analyse.
Facultatif : Fournissez une description de l'analyse.
Pour spécifier le bucket Cloud Storage contenant les fichiers à analyser, accédez au bucket et sélectionnez-le dans le champ Bucket.
Facultatif : Définissez les données à inclure ou à exclure de l'analyse de découverte en fournissant une liste de modèles glob pour le filtrage des fichiers.
- Inclure : si seul un sous-ensemble des données doit être analysé, fournissez une liste de modèles glob correspondant aux objets à inclure.
- Exclure : fournissez une liste de modèles glob correspondant aux objets à exclure.
Par exemple, si vous souhaitez exclure
gs://test_bucket/foo/..
de l'analyse de découverte, saisissez**/foo/**
comme chemin d'exclusion. Les guillemets entraînent des erreurs. Veillez à saisir**/foo/**
au lieu de"**/foo/**"
.Si vous fournissez à la fois des modèles d'inclusion et d'exclusion, les modèles d'exclusion sont appliqués en premier.
Facultatif : Dans Projet, sélectionnez le projet d'ensemble de données BigQuery qui contient les tables externes BigLake ou non-BigLake créées par l'analyse de découverte. Si aucun n'est fourni, l'ensemble de données est créé dans le projet contenant le bucket Cloud Storage.
Dans Type d'emplacement, sélectionnez Région ou Multirégion (selon ce qui est disponible) où l'ensemble de données de publication BigQuery est créé.
Pour créer des tables BigLake à partir des données analysées, indiquez l'ID de connexion de votre ressource Google Cloud dans le champ ID de connexion. Pour en savoir plus, consultez Connexions de ressourcesGoogle Cloud dans BigQuery.
Vous pouvez créer un ID de connexion dans le même emplacement que celui de l'ensemble de données BigQuery, qui est compatible avec l'emplacement du bucket Cloud Storage.
Si vous ne fournissez pas d'ID de connexion à une ressource, l'analyse de découverte crée des tables externes non BigLake.
Dans la section Fréquence de découverte, configurez la fréquence d'exécution de l'analyse de découverte :
Répéter : l'analyse s'exécute selon une programmation prédéfinie. Indiquez l'heure de début, les jours où l'analyse doit être exécutée et la fréquence (par exemple, toutes les heures).
À la demande : l'analyse s'exécute à la demande.
Facultatif : Dans la section Spécifications JSON ou CSV, indiquez comment l'analyse doit traiter les fichiers JSON et CSV. Cliquez sur Spécifications JSON ou CSV.
- Pour configurer les options JSON, sélectionnez Activer les options d'analyse JSON.
- Désactiver l'inférence de type : indique si l'analyse de découverte doit inférer les types de données lors de l'analyse des données. Si vous désactivez l'inférence de type pour les données JSON, toutes les colonnes sont enregistrées en tant que types primitifs (chaîne, nombre ou booléen, par exemple).
- Format d'encodage : encodage des caractères des données, tel que UTF-8, US-ASCII ou ISO-8859-1. Si vous ne spécifiez pas de valeur, UTF-8 est utilisé par défaut.
- Pour configurer les options CSV, consultez Activer les options d'analyse CSV.
- Désactiver l'inférence de type : indique si l'analyse de découverte doit inférer les types de données lors de l'analyse des données. Si vous désactivez l'inférence de type pour les données CSV, toutes les colonnes sont enregistrées en tant que chaînes.
- Lignes d'en-tête : nombre de lignes d'en-tête,
0
ou1
. Si vous spécifiez la valeur0
, l'analyse de découverte déduit les en-têtes et extrait les noms de colonnes du fichier. La valeur par défaut est0
. - Caractère délimiteur de colonne : caractère utilisé pour séparer les valeurs. Indiquez un seul caractère,
\r
(retour chariot) ou\n
(nouvelle ligne). La valeur par défaut est une virgule (,
). - Format d'encodage : encodage des caractères des données, tel que
UTF-8
,US-ASCII
ouISO-8859-1
. Si vous ne spécifiez pas de valeur, UTF-8 est utilisé par défaut.
- Pour configurer les options JSON, sélectionnez Activer les options d'analyse JSON.
Cliquez sur Créer (pour une analyse programmée) ou sur Exécuter maintenant (pour une analyse à la demande).
Une analyse planifiée est exécutée selon la programmation que vous avez définie.
Une analyse à la demande est exécutée une seule fois lors de sa création. Vous pouvez l'exécuter à tout moment. L'analyse de découverte peut prendre plusieurs minutes.
gcloud
Pour créer un scan de découverte, utilisez la commande gcloud dataplex datascans create data-discovery
.
gcloud dataplex datascans create data-discovery --location=LOCATION --data-source-resource=BUCKET_PATH
Remplacez les éléments suivants :
LOCATION
: emplacement dans lequel vous souhaitez créer votre analyse de découverte.BUCKET_PATH
: chemin Cloud Storage du bucket que vous souhaitez analyser
REST
Pour créer un scan de découverte, utilisez la méthode dataScans.create
.
Interroger des tables BigLake publiées
Une fois l'analyse de découverte exécutée, les tables BigLake sont publiées dans un nouvel ensemble de données dans BigQuery. Les tables sont ensuite disponibles pour l'analyse dans BigQuery à l'aide de SQL, ou dans Dataproc à l'aide d'Apache Spark ou de HiveQL.
SQL
Vous pouvez afficher ou interroger des tables dans BigQuery. Pour savoir comment exécuter des requêtes dans BigQuery, consultez Exécuter une requête.
Apache Spark
Pour interroger des tables BigLake à l'aide de SparkSQL dans un job Dataproc sans serveur, procédez comme suit :
Créez un script PySpark semblable à l'exemple de script suivant :
from pyspark.sql import SparkSession session = ( SparkSession.builder.appName("testing") .config("viewsEnabled","true") .config("materializationDataset", "DATASET_ID") .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID") .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory") .enableHiveSupport() .getOrCreate() ) session.sql("show databases").show() session.sql("use TABLE_NAME").show() session.sql("show tables").show() sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10" df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql) df.show()
Remplacez les éléments suivants :
DATASET_ID
: ID de l'ensemble de données pour lequel les utilisateurs disposent de l'autorisation de créationPROJECT_ID
: ID du projet contenant la table BigLakeTABLE_NAME
: nom de la table BigLakeTABLE_ID
: ID de la table BigLake
Gérer les tables BigLake publiées
Les tables BigLake publiées sont créées et gérées dans BigQuery par l'analyse de découverte. Par défaut, l'analyse de découverte gère la découverte de nouvelles données, les inférences de schéma et l'évolution du schéma chaque fois que les analyses planifiées ou à la demande sont exécutées. Pour indiquer que les métadonnées sont gérées par l'analyse, celle-ci publie des tables dont le libellé metadata-managed-mode
est défini sur discovery-managed
.
Si vous souhaitez gérer vous-même le schéma et d'autres métadonnées, comme les options CSV ou JSON, définissez le libellé metadata-managed-mode
sur user_managed
. Ainsi, le schéma reste inchangé lors de la prochaine analyse de découverte. Cette approche peut être utile dans les cas où le schéma déduit par l'analyse de découverte est incorrect ou différent de ce qui est attendu pour une table donnée. Lorsque le libellé metadata-managed-mode
est défini sur user_managed
, cela peut réduire les coûts.
Pour mettre à jour le libellé, vous pouvez modifier la valeur de la clé de libellé
metadata-managed-mode
en user_managed
au lieu de discovery-managed
. Dans ce cas, l'analyse de découverte ne met pas à jour le schéma de la table tant que le libellé user_managed
y est associé.
Mettre à jour des tables BigLake publiées
Pour les tables BigLake publiées à l'aide de tâches d'analyse de la découverte avec la configuration par défaut, le schéma et les autres métadonnées sont automatiquement mis à jour à chaque exécution de la tâche d'analyse de la découverte à la fréquence planifiée.
Pour mettre à jour une table BigLake publiée, procédez comme suit :
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le volet Explorateur, développez votre projet et votre ensemble de données, puis sélectionnez la table.
Dans l'onglet Détails, dans la section Libellés, assurez-vous que le libellé metadata-managed-mode est défini sur user_managed. Si elle est définie sur une autre valeur, procédez comme suit :
Cliquez sur
Modifier les détails.À côté de la clé metadata-managed-mode, dans le champ value (valeur), saisissez
user_managed
.
Supprimer des tables BigLake publiées
Pour supprimer une table BigLake publiée, procédez comme suit :
Supprimez les fichiers de données de la table dans le bucket Cloud Storage.
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le volet Explorateur, développez votre projet et votre ensemble de données, puis sélectionnez la table.
Dans le volet Détails, dans la section Libellés, assurez-vous que le libellé metadata-managed-mode n'est pas défini sur
user_managed
. Si la valeur est définie suruser_managed
, procédez comme suit :Cliquez sur Modifier les détails
.À côté de la clé metadata-managed-mode, dans le champ value (valeur), saisissez
discovery-managed
.
Cliquez sur Exécuter. L'analyse de découverte s'exécute à la demande.
Une fois l'analyse de découverte exécutée, la table BigLake est supprimée dans BigQuery et ne peut pas être listée ni interrogée via Spark.
Exécuter une analyse de découverte à la demande
Pour exécuter une analyse de découverte à la demande, sélectionnez l'une des options suivantes.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte que vous souhaitez exécuter.
Cliquez sur Exécuter maintenant.
gcloud
Pour exécuter une analyse de découverte, utilisez la commande gcloud dataplex datascans run
:
gcloud dataplex datascans runDATASCAN
\ --location=LOCATION
Remplacez les variables suivantes :
LOCATION
: région Google Cloud dans laquelle l'analyse de découverte a été créée.DATASCAN
: nom de l'analyse de découverte.
REST
Pour exécuter une analyse de découverte à la demande, utilisez la méthode dataScans.run
dans l'API Dataplex.
Lister les analyses de découverte
Pour lister vos analyses de découverte, sélectionnez l'une des options suivantes.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, la liste des analyses de découverte créées dans le projet s'affiche.
gcloud
gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID
Remplacez les éléments suivants :
LOCATION
: emplacement de votre projetPROJECT_ID
: ID de votre projet Google Cloud
REST
Pour récupérer la liste des analyses de découverte dans votre projet, utilisez la méthode dataScans.list
dans l'API Dataplex Universal Catalog.
Afficher une analyse de découverte
Pour afficher une analyse de découverte, sélectionnez l'une des options suivantes.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte dont vous souhaitez afficher les détails.
- La section Détails de l'analyse affiche des informations sur l'analyse de découverte.
- La section État de l'analyse affiche les résultats de la dernière tâche d'analyse.
gcloud
gcloud dataplex datascans jobs describe JOB \ --location=LOCATION \ --datascan=DATASCAN \ --view=FULL
Remplacez les éléments suivants :
JOB
: ID du job d'analyse de découverte.LOCATION
: région Google Cloud dans laquelle l'analyse de découverte a été créée.DATASCAN
: nom de l'analyse de découverte à laquelle appartient le job.--view=FULL
: consultez le résultat du job d'analyse de découverte.
REST
Pour afficher les résultats d'une analyse de découverte de données, utilisez la méthode dataScans.get
dans l'API Dataplex Universal Catalog.
Afficher l'historique des résultats d'analyse de découverte
Pour afficher l'historique des résultats d'analyse de la découverte, sélectionnez l'une des options suivantes.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte dont vous souhaitez afficher les détails.
Cliquez sur le volet Historique des analyses. Le volet Historique des analyses fournit des informations sur les tâches précédentes, y compris le nombre d'enregistrements analysés dans chaque tâche, l'état de chaque tâche et l'heure à laquelle les tâches ont été exécutées.
Pour afficher des informations détaillées sur une tâche, cliquez sur la tâche dans la colonne ID de la tâche.
gcloud
gcloud dataplex datascans jobs list \ --location=LOCATION \ --datascan=DATASCAN
Remplacez les éléments suivants :
LOCATION
: région Google Cloud dans laquelle l'analyse de découverte a été créée.DATASCAN
: nom de l'analyse de découverte à laquelle appartient le job.
REST
Pour afficher tous les jobs d'une analyse de découverte, utilisez la méthode dataScans.job/list
dans l'API Dataplex Universal Catalog.
Mettre à jour une analyse de découverte
Pour modifier la programmation d'une analyse de découverte (par exemple, pour la faire passer d'une programmation à la demande à une programmation récurrente), mettez à jour l'analyse de découverte.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, cliquez sur Actions > Modifier pour la découverte que vous souhaitez mettre à jour.
Modifiez les valeurs.
Cliquez sur Enregistrer.
gcloud
Pour mettre à jour une analyse de découverte, utilisez la commande gcloud dataplex datascans update data-discovery
.
gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION
Remplacez les éléments suivants :
SCAN_ID
: ID de l'analyse de découverte que vous souhaitez mettre à jourLOCATION
: région Google Cloud dans laquelle l'analyse de découverte a été crééeDESCRIPTION
: nouvelle description de l'analyse de découverte
REST
Pour mettre à jour une analyse de découverte, utilisez la méthode dataScans.patch
dans l'API Dataplex Universal Catalog.
Supprimer une analyse de découverte
Pour supprimer une analyse de découverte, sélectionnez l'une des options suivantes.
Console
Dans la console Google Cloud , accédez à la page BigQuery.
Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.
Dans le volet Découverte Cloud Storage, cliquez sur Actions > Supprimer pour l'analyse de découverte que vous souhaitez supprimer.
Cliquez sur Supprimer.
gcloud
gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async
Remplacez les éléments suivants :
SCAN_ID
: ID de l'analyse de découverte que vous souhaitez supprimer.LOCATION
: région Google Cloud dans laquelle l'analyse de découverte a été créée.
REST
Pour supprimer une analyse de découverte, utilisez la méthode dataScans.delete
de l'API Dataplex Universal Catalog.