Découvrir et cataloguer des données Cloud Storage

Ce document explique comment utiliser la découverte automatique de Universal Catalog Dataplex, une fonctionnalité de BigQuery qui vous permet d'analyser les données des buckets Cloud Storage pour extraire et cataloguer les métadonnées. Lors de l'analyse de découverte, la découverte automatique crée des tables BigLake ou externes pour les données structurées, et des tables d'objets pour les données non structurées. Ces données tabulaires centralisées facilitent les insights sur les données, la sécurité des données et la gouvernance optimisés par l'IA.

Pour utiliser la découverte automatique des données Cloud Storage, vous devez créer et exécuter une analyse de découverte.

Présentation des analyses de découverte

Une analyse de découverte effectue les opérations suivantes :

  • Analyse les données dans le bucket ou le chemin d'accès Cloud Storage.
  • Regroupe les données structurées et semi-structurées dans des tableaux.
  • Collecte les métadonnées, telles que le nom de la table, le schéma et la définition de partition.
  • Crée et met à jour des tables BigLake, externes ou d'objets dans BigQuery à l'aide du schéma et de la définition de partition.

Pour les données non structurées, telles que les images et les vidéos, l'analyse de découverte détecte et enregistre les groupes de fichiers qui partagent le même type de contenu multimédia que les tables d'objets BigLake. Par exemple, si gs://images/group1 contient des images GIF et que gs://images/group2 contient des images JPEG, l'analyse de découverte détecte et enregistre deux ensembles de fichiers.

Pour les données structurées, telles qu'Avro, l'analyse de découverte enregistre les groupes de fichiers en tant que tables externes BigLake et ne détecte les fichiers que s'ils se trouvent dans des dossiers contenant le même format de données et un schéma compatible.

L'analyse de découverte est compatible avec les formats de données structurées et semi-structurées suivants :

L'analyse de découverte est compatible avec les formats de compression suivants pour les données structurées et semi-structurées :

  • Compression interne pour les formats suivants :

    Compression Exemple d'extension de fichier Format accepté
    gzip .gz.parquet Parquet
    lz4 .lz4.parquet Parquet
    Snappy .snappy.parquet Parquet, ORC, Avro
    lzo .lzo.parquet Parquet, ORC
  • Compression externe pour les fichiers JSON et CSV :

    • gzip
    • bzip2

Pour connaître le nombre maximal de tables qu'une analyse de découverte peut prendre en charge, consultez Quotas et limites.

Les tables détectées sont enregistrées dans BigQuery en tant que tables externes BigLake, tables d'objets BigLake ou tables externes. Leurs données sont ainsi disponibles pour analyse dans BigQuery. La mise en cache des métadonnées pour les tables BigLake et les tables d'objets est également activée. Toutes les tables BigLake sont automatiquement ingérées dans Dataplex Universal Catalog pour la recherche et la découverte.

Avant de commencer

Enable the Dataplex API.

Enable the API

Rôles requis pour le compte de service Dataplex Universal Catalog

Avant de commencer, attribuez les autorisations IAM au compte de service Dataplex Universal Catalog dans votre projet.

  service-PROJECT_NUMBER@gcp-sa-dataplex.iam.gserviceaccount.com
  

Remplacez PROJECT_NUMBER par le projet dans lequel l'API Dataplex est activée.

Pour vous assurer que le compte de service Dataplex dispose des autorisations nécessaires pour créer et exécuter une analyse de découverte, demandez à votre administrateur d'accorder au compte de service Dataplex les rôles IAM suivants :

Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.

Ces rôles prédéfinis contiennent les autorisations requises pour créer et exécuter une analyse de découverte. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :

Autorisations requises

Vous devez disposer des autorisations suivantes pour créer et exécuter une analyse de découverte :

  • bigquery.datasets.create sur le projet de source de données
  • storage.buckets.get sur le bucket de source de données
  • storage.objects.get sur le bucket de source de données
  • storage.objects.list sur le bucket de source de données
  • bigquery.datasets.get sur le projet de source de données
  • Fournissez une connexion :
    • bigquery.connections.delegate sur la connexion BigQuery
    • bigquery.connections.use sur la connexion BigQuery

Votre administrateur peut également attribuer au compte de service Dataplex ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.

Rôles requis pour le compte de service de connexion BigQuery

Pour vous assurer que le compte de service BigQuery Connection dispose des autorisations nécessaires pour créer une analyse de découverte, demandez à votre administrateur d'accorder au compte de service BigQuery Connection le rôle IAM Agent du service de découverte Dataplex (roles/dataplex.discoveryServiceAgent) sur le bucket Cloud Storage.

Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.

Ce rôle prédéfini contient les autorisations requises pour créer un scan de découverte. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :

Autorisations requises

Les autorisations suivantes sont requises pour créer une analyse de découverte :

  • bigquery.datasets.create sur le projet de source de données
  • storage.buckets.get sur le bucket de source de données
  • storage.objects.get sur le bucket de source de données
  • storage.objects.list sur le bucket de source de données
  • bigquery.datasets.get sur le projet de source de données
  • Fournissez une connexion :
    • bigquery.connections.delegate sur la connexion BigQuery
    • bigquery.connections.use sur la connexion BigQuery

Votre administrateur peut également attribuer au compte de service de connexion BigQuery ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.

Rôles requis pour les utilisateurs finaux

Pour obtenir les autorisations nécessaires pour créer et gérer des analyses de découverte des données, demandez à votre administrateur de vous accorder les rôles IAM suivants sur le bucket Cloud Storage :

  • Accès complet aux ressources DataScan : Administrateur Dataplex DataScan (roles/dataplex.dataScanAdmin) : votre projet
  • Accès en écriture aux ressources DataScan : Éditeur Dataplex DataScan (roles/dataplex.dataScanEditor) : votre projet
  • Accès en lecture aux ressources DataScan, à l'exclusion des résultats : Lecteur Dataplex DataScan (roles/dataplex.dataScanViewer) : votre projet
  • Accès en lecture aux ressources DataScan, y compris les résultats : Lecteur de données Dataplex DataScan (roles/dataplex.dataScanDataViewer) : votre projet

Pour en savoir plus sur l'attribution de rôles, consultez Gérer l'accès aux projets, aux dossiers et aux organisations.

Ces rôles prédéfinis contiennent les autorisations requises pour créer et gérer des analyses de découverte de données. Pour connaître les autorisations exactes requises, développez la section Autorisations requises :

Autorisations requises

Vous devez disposer des autorisations suivantes pour créer et gérer des analyses de découverte de données :

  • Créez un DataScan : dataplex.datascans.create sur votre projet
  • Supprimer une analyse de données : dataplex.datascans.delete sur votre projet ou une ressource d'analyse de données
  • Afficher les détails de DataScan, à l'exclusion des résultats : dataplex.datascans.get sur votre projecteur une ressource DataScan
  • Afficher les détails de DataScan, y compris les résultats : dataplex.datascans.getData sur votre projet ou une ressource DataScan
  • Lister les DataScans : dataplex.datascans.list sur votre projet ou une ressource DataScan
  • Exécutez une analyse de données : dataplex.datascans.run sur votre projet ou une ressource DataScan
  • Mettez à jour la description d'un DataScan : dataplex.datascans.update sur votre projecteur, une ressource DataScan
  • Affichez les autorisations IAM de DataScan : dataplex.datascans.getIamPolicy sur votre projet ou une ressource DataScan.
  • Définissez les autorisations IAM sur DataScan : dataplex.datascans.setIamPolicy sur votre projet ou une ressource DataScan

Vous pouvez également obtenir ces autorisations avec des rôles personnalisés ou d'autres rôles prédéfinis.

Créer une analyse de découverte

Pour découvrir des données, vous devez créer et exécuter une analyse de découverte. Vous pouvez planifier l'analyse ou l'exécuter à la demande.

Lorsque l'analyse de découverte s'exécute, elle crée un ensemble de données dans BigQuery qui correspond au bucket Cloud Storage analysé. Le nom de l'ensemble de données BigQuery est identique à celui du bucket Cloud Storage. Les caractères non valides dans le nom du bucket sont remplacés par un trait de soulignement. Si le nom de l'ensemble de données n'est pas disponible, un suffixe est ajouté (par exemple, _discovered_001). L'ensemble de données contient les tables externes BigLake ou non BigLake créées par l'analyse de découverte pour une analyse plus approfondie.

Console

  1. Dans la console Google Cloud , accédez à la page Curation des métadonnées.

    Accéder à la sélection des métadonnées

  2. Dans l'onglet Découverte Cloud Storage, cliquez sur Créer.

  3. Dans le volet Créer une analyse de découverte, configurez les détails des données à analyser.

  4. Attribuez un nom à l'analyse.

  5. Dans le champ ID d'analyse, saisissez un ID unique qui respecte les conventions de dénomination des ressources dans Google Cloud. Si vous ne fournissez pas d'ID, l'analyse de découverte génère l'ID d'analyse.

  6. Facultatif : Fournissez une description de l'analyse.

  7. Pour spécifier le bucket Cloud Storage contenant les fichiers à analyser, accédez au bucket et sélectionnez-le dans le champ Bucket.

  8. Facultatif : Définissez les données à inclure ou à exclure de l'analyse de découverte en fournissant une liste de modèles glob pour le filtrage des fichiers.

    • Inclure : si seul un sous-ensemble des données doit être analysé, fournissez une liste de modèles glob correspondant aux objets à inclure.
    • Exclure : fournissez une liste de modèles glob correspondant aux objets à exclure.

    Par exemple, si vous souhaitez exclure gs://test_bucket/foo/.. de l'analyse de découverte, saisissez **/foo/** comme chemin d'exclusion. Les guillemets entraînent des erreurs. Veillez à saisir **/foo/** au lieu de "**/foo/**".

    Si vous fournissez à la fois des modèles d'inclusion et d'exclusion, les modèles d'exclusion sont appliqués en premier.

  9. Facultatif : Dans Projet, sélectionnez le projet d'ensemble de données BigQuery qui contient les tables externes BigLake ou non-BigLake créées par l'analyse de découverte. Si aucun n'est fourni, l'ensemble de données est créé dans le projet contenant le bucket Cloud Storage.

  10. Dans Type d'emplacement, sélectionnez Région ou Multirégion (selon ce qui est disponible) où l'ensemble de données de publication BigQuery est créé.

  11. Pour créer des tables BigLake à partir des données analysées, indiquez l'ID de connexion de votre ressource Google Cloud dans le champ ID de connexion. Pour en savoir plus, consultez Connexions de ressourcesGoogle Cloud dans BigQuery.

    Vous pouvez créer un ID de connexion dans le même emplacement que celui de l'ensemble de données BigQuery, qui est compatible avec l'emplacement du bucket Cloud Storage.

    Si vous ne fournissez pas d'ID de connexion à une ressource, l'analyse de découverte crée des tables externes non BigLake.

  12. Dans la section Fréquence de découverte, configurez la fréquence d'exécution de l'analyse de découverte :

    • Répéter : l'analyse s'exécute selon une programmation prédéfinie. Indiquez l'heure de début, les jours où l'analyse doit être exécutée et la fréquence (par exemple, toutes les heures).

    • À la demande : l'analyse s'exécute à la demande.

  13. Facultatif : Dans la section Spécifications JSON ou CSV, indiquez comment l'analyse doit traiter les fichiers JSON et CSV. Cliquez sur Spécifications JSON ou CSV.

    1. Pour configurer les options JSON, sélectionnez Activer les options d'analyse JSON.
      • Désactiver l'inférence de type : indique si l'analyse de découverte doit inférer les types de données lors de l'analyse des données. Si vous désactivez l'inférence de type pour les données JSON, toutes les colonnes sont enregistrées en tant que types primitifs (chaîne, nombre ou booléen, par exemple).
      • Format d'encodage : encodage des caractères des données, tel que UTF-8, US-ASCII ou ISO-8859-1. Si vous ne spécifiez pas de valeur, UTF-8 est utilisé par défaut.
    2. Pour configurer les options CSV, consultez Activer les options d'analyse CSV.
      • Désactiver l'inférence de type : indique si l'analyse de découverte doit inférer les types de données lors de l'analyse des données. Si vous désactivez l'inférence de type pour les données CSV, toutes les colonnes sont enregistrées en tant que chaînes.
      • Lignes d'en-tête : nombre de lignes d'en-tête, 0 ou 1. Si vous spécifiez la valeur 0, l'analyse de découverte déduit les en-têtes et extrait les noms de colonnes du fichier. La valeur par défaut est 0.
      • Caractère délimiteur de colonne : caractère utilisé pour séparer les valeurs. Indiquez un seul caractère, \r (retour chariot) ou \n (nouvelle ligne). La valeur par défaut est une virgule (,).
      • Format d'encodage : encodage des caractères des données, tel que UTF-8, US-ASCII ou ISO-8859-1. Si vous ne spécifiez pas de valeur, UTF-8 est utilisé par défaut.
  14. Cliquez sur Créer (pour une analyse programmée) ou sur Exécuter maintenant (pour une analyse à la demande).

    Une analyse planifiée est exécutée selon la programmation que vous avez définie.

    Une analyse à la demande est exécutée une seule fois lors de sa création. Vous pouvez l'exécuter à tout moment. L'analyse de découverte peut prendre plusieurs minutes.

gcloud

Pour créer un scan de découverte, utilisez la commande gcloud dataplex datascans create data-discovery.

gcloud dataplex datascans create data-discovery --location=LOCATION
--data-source-resource=BUCKET_PATH

Remplacez les éléments suivants :

  • LOCATION : emplacement dans lequel vous souhaitez créer votre analyse de découverte.
  • BUCKET_PATH : chemin Cloud Storage du bucket que vous souhaitez analyser

REST

Pour créer un scan de découverte, utilisez la méthode dataScans.create.

Interroger des tables BigLake publiées

Une fois l'analyse de découverte exécutée, les tables BigLake sont publiées dans un nouvel ensemble de données dans BigQuery. Les tables sont ensuite disponibles pour l'analyse dans BigQuery à l'aide de SQL, ou dans Dataproc à l'aide d'Apache Spark ou de HiveQL.

SQL

Vous pouvez afficher ou interroger des tables dans BigQuery. Pour savoir comment exécuter des requêtes dans BigQuery, consultez Exécuter une requête.

Apache Spark

Pour interroger des tables BigLake à l'aide de SparkSQL dans un job Dataproc sans serveur, procédez comme suit :

  1. Créez un script PySpark semblable à l'exemple de script suivant :

    from pyspark.sql import SparkSession
    session = (
      SparkSession.builder.appName("testing")
        .config("viewsEnabled","true")
        .config("materializationDataset", "DATASET_ID")
        .config("spark.hive.metastore.bigquery.project.id", "PROJECT_ID")
        .config("spark.hive.metastore.client.factory.class", "com.google.cloud.bigquery.metastore.client.BigQueryMetastoreClientFactory")
        .enableHiveSupport()
        .getOrCreate()
    )
    
    session.sql("show databases").show()
    session.sql("use TABLE_NAME").show()
    session.sql("show tables").show()
    
    sql = "SELECT * FROM DATASET_ID.TABLE_ID LIMIT 10"
    df = session.read.format("bigquery").option("dataset", "DATASET_ID").load(sql)
    df.show()

    Remplacez les éléments suivants :

    • DATASET_ID : ID de l'ensemble de données pour lequel les utilisateurs disposent de l'autorisation de création
    • PROJECT_ID : ID du projet contenant la table BigLake
    • TABLE_NAME : nom de la table BigLake
    • TABLE_ID : ID de la table BigLake
  2. Envoyez le job par lot.

Gérer les tables BigLake publiées

Les tables BigLake publiées sont créées et gérées dans BigQuery par l'analyse de découverte. Par défaut, l'analyse de découverte gère la découverte de nouvelles données, les inférences de schéma et l'évolution du schéma chaque fois que les analyses planifiées ou à la demande sont exécutées. Pour indiquer que les métadonnées sont gérées par l'analyse, celle-ci publie des tables dont le libellé metadata-managed-mode est défini sur discovery-managed.

Si vous souhaitez gérer vous-même le schéma et d'autres métadonnées, comme les options CSV ou JSON, définissez le libellé metadata-managed-mode sur user_managed. Ainsi, le schéma reste inchangé lors de la prochaine analyse de découverte. Cette approche peut être utile dans les cas où le schéma déduit par l'analyse de découverte est incorrect ou différent de ce qui est attendu pour une table donnée. Lorsque le libellé metadata-managed-mode est défini sur user_managed, cela peut réduire les coûts.

Pour mettre à jour le libellé, vous pouvez modifier la valeur de la clé de libellé metadata-managed-mode en user_managed au lieu de discovery-managed. Dans ce cas, l'analyse de découverte ne met pas à jour le schéma de la table tant que le libellé user_managed y est associé.

Mettre à jour des tables BigLake publiées

Pour les tables BigLake publiées à l'aide de tâches d'analyse de la découverte avec la configuration par défaut, le schéma et les autres métadonnées sont automatiquement mis à jour à chaque exécution de la tâche d'analyse de la découverte à la fréquence planifiée.

Pour mettre à jour une table BigLake publiée, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Mettez à jour une ou plusieurs propriétés du tableau.

  3. Dans le volet Explorateur, développez votre projet et votre ensemble de données, puis sélectionnez la table.

  4. Dans l'onglet Détails, dans la section Libellés, assurez-vous que le libellé metadata-managed-mode est défini sur user_managed. Si elle est définie sur une autre valeur, procédez comme suit :

    1. Cliquez sur Modifier les détails.

    2. À côté de la clé metadata-managed-mode, dans le champ value (valeur), saisissez user_managed.

Supprimer des tables BigLake publiées

Pour supprimer une table BigLake publiée, procédez comme suit :

  1. Supprimez les fichiers de données de la table dans le bucket Cloud Storage.

  2. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  3. Dans le volet Explorateur, développez votre projet et votre ensemble de données, puis sélectionnez la table.

  4. Dans le volet Détails, dans la section Libellés, assurez-vous que le libellé metadata-managed-mode n'est pas défini sur user_managed. Si la valeur est définie sur user_managed, procédez comme suit :

    1. Cliquez sur Modifier les détails .

    2. À côté de la clé metadata-managed-mode, dans le champ value (valeur), saisissez discovery-managed.

  5. Cliquez sur Exécuter. L'analyse de découverte s'exécute à la demande.

Une fois l'analyse de découverte exécutée, la table BigLake est supprimée dans BigQuery et ne peut pas être listée ni interrogée via Spark.

Exécuter une analyse de découverte à la demande

Pour exécuter une analyse de découverte à la demande, sélectionnez l'une des options suivantes.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte que vous souhaitez exécuter.

  4. Cliquez sur Exécuter maintenant.

gcloud

Pour exécuter une analyse de découverte, utilisez la commande gcloud dataplex datascans run :

gcloud dataplex datascans run DATASCAN \
  --location=LOCATION

Remplacez les variables suivantes :

  • LOCATION : région Google Cloud dans laquelle l'analyse de découverte a été créée.
  • DATASCAN : nom de l'analyse de découverte.

REST

Pour exécuter une analyse de découverte à la demande, utilisez la méthode dataScans.run dans l'API Dataplex.

Lister les analyses de découverte

Pour lister vos analyses de découverte, sélectionnez l'une des options suivantes.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, la liste des analyses de découverte créées dans le projet s'affiche.

gcloud

gcloud dataplex datascans list --location=LOCATION --project=PROJECT_ID

Remplacez les éléments suivants :

  • LOCATION : emplacement de votre projet
  • PROJECT_ID : ID de votre projet Google Cloud

REST

Pour récupérer la liste des analyses de découverte dans votre projet, utilisez la méthode dataScans.list dans l'API Dataplex Universal Catalog.

Afficher une analyse de découverte

Pour afficher une analyse de découverte, sélectionnez l'une des options suivantes.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte dont vous souhaitez afficher les détails.

    • La section Détails de l'analyse affiche des informations sur l'analyse de découverte.
    • La section État de l'analyse affiche les résultats de la dernière tâche d'analyse.

gcloud

gcloud dataplex datascans jobs describe JOB \
    --location=LOCATION \
    --datascan=DATASCAN \
    --view=FULL

Remplacez les éléments suivants :

  • JOB : ID du job d'analyse de découverte.
  • LOCATION : région Google Cloud dans laquelle l'analyse de découverte a été créée.
  • DATASCAN : nom de l'analyse de découverte à laquelle appartient le job.
  • --view=FULL : consultez le résultat du job d'analyse de découverte.

REST

Pour afficher les résultats d'une analyse de découverte de données, utilisez la méthode dataScans.get dans l'API Dataplex Universal Catalog.

Afficher l'historique des résultats d'analyse de découverte

Pour afficher l'historique des résultats d'analyse de la découverte, sélectionnez l'une des options suivantes.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, cliquez sur l'analyse de découverte dont vous souhaitez afficher les détails.

  4. Cliquez sur le volet Historique des analyses. Le volet Historique des analyses fournit des informations sur les tâches précédentes, y compris le nombre d'enregistrements analysés dans chaque tâche, l'état de chaque tâche et l'heure à laquelle les tâches ont été exécutées.

  5. Pour afficher des informations détaillées sur une tâche, cliquez sur la tâche dans la colonne ID de la tâche.

gcloud

gcloud dataplex datascans jobs list \
    --location=LOCATION \
    --datascan=DATASCAN

Remplacez les éléments suivants :

  • LOCATION : région Google Cloud dans laquelle l'analyse de découverte a été créée.
  • DATASCAN : nom de l'analyse de découverte à laquelle appartient le job.

REST

Pour afficher tous les jobs d'une analyse de découverte, utilisez la méthode dataScans.job/list dans l'API Dataplex Universal Catalog.

Mettre à jour une analyse de découverte

Pour modifier la programmation d'une analyse de découverte (par exemple, pour la faire passer d'une programmation à la demande à une programmation récurrente), mettez à jour l'analyse de découverte.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, cliquez sur Actions > Modifier pour la découverte que vous souhaitez mettre à jour.

  4. Modifiez les valeurs.

  5. Cliquez sur Enregistrer.

gcloud

Pour mettre à jour une analyse de découverte, utilisez la commande gcloud dataplex datascans update data-discovery.

gcloud dataplex datascans update data-discovery SCAN_ID --location=LOCATION --description=DESCRIPTION

Remplacez les éléments suivants :

  • SCAN_ID : ID de l'analyse de découverte que vous souhaitez mettre à jour
  • LOCATION : région Google Cloud dans laquelle l'analyse de découverte a été créée
  • DESCRIPTION : nouvelle description de l'analyse de découverte

REST

Pour mettre à jour une analyse de découverte, utilisez la méthode dataScans.patch dans l'API Dataplex Universal Catalog.

Supprimer une analyse de découverte

Pour supprimer une analyse de découverte, sélectionnez l'une des options suivantes.

Console

  1. Dans la console Google Cloud , accédez à la page BigQuery.

    Accéder à BigQuery

  2. Dans le menu de navigation, cliquez sur Gouvernance > Curation des métadonnées.

  3. Dans le volet Découverte Cloud Storage, cliquez sur Actions > Supprimer pour l'analyse de découverte que vous souhaitez supprimer.

  4. Cliquez sur Supprimer.

gcloud

gcloud dataplex datascans delete SCAN_ID --location=LOCATION --async

Remplacez les éléments suivants :

  • SCAN_ID : ID de l'analyse de découverte que vous souhaitez supprimer.
  • LOCATION : région Google Cloud dans laquelle l'analyse de découverte a été créée.

REST

Pour supprimer une analyse de découverte, utilisez la méthode dataScans.delete de l'API Dataplex Universal Catalog.