Créer et utiliser des analyses de profil de données

Cette page explique comment créer une analyse de profil de données à l'aide de la consoleGoogle Cloud , de Google Cloud CLI ou de l'API REST.

Pour en savoir plus sur les analyses de profil de données Dataplex Universal Catalog, consultez À propos du profilage de données.

Avant de commencer

Dans la console Google Cloud , activez l'API Dataplex.

Activer l'API

Autorisations

Pour profiler des tables BigQuery, vous devez disposer des autorisations suivantes :

  • Pour exécuter une analyse de profil de données sur une table BigQuery, vous devez disposer de l'autorisation de lire la table BigQuery et de créer une tâche BigQuery dans le projet utilisé pour analyser la table.

  • Si la table BigQuery et l'analyse du profil de données se trouvent dans des projets différents, vous devez attribuer au compte de service Dataplex Universal Catalog l'autorisation de lecture sur la table BigQuery correspondante.

  • Si les données BigQuery sont organisées dans un lac Dataplex Universal Catalog, vous avez besoin des rôles Dataplex Universal Catalog roles/dataplex.metadataReader et roles/dataplex.viewer pour créer une analyse de profil de données. Cela accorde les autorisations suivantes :

    • dataplex.lakes.list
    • dataplex.lakes.get
    • dataplex.zones.list
    • dataplex.zones.get
    • dataplex.entities.list
    • dataplex.entities.get
    • dataplex.operations.get
  • Si vous analysez une table externe BigQuery à partir de Cloud Storage, attribuez au compte de service Dataplex Universal Catalog le rôle Lecteur des objets Storage (roles/storage.objectViewer) ou les autorisations suivantes pour le bucket :

    • storage.buckets.get
    • storage.objects.get
  • Si vous souhaitez publier les résultats de l'analyse du profil de données sur les pages du catalogue universel BigQuery et Dataplex de la consoleGoogle Cloud pour les tables sources, vous devez disposer du rôle IAM Éditeur de données BigQuery (roles/bigquery.dataEditor) sur la table. Sinon, vous devez disposer de toutes les autorisations suivantes :

    • bigquery.tables.get
    • bigquery.tables.update
    • bigquery.tables.updateData
    • bigquery.tables.delete
  • Pour exporter les résultats de l'analyse vers une table BigQuery, votre compte de service Dataplex Universal Catalog doit disposer du rôle Éditeur de données BigQuery (roles/bigquery.dataEditor). Cela accorde les autorisations suivantes :

    • bigquery.datasets.get
    • bigquery.tables.create
    • bigquery.tables.get
    • bigquery.tables.getData
    • bigquery.tables.update
    • bigquery.tables.updateData
  • Si vous devez accéder à des colonnes protégées par des règles d'accès au niveau des colonnes BigQuery, attribuez au compte de service Dataplex Universal Catalog les autorisations pour ces colonnes. L'utilisateur qui crée ou met à jour une analyse de données doit également disposer d'autorisations pour les colonnes.

  • Si des règles d'accès BigQuery au niveau des lignes sont activées pour une table, vous ne pouvez analyser que les lignes visibles par le compte de service Dataplex Universal Catalog. Notez que les droits d'accès de chaque utilisateur ne sont pas évalués pour les règles au niveau des lignes.

Rôles et autorisations d'analyse des données

Pour utiliser le profilage des données, un administrateur de projet attribue un rôle prédéfini avec des autorisations déjà accordées ou accorde des autorisations individuelles. Voici les rôles :

  • roles/dataplex.dataScanAdmin : accès complet aux ressources DataScan.
  • roles/dataplex.dataScanEditor : accès en écriture aux ressources DataScan.
  • roles/dataplex.dataScanViewer : accès en lecture aux ressources DataScan, à l'exclusion des résultats.
  • roles/dataplex.dataScanDataViewer : accès en lecture aux ressources DataScan, y compris aux résultats.

Le tableau suivant répertorie les autorisations d'analyse des données :

Nom de l'autorisation Accorde l'autorisation d'effectuer les opérations suivantes :
dataplex.datascans.create Créer un objet DataScan
dataplex.datascans.delete Supprimer un objet DataScan
dataplex.datascans.get Afficher les détails de DataScan, à l'exclusion des résultats
dataplex.datascans.getData Afficher les détails de DataScan, y compris les résultats
dataplex.datascans.list Lister les DataScan
dataplex.datascans.run Exécuter un DataScan
dataplex.datascans.update Mettre à jour la description d'un DataScan
dataplex.datascans.getIamPolicy Afficher les autorisations IAM actuelles sur l'analyse
dataplex.datascans.setIamPolicy Définir les autorisations IAM sur l'analyse

Créer une analyse de profil de données

Console

  1. Dans la console Google Cloud , accédez à la page Profil.

    Accéder au profil Dataplex Universal Catalog

  2. Cliquez sur Créer une analyse de profil de données.

  3. Saisissez un nom à afficher.

  4. Pour modifier l'ID d'analyse généré automatiquement, fournissez le vôtre. Consultez la convention d'attribution de noms aux ressources.

  5. Facultatif : saisissez une Description.

  6. Dans le champ Table, cliquez sur Parcourir.

  7. Sélectionnez un tableau, puis cliquez sur Sélectionner.

  8. Dans le champ Champ d'application, sélectionnez Incrémentiel ou Intégralité des données.

    • Si vous sélectionnez Données incrémentielles, dans le champ Colonne d'horodatage, sélectionnez une colonne de type DATE ou TIMESTAMP dans votre table BigQuery, qui augmente de façon linéaire et permet d'identifier de nouveaux enregistrements. Pour les tables partitionnées sur une colonne de type DATE ou TIMESTAMP, nous vous recommandons d'utiliser la colonne de partition comme champ d'horodatage.
  9. Pour appliquer l'échantillonnage à l'analyse de profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.

    • Choisissez un pourcentage compris entre 0,0 % et 100,0 %, avec un maximum de trois chiffres après la virgule.
    • Pour les ensembles de données plus volumineux, choisissez un pourcentage d'échantillonnage plus faible. Par exemple, pour une table d'environ 1 PB, si vous saisissez une valeur comprise entre 0,1 % et 1 %, Dataplex Universal Catalog échantillonne entre 1 et 10 To de données.
    • Vous devez disposer d'au moins 100 enregistrements dans les données échantillonnées pour obtenir un résultat.
    • Pour les analyses de données incrémentielles, Dataplex Universal Catalog applique l'échantillonnage au dernier incrément.
  10. Pour filtrer par ligne, cliquez sur Filtres, puis sélectionnez Filtrer les lignes.

    • Saisissez une expression SQL valide pouvant être utilisée dans une clause WHERE en syntaxe GoogleSQL. Par exemple : col1 >= 0.

    • Le filtre peut être une combinaison de conditions SQL sur plusieurs colonnes. Exemple : col1 >= 0 AND col2 < 10.

  11. Facultatif : Cliquez sur Filtres. Cochez la case Filtrer les colonnes.

    a. Dans le champ Inclure les colonnes, cliquez sur Parcourir.

    • Spécifiez les colonnes à inclure dans l'analyse du profil. Cochez les cases des colonnes de votre choix, puis cliquez sur Sélectionner.

    b. Dans le champ Exclure des colonnes, cliquez sur Parcourir.

    • Spécifiez les colonnes à exclure de l'analyse du profil. Cochez les cases des colonnes de votre choix, puis cliquez sur Sélectionner.
  12. Facultatif : Publiez les résultats de l'analyse du profil de données sur les pages BigQuery et Dataplex Universal Catalog de la consoleGoogle Cloud pour la table source. Cochez la case Publier les résultats dans les interfaces utilisateur de BigQuery et de Dataplex Catalog.

    Vous pouvez consulter les derniers résultats de l'analyse dans l'onglet Profil de données des pages BigQuery et Dataplex Universal Catalog pour la table source. Pour permettre aux utilisateurs d'accéder aux résultats d'analyse publiés, consultez Partager les résultats publiés.

    L'option de publication peut ne pas être disponible dans les cas suivants :

    • Vous ne disposez pas des autorisations requises pour le tableau.
    • Une autre analyse de la qualité des données est configurée pour publier les résultats.

    Pour en savoir plus sur les autorisations requises pour afficher les résultats publiés, consultez Autorisations.

  13. Facultatif : exportez les résultats de l'analyse vers une table BigQuery standard. Cliquez sur Parcourir pour sélectionner un ensemble de données BigQuery existant dans lequel stocker les résultats de l'analyse du profil de données.

    Si la table spécifiée n'existe pas, Dataplex Universal Catalog la crée pour vous. Si vous utilisez une table existante, assurez-vous qu'elle est compatible avec le schéma de table décrit plus loin dans cette section.

  14. Facultatif : Ajoutez des libellés. Les étiquettes sont des paires key:value qui vous permettent de regrouper des objets associés ou de les combiner à d'autres ressources Google Cloud .

  15. Sous Options de programmation, choisissez l'une des options suivantes :

    • Répéter : exécutez votre tâche d'analyse du profil de données selon une planification quotidienne, hebdomadaire, mensuelle ou personnalisée. Spécifiez la fréquence et l'heure d'exécution de l'analyse. Si vous choisissez "Personnalisée", utilisez le format cron pour spécifier la planification.

    • À la demande : créez votre analyse de profil de données et exécutez-la à tout moment à l'aide de l'action "Exécuter maintenant".

  16. Cliquez sur Créer.

gcloud

Pour créer une analyse du profil de données, exécutez la commande suivante :

gcloud dataplex datascans create data-profile DATASCAN \
--location=LOCATION \
--data-source-entity=DATA_SOURCE_ENTITY
| --data-source-resource=DATA_SOURCE_RESOURCE

Remplacez les variables suivantes :

  • DATASCAN : nom de l'analyse du profil de données.
  • LOCATION : région Google Cloud dans laquelle créer l'analyse du profil de données.
  • DATA_SOURCE_ENTITY : entité Dataplex Universal Catalog contenant les données de l'analyse du profil de données. Exemple : projects/test-project/locations/test-location/lakes/test-lake/zones/test-zone/entities/test-entity.
  • DATA_SOURCE_RESOURCE : nom de la ressource contenant les données pour l'analyse du profil de données. Exemple : //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez l'APIs Explorer pour créer une analyse de profilage des données.

Créer plusieurs analyses de profils de données

Console

  1. Dans la console Google Cloud, accédez à la page Profil.

    Accéder au profil Dataplex Universal Catalog

  2. Cliquez sur Créer plusieurs analyses de profil.

  3. Saisissez un préfixe d'ID. Dataplex Universal Catalog génère automatiquement des ID d'analyse en utilisant le préfixe fourni et des suffixes uniques.

  4. Saisissez une Description pour toutes les analyses de profil de données.

  5. Dans le champ Ensemble de données, cliquez sur Parcourir. Sélectionnez un ensemble de données dans lequel choisir des tables. Cliquez sur Sélectionner.

  6. Si l'ensemble de données est multirégional, sélectionnez une région dans laquelle créer les analyses de profil de données.

  7. Sélectionnez Options de configuration courantes :

    1. Dans le champ Champ d'application, sélectionnez Incrémentiel ou Intégralité des données.

    2. Pour appliquer l'échantillonnage à vos analyses de profil de données, sélectionnez un pourcentage d'échantillonnage dans la liste Taille d'échantillonnage.

      Choisissez une valeur en pourcentage comprise entre 0,0 % et 100,0 %, avec un maximum de trois chiffres après la virgule.

    3. Pour afficher les résultats de toutes les analyses, sélectionnez Publication. Vous pouvez afficher les résultats dans l'onglet Profil des détails de la table BigQuery ou Dataplex Universal Catalog. Assurez-vous de disposer des autorisations bigquery.tables.update sur les tables sources.

    4. Sous Options de programmation, choisissez l'une des options suivantes :

      1. Répéter : exécutez vos jobs d'analyse de profil de données de manière planifiée. Indiquez la fréquence d'exécution de l'analyse (quotidienne, hebdomadaire, mensuelle ou personnalisée) et l'heure. Si vous choisissez "Personnalisé", utilisez le format cron pour spécifier la planification.

      2. À la demande : créez vos jobs d'analyse de profil de données et exécutez-les à tout moment en cliquant sur Exécuter.

  8. Dans l'option Choisir des tables, cliquez sur Parcourir. Choisissez un ou plusieurs tableaux à analyser. Cliquez sur Sélectionner.

  9. Sélectionnez Paramètres supplémentaires :

    1. Pour enregistrer les résultats de vos analyses de profil de données dans une table BigQuery de votre choix, sélectionnez une table dans Exporter les résultats d'analyse vers une table BigQuery. Dataplex Universal Catalog copie et enregistre automatiquement les résultats dans cette table pour chaque job d'analyse.

      1. Cliquez sur Parcourir pour sélectionner un ensemble de données.

      2. Saisissez une table BigQuery dans laquelle enregistrer les résultats. Il peut s'agir d'une table existante, utilisée par d'autres analyses de profil de données Dataplex Universal Catalog pour enregistrer les résultats. Si aucune table portant le nom spécifié n'existe, Dataplex Universal Catalog la crée.

    2. Ajoutez des libellés pour annoter votre analyse de profil de données.

  10. Cliquez sur Exécuter l'analyse pour créer et exécuter toutes les analyses. Cette option n'est disponible que pour les analyses à la demande.

  11. Cliquez sur Créer pour créer toutes les analyses.

gcloud

Non compatible

REST

Non compatible

Exporter le schéma de table

Si vous souhaitez exporter les résultats de l'analyse du profil de données vers une table BigQuery existante, assurez-vous qu'elle est compatible avec le schéma de table suivant :

Nom de la colonne Type de données de la colonne Nom du sous-champ
(le cas échéant)
Type de données du sous-champ Mode Exemple
data_profile_scan struct/record resource_name string nullable //dataplex.googleapis.com/projects/test-project/locations/europe-west2/datascans/test-datascan
project_id string nullable test-project
location string nullable us-central1
data_scan_id string nullable test-datascan
data_source struct/record resource_name string nullable Cas d'entité :
//dataplex.googleapis.com/projects/test-project/locations/europe-west2/lakes/test-lake/zones/test-zone/entities/test-entity

Cas du tableau : //bigquery.googleapis.com/projects/test-project/datasets/test-dataset/tables/test-table
dataplex_entity_project_id string nullable test-project
dataplex_entity_project_number integer nullable 123456789012
dataplex_lake_id string nullable (Valable uniquement si la source est une entité)
test-lake
dataplex_zone_id string nullable (Valable uniquement si la source est une entité)
test-zone
dataplex_entity_id string nullable (Valable uniquement si la source est une entité)
test-entity
table_project_id string nullable dataplex-table
table_project_number int64 nullable 345678901234
dataset_id string nullable (Valide uniquement si la source est une table)
test-dataset
table_id string nullable (Valide uniquement si la source est une table)
test-table
data_profile_job_id string nullable caeba234-cfde-4fca-9e5b-fe02a9812e38
data_profile_job_configuration json trigger string nullable ondemand/schedule
incremental boolean nullable true/false
sampling_percent float nullable (0-100)
20.0 (indique 20 %)
row_filter string nullable col1 >= 0 AND col2 < 10
column_filter json nullable {"include_fields":["col1","col2"], "exclude_fields":["col3"]}
job_labels json nullable {"key1":value1}
job_start_time timestamp nullable 2023-01-01 00:00:00 UTC
job_end_time timestamp nullable 2023-01-01 00:00:00 UTC
job_rows_scanned integer nullable 7500
column_name string nullable column-1
column_type string nullable string
column_mode string nullable repeated
percent_null float nullable (0.0-100.0)
20.0 (indique 20 %)
percent_unique float nullable (0.0-100.0)
92.5
min_string_length integer nullable (Valide uniquement si le type de colonne est une chaîne)
10
max_string_length integer nullable (Valide uniquement si le type de colonne est une chaîne)
4
average_string_length float nullable (Valide uniquement si le type de colonne est une chaîne)
7.2
min_value float nullable (Valable uniquement si le type de colonne est numérique : entier/float)
max_value float nullable (Valable uniquement si le type de colonne est numérique : entier/float)
average_value float nullable (Valable uniquement si le type de colonne est numérique : entier/float)
standard_deviation float nullable (Valable uniquement si le type de colonne est numérique : entier/float)
quartile_lower integer nullable (Valable uniquement si le type de colonne est numérique : entier/float)
quartile_median integer nullable (Valable uniquement si le type de colonne est numérique : entier/float)
quartile_upper integer nullable (Valable uniquement si le type de colonne est numérique : entier/float)
top_n struct/record - repeated value string nullable "4009"
count integer nullable 20
percent float nullable 10 (indique 10 %)

Configurer l'exportation de tableaux

Lorsque vous exportez des données vers des tables BigQueryExport, suivez ces consignes :

  • Pour le champ resultsTable, utilisez le format suivant : //bigquery.googleapis.com/projects/{project-id}/datasets/{dataset-id}/tables/{table-id}.
  • Utilisez une table BigQuery standard.
  • Si la table n'existe pas lorsque l'analyse est créée ou mise à jour, Dataplex Universal Catalog la crée pour vous.
  • Par défaut, la table est partitionnée quotidiennement sur la colonne job_start_time.
  • Si vous souhaitez que la table soit partitionnée dans d'autres configurations ou si vous ne souhaitez pas la partition, recréez la table avec le schéma et les configurations requis, puis fournissez la table précréée en tant que table de résultats.
  • Assurez-vous que la table de résultats se trouve au même emplacement que la table source.
  • Si le VPC-SC est configuré dans le projet, le tableau de résultats doit se trouver dans le même périmètre VPC-SC que le tableau source.
  • Si la table est modifiée lors de l'étape d'exécution de l'analyse, le job en cours d'exécution est exporté vers la table de résultats précédente et la modification de la table prend effet à partir du prochain job d'analyse.
  • Ne modifiez pas le schéma de la table. Si vous avez besoin de colonnes personnalisées, créez une vue sur la table.
  • Pour réduire les coûts, définissez une date d'expiration pour la partition en fonction de votre cas d'utilisation. Pour en savoir plus, consultez la section Définir le délai d'expiration de la partition.

Exécuter une analyse de profil de données

Console

  1. Dans la console Google Cloud , accédez à la page Profil du catalogue universel Dataplex. Accéder à votre profil
  2. Cliquez sur l'analyse du profil de données à exécuter.
  3. Cliquez sur Exécuter maintenant.

gcloud

Pour exécuter une analyse du profil de données, exécutez la commande suivante :

gcloud dataplex datascans run DATASCAN \
--location=LOCATION

Remplacez les variables suivantes :

  • DATASCAN : nom de l'analyse du profil de données.
  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez APIs Explorer pour exécuter l'analyse de profil de vos données.

Afficher les résultats du job d'analyse de profil de données

Console

Toutes les analyses de profil de données que vous créez s'affichent sur la page Profil.

Pour afficher les résultats détaillés d'une analyse, cliquez sur son nom.

  • La section Aperçu affiche les exécutions d'analyse, la durée de chaque exécution, le nombre d'enregistrements de table analysés et l'état du job.

  • La section Configuration de l'analyse du profil contient des informations détaillées sur l'analyse.

gcloud

Pour afficher les résultats d'un job d'analyse de profil de données, exécutez la commande suivante :

gcloud dataplex datascans jobs describe JOB \
--location=LOCATION \
--datascan=DATASCAN \
--view=FULL

Remplacez les variables suivantes :

  • JOB : ID du job d'analyse du profil de données.
  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.
  • DATASCAN : nom de l'analyse du profil de données à laquelle appartient le job.
  • --view=FULL : pour afficher le résultat du job d'analyse, spécifiez FULL.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez APIs Explorer pour afficher les résultats d'une analyse de profil de données.

Afficher le job d'analyse de profil de données le plus récent

Console

L'onglet Derniers résultats de la tâche fournit des informations sur la dernière tâche, lorsqu'au moins une exécution a été effectuée avec succès. Il liste les colonnes de la table analysée et les statistiques sur les colonnes trouvées lors de l'analyse.

gcloud

Pour afficher la dernière analyse de profil de données réussie, exécutez la commande suivante :

gcloud dataplex datascans describe DATASCAN \
--location=LOCATION \
--view=FULL

Remplacez les variables suivantes :

  • DATASCAN : nom de l'analyse du profil de données pour laquelle afficher le job le plus récent.
  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.
  • --view=FULL : pour afficher le résultat du job d'analyse, spécifiez FULL.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez APIs Explorer pour afficher la tâche d'analyse la plus récente.

Afficher tous les jobs d'analyse de profil de données

Dataplex Universal Catalog enregistre l'historique des analyses de profil de données des 300 derniers jobs ou de la dernière année, selon la première échéance.

Console

L'onglet Historique des jobs fournit des informations sur les jobs passés. Il liste tous les jobs, le nombre d'enregistrements analysés dans chaque job, l'état du job, la durée d'exécution du job, etc.

Pour afficher des informations détaillées sur une tâche, cliquez sur l'une des tâches sous ID de la tâche.

gcloud

Pour afficher tous les jobs d'analyse d'un profil de données, exécutez la commande suivante :

gcloud dataplex datascans jobs list \
--location=LOCATION \
--datascan=DATASCAN

Remplacez les variables suivantes :

  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.
  • DATASCAN : nom de l'analyse du profil de données pour laquelle afficher tous les jobs.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez APIs Explorer pour afficher tous les jobs d'analyse.

Partager les résultats publiés

Lorsque vous créez une analyse de profil de données, si vous choisissez de publier les résultats de l'analyse sur les pages BigQuery et Dataplex Universal Catalog de la consoleGoogle Cloud , les derniers résultats de l'analyse seront disponibles dans l'onglet Profil de données de ces pages.

Vous pouvez autoriser les utilisateurs de votre organisation à accéder aux résultats d'analyse publiés. Pour accorder l'accès aux résultats de l'analyse, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Profil.

    Accéder au profil Dataplex Universal Catalog

  2. Cliquez sur l'analyse du profil de données dont vous souhaitez partager les résultats.

  3. Accédez à l'onglet Autorisations.

  4. Cliquez sur Accorder l'accès.

  5. Dans le champ Nouveaux comptes principaux, ajoutez le compte principal auquel vous souhaitez accorder l'accès.

  6. Dans le champ Sélectionner un rôle, sélectionnez Lecteur de données Dataplex Universal Catalog DataScan.

  7. Cliquez sur Enregistrer.

Pour supprimer l'accès aux résultats d'analyse publiés pour un compte principal, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Profil.

    Accéder au profil Dataplex Universal Catalog

  2. Cliquez sur l'analyse du profil de données dont vous souhaitez partager les résultats.

  3. Accédez à l'onglet Autorisations.

  4. Sélectionnez le compte principal pour lequel vous souhaitez supprimer le rôle Lecteur de données Dataplex Universal Catalog DataScan.

  5. Cliquez sur Supprimer l'accès.

  6. Cliquez sur Confirmer.

Mettre à jour une analyse de profil de données

Console

  1. Dans la console Google Cloud , accédez à la page Profil.

    Accéder au profil Dataplex Universal Catalog

  2. Sur la ligne de l'analyse que vous souhaitez modifier, cliquez sur > Modifier.

  3. Modifiez les valeurs.

  4. Cliquez sur Enregistrer.

gcloud

Pour mettre à jour une analyse de profil de données, exécutez la commande suivante :

gcloud dataplex datascans update data-profile DATASCAN \
--location=LOCATION \
--description=DESCRIPTION

Remplacez les variables suivantes :

  • DATASCAN : nom de l'analyse du profil de données à mettre à jour.
  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.
  • DESCRIPTION : nouvelle description de l'analyse du profil de données.

Pour connaître les champs de spécification à mettre à jour, consultez la documentation de référence de gcloud CLI.

REST

Utilisez l'APIs Explorer pour modifier une analyse du profil de données.

Supprimer une analyse de profil de données

Console

  1. Dans la console Google Cloud , accédez à la page Profil. Accédez au profil Dataplex Universal Catalog.

  2. Cliquez sur l'analyse que vous souhaitez supprimer.

  3. Cliquez sur Supprimer.

gcloud

Pour supprimer une analyse de profil de données, exécutez la commande suivante :

gcloud dataplex datascans delete \
DATASCAN --location=LOCATION \
--async

Remplacez les variables suivantes :

  • DATASCAN : nom de l'analyse du profil de données à supprimer.
  • LOCATION : région Google Cloud dans laquelle l'analyse du profil de données a été créée.

Pour les arguments facultatifs, consultez la documentation de référence de gcloud CLI.

REST

Utilisez APIs Explorer pour supprimer l'analyse de votre profil de données.

Étape suivante