Configurer des buckets de journaux

Ce document explique comment créer et gérer des buckets Cloud Logging à l'aide de la console Google Cloud , de la CLI Google Cloud et de l'API Logging. Il fournit également des instructions pour créer et gérer des buckets de journaux au niveau du projetGoogle Cloud . Vous ne pouvez pas créer de buckets de journaux au niveau du dossier ni de l'organisation. Toutefois, Cloud Logging crée automatiquement les buckets de journaux _Default et _Required au niveau du dossier et de l'organisation pour vous.

Vous pouvez mettre à niveau les buckets de journaux pour utiliser l'analyse de journaux. L'Analyse de journaux vous permet d'exécuter des requêtes SQL sur vos données de journaux, ce qui vous aide à résoudre les problèmes liés aux applications, à la sécurité et au réseau.

Pour utiliser BigQuery afin d'analyser vos données de journaux, vous avez deux possibilités :

  • Mettez à niveau un bucket de journaux pour utiliser l'analyse de journaux, puis créez un ensemble de données BigQuery associé. Dans ce scénario, Logging stocke vos données de journaux, mais BigQuery peut les lire.

  • Exporter vos entrées de journaux vers BigQuery Dans ce scénario, vous devez créer un récepteur. BigQuery stocke et gère les données, et vous avez la possibilité d'utiliser des tables partitionnées.

Lorsque vos données de journaux sont disponibles dans BigQuery, vous pouvez les joindre à d'autres données stockées dans BigQuery. Vous pouvez également accéder à ces données depuis d'autres outils tels que Looker Studio et Looker.

Pour obtenir une présentation des concepts liés aux buckets, consultez la page Présentation du routage et du stockage : buckets de journaux.

Ce document ne décrit pas comment créer un bucket de journaux qui utilise une clé de chiffrement gérée par le client (CMEK). Si ce sujet vous intéresse, consultez Configurer des clés CMEK pour le stockage des journaux.

Avant de commencer

Pour faire vos premiers pas avec les buckets, procédez comme suit :

Créer un bucket

Vous pouvez créer au maximum 100 buckets par projetGoogle Cloud .

Pour créer un bucket de journaux défini par l'utilisateur pour votre projet Google Cloud , procédez comme suit :

Console Google Cloud

Pour créer un bucket de journaux dans votre projet Google Cloud , procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Cliquez sur Créer un bucket de journaux.

  3. Saisissez un Nom et une Description pour votre bucket.

  4. Facultatif : Mettez à niveau votre bucket pour utiliser l'Analyse de journaux.

    1. Sélectionnez Effectuez la mise à niveau pour utiliser l'Analyse de journaux.

      Lorsque vous mettez à niveau un bucket pour utiliser l'analyse de journaux, vous pouvez interroger vos journaux sur la page Analyse de journaux à l'aide de requêtes SQL. Vous pouvez également continuer à afficher vos journaux à l'aide de l'explorateur de journaux.

    2. Facultatif : Pour afficher vos journaux dans BigQuery, sélectionnez Créer un ensemble de données BigQuery lié à ce bucket et saisissez un nom d'ensemble de données unique.

      Lorsque vous sélectionnez cette option, BigQuery peut lire les données stockées dans votre bucket de journaux. Vous pouvez désormais effectuer des requêtes dans l'interface BigQuery, où vous pouvez joindre vos données de journaux et accéder aux données d'autres outils tels que Looker Studio et Looker.

  5. Facultatif : Pour sélectionner la région de stockage de vos journaux, cliquez sur le menu Sélectionner la région du bucket de journaux et sélectionnez une région. Si vous ne sélectionnez pas de région, la région global est utilisée, ce qui signifie que les journaux peuvent se trouver physiquement dans n'importe quelle région compatible.

  6. Facultatif : Pour définir une durée de conservation personnalisée pour les journaux du bucket, cliquez sur Suivant.

    Dans le champ Durée de conservation, saisissez le nombre de jours (compris entre 1 et 3 650 jours) pendant lesquels vous souhaitez que Cloud Logging conserve vos journaux. Si vous ne personnalisez pas la durée de conservation, la valeur par défaut est 30 days.

    Vous pouvez également mettre à jour votre bucket pour appliquer une conservation personnalisée après sa création.

  7. Cliquez sur Créer un bucket.

    Une fois le bucket de journaux créé, Logging le met à niveau et crée le lien vers l'ensemble de données, si ces options ont été sélectionnées.

    L'exécution de ces étapes peut prendre un moment.

gcloud

Pour créer un bucket de journaux uniquement, exécutez la commande gcloud logging buckets create. Si vous souhaitez mettre à niveau le bucket de journaux pour utiliser l'Analyse de journaux, incluez les indicateurs --enable-analytics et --async, et assurez-vous de définir la variable LOCATION sur une région acceptée :

gcloud logging buckets create BUCKET_ID --location=LOCATION --enable-analytics --async OPTIONAL_FLAGS

L'option --async force la commande à être asynchrone. Le retour d'une méthode asynchrone est un objet Operation. Il contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

Si vous ne souhaitez pas mettre à niveau le bucket de journaux pour utiliser l'Analyse de journaux, omettez les indicateurs --enable-analytics et --async.

Par exemple, si vous souhaitez créer un bucket avec l'élément BUCKET_ID my-bucket dans la région global, votre commande se présente comme suit :

gcloud logging buckets create my-bucket --location global --description "My first bucket"

Par exemple, pour créer un bucket avec l'élément BUCKET_ID my-upgraded-bucket dans l'emplacement global, puis mettre à niveau le bucket de journaux pour utiliser l'analyse de journaux, votre commande se présente comme suit :

gcloud logging buckets create my-upgraded-bucket --location global \
      --description "My first upgraded bucket" \
      --enable-analytics --retention-days=45

REST

Pour créer un bucket, utilisez la méthode projects.locations.buckets.create ou projects.locations.buckets.createAsync. Préparez les arguments de la méthode comme suit :

  1. Définissez le paramètre parent sur la ressource dans laquelle créer le bucket : projects/PROJECT_ID/locations/LOCATION

    La variable LOCATION fait référence à la région dans laquelle vous souhaitez stocker vos journaux.

    Par exemple, si vous souhaitez créer un bucket pour le projet my-project dans la région global, votre paramètre parent se présentera comme suit : projects/my-project/locations/global.

  2. Définissez le paramètre bucketId (par exemple, my-bucket).

  3.  Effectuez l'une des opérations suivantes :

    • Pour créer un bucket de journaux, puis le mettre à niveau pour utiliser l'Analyse de journaux :

      1. Définissez le booléen LogBucket.analyticsEnabled sur true.

      2. Appelez la méthode asynchrone projects.locations.buckets.createAsync pour créer le bucket.

        La réponse aux méthodes asynchrones est un objet Operation. Cet objet contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

        L'exécution de la méthode createAsync prend plusieurs minutes. Cette méthode ne génère pas de message d'erreur ni n'échoue lorsque le booléen analyticsEnabled est défini sur true.

    • Sinon, appelez la méthode synchrone projects.locations.buckets.create pour créer le bucket.

Après avoir créé un bucket, créez un récepteur pour y acheminer les entrées de journal et configurez les vues des journaux pour contrôler les utilisateurs autorisés à accéder aux journaux de votre nouveau bucket et les journaux qu'ils peuvent consulter. Vous pouvez également mettre à jour le bucket pour configurer la conservation personnalisée et les champs restreints.

Suivre le volume de journaux stockés dans les buckets de journaux

La page Stockage des journaux de la console Google Cloud permet de suivre le volume des données de journaux stockées dans les buckets de journaux :

Dans la console Google Cloud , accédez à la page Stockage des journaux :

Accéder à la page Stockage des journaux

Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

La page Stockage des journaux affiche un récapitulatif des statistiques de votre projetGoogle Cloud  :

Le rapport de statistiques récapitulatif indique la quantité de données de journaux stockées dans les buckets de journaux pour le projet sélectionné.

Les statistiques suivantes sont consignées :

  • Ingestion du mois en cours : quantité de données de journaux stockées par votre projetGoogle Cloud dans des buckets de journaux depuis le premier jour du mois civil en cours.

  • Ingestion du mois précédent : quantité de données de journaux stockées par votre projetGoogle Cloud dans des buckets de journaux au cours du dernier mois civil.

  • Ingestion prévue à la fin du mois : quantité estimée de données de journaux que votre projetGoogle Cloud stockera dans des buckets de journaux à la fin du mois calendaire en cours, en fonction de l'utilisation actuelle.

  • Stockage facturable du mois en cours : quantité de données de journaux conservées pendant plus de 30 jours et facturées.

Les statistiques précédentes n'incluent pas les journaux du bucket _Required. Les journaux de ce bucket ne peuvent pas être exclus ni désactivés.

La page Routeur de journaux de la console Google Cloud vous fournit des outils permettant de réduire les frais de stockage de journaux dans des buckets de journaux ou de stockage dépassant votre attribution mensuelle. Vous pouvez procéder comme suit :

  • Désactivez le stockage des journaux au niveau du bucket.
  • Excluez certaines entrées de journal du stockage dans les buckets de journaux.

Pour en savoir plus, consultez la page Gérer les récepteurs.

Gérer les buckets

Cette section explique comment gérer vos buckets de journaux à l'aide de la Google Cloud CLI ou de la console Google Cloud .

Mettre à jour un bucket

Pour mettre à jour les propriétés de votre bucket, telles que la description ou la durée de conservation, procédez comme suit :

Console Google Cloud

Pour mettre à jour les propriétés de votre bucket, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Pour le bucket que vous souhaitez mettre à jour, cliquez sur Plus.

  3. Cliquez sur Modifier le bucket.

  4. Modifiez votre bucket comme désiré.

  5. Cliquez sur Mettre à jour le bucket.

gcloud

Pour mettre à jour les propriétés de votre bucket, exécutez la commande gcloud logging buckets update :

gcloud logging buckets update BUCKET_ID --location=LOCATION UPDATED_ATTRIBUTES

Exemple :

gcloud logging buckets update my-bucket --location=global --description "Updated description"

REST

Pour mettre à jour les propriétés de votre bucket, utilisez projects.locations.buckets.patch dans l'API Logging.

Mettre à niveau un bucket pour utiliser l'Analyse de journaux

Une fois que vous avez mis à niveau un bucket pour utiliser l'Analyse de journaux, toutes les nouvelles entrées de journal qui arrivent peuvent être analysées dans l'interface de l'Analyse de journaux. Cloud Logging lance également une opération de remplissage, qui vous permet d'analyser les anciennes entrées de journal écrites avant la mise à niveau. Le processus de remplissage peut prendre plusieurs heures. Vous ne pouvez pas annuler une opération de mise à niveau d'un bucket.

Pour mettre à niveau un bucket existant afin d'utiliser l'Analyse de journaux, les restrictions suivantes s'appliquent :

  • Le bucket de journaux a été créé au niveau du projet Google Cloud .
  • Le bucket de journaux est déverrouillé, sauf s'il s'agit du bucket _Required.
  • Aucune mise à jour n'est en attente pour le bucket.

Console Google Cloud

Pour mettre à niveau un bucket existant afin d'utiliser l'Analyse de journaux :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Recherchez le bucket que vous souhaitez mettre à niveau.

  3. Lorsque la colonne Analyse de journaux disponible affiche Mettre à niveau, vous pouvez mettre à niveau le bucket de journaux pour utiliser l'Analyse de journaux. Cliquez sur Mettre à niveau.

    Une boîte de dialogue s'ouvre. Cliquez sur Confirmer.

gcloud

Pour mettre à niveau votre bucket de journaux afin d'utiliser l'analyse de journaux, exécutez la commande gcloud logging buckets update. Vous devez définir l'option --enable-analytics. Nous vous recommandons également d'inclure l'option --async :

gcloud logging buckets update BUCKET_ID --location=LOCATION --enable-analytics --async

L'option --async force la commande à être asynchrone. Le retour d'une méthode asynchrone est un objet Operation, qui contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

REST

Pour mettre à niveau un bucket de journaux afin d'utiliser l'analyse de journaux, utilisez la méthode projects.locations.buckets.updateAsync de l'API Cloud Logging.

Préparez les arguments de la méthode comme suit :

  1. Définissez le booléen LogBucket.analyticsEnabled sur true.
  2. Pour le paramètre de requête de la commande, utilisez updateMask=analyticsEnabled.

La réponse aux méthodes asynchrones est un objet Operation. Cet objet contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

L'updateAsync peut prendre plusieurs minutes.

Si vous souhaitez utiliser les fonctionnalités de BigQuery pour analyser vos données de journaux, mettez à niveau un bucket de journaux pour utiliser l'Analyse de journaux, puis créez un ensemble de données associé. Avec cette configuration, Logging stocke vos données de journaux, mais BigQuery peut les lire.

Console Google Cloud

Pour créer un lien vers un ensemble de données BigQuery pour un bucket de journaux existant, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Localisez le bucket de journaux et vérifiez que la colonne Log Analytics disponible affiche Ouvrir.

    Si la colonne affiche Mettre à niveau, cela signifie que le bucket de journaux n'a pas été mis à niveau pour utiliser l'Analyse de journaux. Configurer l'analyse de journaux :

    1. Cliquez sur Mettre à jour.
    2. Cliquez sur Confirmer dans la boîte de dialogue.

    Une fois la mise à niveau terminée, passez à l'étape suivante.

  3. Sur le bucket de journaux, cliquez sur Plus, puis sur Modifier le bucket.

    La boîte de dialogue Modifier le bucket de journaux s'ouvre.

  4. Sélectionnez Créer un ensemble de données BigQuery associé à ce bucket, puis saisissez le nom du nouvel ensemble de données.

    Le nom de l'ensemble de données doit être unique pour chaque Google Cloud projet. Si vous saisissez le nom d'un ensemble de données existant, l'erreur suivante s'affiche : Dataset name must be unique in the selected region.

  5. Cliquez sur OK, puis sur Mettre à jour le bucket.

    Une fois que Logging affiche le nom de l'ensemble de données associé sur la page Stockage des journaux, BigQuery peut mettre plusieurs minutes à reconnaître l'ensemble de données.

gcloud

Pour créer un ensemble de données associé pour un bucket de journaux mis à niveau pour utiliser l'Analyse de journaux, exécutez la commande gcloud logging links create :

gcloud logging links create LINK_ID --bucket=BUCKET_ID --location=LOCATION

Le LINK_ID que vous fournissez est utilisé comme nom de l'ensemble de données BigQuery. La valeur de ce champ doit être unique pour votre projet Google Cloud .

La commande links create est asynchrone. Le retour d'une méthode asynchrone est un objet Operation, qui contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

L'exécution de la commande links create prend plusieurs minutes.

Par exemple, la commande suivante crée un ensemble de données associé nommé mylink pour le bucket de journaux nommé my-bucket :

gcloud logging links create mylink --bucket=my-bucket --location=global

Le nom de l'ensemble de données doit être unique pour chaque Google Cloud projet. Si vous essayez de créer un ensemble de données portant le même nom qu'un ensemble de données existant, l'erreur suivante s'affiche :

BigQuery dataset with name "LINK_ID" already exists.

Si vous tentez de créer un ensemble de données associé pour un bucket de journaux qui n'a pas été mis à niveau pour utiliser l'Analyse de journaux, l'erreur suivante s'affiche :

A link can only be created for an analytics-enabled bucket.

REST

Pour créer un ensemble de données BigQuery associé à un bucket de journaux existant qui a été mis à niveau pour utiliser l'analyse de journaux, appelez la méthode asynchrone projects.locations.buckets.links.create de l'API Cloud Logging.

Préparez les arguments de la méthode comme suit :

  1. Créez le corps de la requête pour la commande create. Le corps de la requête est mis en forme en tant qu'objet Link.
  2. Pour le paramètre de requête de la commande, utilisez linkId=LINK_ID. Le LINK_ID que vous fournissez est utilisé comme nom de l'ensemble de données BigQuery. La valeur de ce champ doit être unique pour votre projet Google Cloud .

La réponse aux méthodes asynchrones est un objet Operation. Cet objet contient des informations sur la progression de la méthode. Une fois la méthode terminée, l'objet Operation contient l'état. Pour en savoir plus, consultez Méthodes d'API asynchrones.

L'exécution de la méthode links.create prend plusieurs minutes.

Le nom de l'ensemble de données doit être unique pour chaque Google Cloud projet. Si vous essayez de créer un ensemble de données portant le même nom qu'un ensemble de données existant, l'erreur suivante s'affiche :

BigQuery dataset with name "LINK_ID" already exists.

Si vous tentez de créer un ensemble de données associé pour un bucket de journaux qui n'a pas été mis à niveau pour utiliser l'Analyse de journaux, l'erreur suivante s'affiche :

A link can only be created for an analytics-enabled bucket.

Verrouiller un bucket

Lorsque vous verrouillez les mises à jour pour un bucket, vous verrouillez également la règle de conservation du bucket. Une fois qu'une règle de conservation est verrouillée, vous ne pouvez pas supprimer le bucket tant que la durée de conservation de ce dernier n'a pas été atteinte pour toutes les entrée de journal qu'il contient. Si vous souhaitez éviter la suppression accidentelle d'un projet contenant un bucket de journaux verrouillé, ajoutez un privilège au projet. Pour en savoir plus, consultez Protéger les projets à l'aide de privilèges.

Pour empêcher toute personne de mettre à jour ou de supprimer un bucket de journaux, verrouillez-le. Pour verrouiller le bucket, procédez comme suit :

Console Google Cloud

La console Google Cloud ne permet pas de verrouiller un bucket de journaux.

gcloud

Pour verrouiller votre bucket, exécutez la commande gcloud logging buckets update avec l'indicateur --locked :

gcloud logging buckets update BUCKET_ID --location=LOCATION --locked

Exemple :

gcloud logging buckets update my-bucket --location=global --locked

REST

Pour verrouiller les attributs de votre bucket, utilisez projects.locations.buckets.patch dans l'API Logging. Définissez le paramètre locked sur true.

Répertorier les buckets

Pour répertorier les buckets de journaux associés à un projet Google Cloud et afficher des détails tels que les paramètres de conservation, procédez comme suit :

Console Google Cloud

Dans la console Google Cloud , accédez à la page Stockage des journaux :

Accéder à la page Stockage des journaux

Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

Un tableau intitulé Buckets de journaux liste les buckets associés au projetGoogle Cloud actuel.

La table répertorie les attributs suivants pour chaque bucket de journaux :

  • Nom : nom du bucket de journaux.
  • Description : description du bucket.
  • Durée de conservation : nombre de jours pendant lesquels les données du bucket seront stockées par Cloud Logging.
  • Région : emplacement géographique où les données du bucket sont stockées.
  • État : indique si le bucket est verrouillé ou non.

Si un bucket est en attente de suppression par Cloud Logging, son entrée de table est annotée avec un symbole d'avertissement .

gcloud

Exécutez la commande gcloud logging buckets list :

gcloud logging buckets list

Les attributs suivants s'affichent pour les buckets de journaux :

  • LOCATION : région dans laquelle les données du bucket sont stockées.
  • BUCKET_ID : nom du bucket de journaux.
  • RETENTION_DAYS : nombre de jours pendant lesquels les données du bucket seront stockées par Cloud Logging.
  • LIFECYCLE_STATE : indique si le bucket est en attente de suppression par Cloud Logging.
  • LOCKED : indique si le bucket est verrouillé ou non.
  • CREATE_TIME : horodatage indiquant la date de création du bucket.
  • UPDATE_TIME : horodatage indiquant la date de la dernière modification du bucket.

Vous pouvez également afficher les attributs d'un seul bucket. Par exemple, pour afficher les détails du bucket de journaux _Default dans la région global, exécutez la commande gcloud logging buckets describe :

gcloud logging buckets describe _Default --location=global

REST

Pour répertorier les buckets de journaux associés à un projet Google Cloud , utilisez projects.locations.buckets.list dans l'API Logging.

Afficher les détails d'un bucket

Pour afficher les détails d'un seul bucket de journaux, procédez comme suit :

Console Google Cloud

Dans la console Google Cloud , accédez à la page Stockage des journaux :

Accéder à la page Stockage des journaux

Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

Dans le bucket de journaux, cliquez sur Plus, puis sélectionnez Afficher les détails du bucket.

La boîte de dialogue répertorie les attributs suivants pour le bucket de journaux :

  • Nom : nom du bucket de journaux.
  • Description : description du bucket de journaux.
  • Durée de conservation : nombre de jours pendant lesquels les données du bucket seront stockées par Cloud Logging.
  • Région : emplacement géographique où les données du bucket sont stockées.
  • Analyse de journaux : indique si votre bucket a été mis à niveau pour utiliser l'Analyse de journaux.
  • Analyse BigQuery : indique si un ensemble de données BigQuery est associé à votre bucket.
  • Ensemble de données BigQuery : fournit un lien vers votre ensemble de données BigQuery, qui s'ouvre sur la page BigQuery Studio. La date à laquelle l'association à BigQuery a été activée est également indiquée.

gcloud

Exécutez la commande gcloud logging buckets describe.

Par exemple, la commande suivante affiche les détails du bucket _Default :

gcloud logging buckets describe _Default --location=global

Les attributs suivants s'affichent pour le bucket de journaux :

  • createTime : horodatage indiquant la date de création du bucket.
  • description : description du bucket de journaux.
  • lifecycleState : indique si le bucket est en attente de suppression par Cloud Logging.
  • name : nom du bucket de journaux.
  • retentionDays : nombre de jours pendant lesquels les données du bucket seront stockées par Cloud Logging.
  • updateTime : horodatage indiquant la date de la dernière modification du bucket.

REST

Pour afficher les détails d'un seul bucket de journaux, utilisez projects.locations.buckets.get dans l'API Logging.

Supprimer un bucket

Vous pouvez supprimer les buckets de journaux qui répondent à l'un des critères suivants :

  • Le bucket de journaux est déverrouillé.
  • Le bucket de journaux est verrouillé et toutes les entrées de journal qu'il contient ont atteint la durée de conservation du bucket.

Vous ne pouvez pas supprimer un bucket de journaux verrouillé contre les mises à jour lorsqu'il stocke des entrées de journaux qui n'ont pas atteint la date limite de conservation du bucket.

Une fois la commande de suppression émise, le bucket de journaux passe à l'état DELETE_REQUESTED et y reste pendant sept jours. Pendant cette période, Logging continue d'acheminer les journaux vers le bucket de journaux. Pour arrêter l'acheminement des journaux vers le bucket de journaux, supprimez ou modifiez les récepteurs de journaux qui acheminent les entrées de journaux vers le bucket.

Vous ne pouvez pas créer de bucket de journaux portant le même nom qu'un bucket de journaux à l'état DELETE_REQUESTED.

Pour supprimer un bucket de journaux, procédez comme suit :

Console Google Cloud

Pour supprimer un bucket de journaux, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Recherchez le bucket que vous souhaitez supprimer, puis cliquez sur Plus.

  3. Si la colonne Ensemble de données associé dans BigQuery affiche un lien, supprimez l'ensemble de données BigQuery associé :

    1. Cliquez sur Modifier le bucket.

    2. Décochez Créer un ensemble de données BigQuery associé à ce bucket, cliquez sur OK, puis sur Mettre à jour le bucket.

      Une fois de retour sur la page Stockage des journaux, cliquez sur Plus pour le bucket que vous souhaitez supprimer, puis passez aux étapes suivantes.

  4. Cliquez sur Supprimer le bucket.

  5. Dans le panneau de confirmation, cliquez sur Supprimer.

  6. Sur la page Stockage des journaux, un indicateur spécifie que votre bucket est en attente de suppression. Le bucket, y compris tous les journaux qu'il contient, est supprimé au bout de sept jours.

gcloud

Pour supprimer un bucket de journaux, exécutez la commande gcloud logging buckets delete :

gcloud logging buckets delete BUCKET_ID --location=LOCATION

Vous ne pouvez pas supprimer un bucket de journaux lorsqu'il est associé à un ensemble de données BigQuery :

REST

Pour supprimer un bucket, utilisez projects.locations.buckets.delete dans l'API Logging.

La suppression d'un bucket de journaux est impossible si un ensemble de données BigQuery y est associé. Vous devez supprimer l'ensemble de données associé avant de supprimer le bucket de journaux :

Restaurer un bucket supprimé

Vous pouvez restaurer, c'est-à-dire annuler la suppression d'un bucket de journaux dont l'état est "en attente de suppression". Pour restaurer un bucket de journaux, procédez comme suit :

Console Google Cloud

Pour restaurer un bucket de journaux en attente de suppression, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Pour le bucket que vous souhaitez restaurer, cliquez sur Plus, puis sélectionnez Restaurer un bucket supprimé.

  3. Dans le panneau de confirmation, cliquez sur Restaurer.

  4. Sur la page Stockage des journaux, l'indicateur de suppression en attente est retiré de votre bucket de journaux.

gcloud

Pour restaurer un bucket de journaux en attente de suppression, exécutez la commande gcloud logging buckets undelete :

gcloud logging buckets undelete BUCKET_ID --location=LOCATION

REST

Pour restaurer un bucket en attente de suppression, utilisez projects.locations.buckets.undelete dans l'API Logging.

Alerte sur les octets de journaux mensuels stockés dans les buckets de journaux

Pour créer une règle d'alerte, sur la page Stockage des journaux de la consoleGoogle Cloud , cliquez sur Créer une alerte d'utilisation. Ce bouton ouvre la page Créer une règle d'alerte dans Monitoring et remplit le champ du type de métrique avec logging.googleapis.com/billing/bytes_ingested.

Pour créer une règle d'alerte qui se déclenche lorsque le nombre d'octets de journaux écrits dans vos buckets de journaux dépasse la limite définie par l'utilisateur pour Cloud Logging, utilisez les paramètres suivants.

ChampNouvelle condition

Valeur
Ressource et métrique Dans le menu Ressources, sélectionnez Global.
Dans le menu Catégories de métriques, sélectionnez Métrique basée sur les journaux.
Dans le menu Métriques, sélectionnez Octets de journaux ingérés par mois.
Filter Aucun
Dans toutes les séries temporelles
Agrégation de séries temporelles
sum
Fenêtre glissante 60 m
Fenêtrage glissant max
Champ Configurer le déclencheur d'alerte

Valeur
Type de condition Threshold
Déclencheur d'alerte Any time series violates
Position du seuil Above threshold
Valeur du seuil Vous définissez la valeur acceptable.
Fenêtre du nouveau test La valeur minimale acceptable est de 30 minutes.

Pour en savoir plus sur les règles d'alerte, consultez la page Présentation des alertes.

Écrire dans un bucket

Vous n'écrivez pas directement de journaux dans un bucket de journaux. Vous écrivez plutôt des journaux sur une ressourceGoogle Cloud  : un projet, un dossier ou une organisation Google Cloud . Les récepteurs de la ressource parente acheminent ensuite les journaux vers les destinations, dont les buckets de journaux. Un récepteur achemine les journaux vers une destination de bucket de journaux lorsque les journaux correspondent au filtre du récepteur et que celui-ci est autorisé à acheminer les journaux vers le bucket de journaux.

Lire des données à partir d'un bucket

Chaque bucket de journaux possède un ensemble de vues de journaux. Pour lire les journaux d'un bucket de journaux, vous devez avoir accès à une vue de journaux sur le bucket. Les vues de journaux vous permettent d'accorder à un utilisateur l'accès à un sous-ensemble seulement des journaux stockés dans un bucket de journaux. Pour savoir comment configurer des vues de journaux et accorder l'accès à des vues de journaux spécifiques, consultez Configurer des vues de journaux dans un bucket de journaux.

Pour lire les journaux d'un bucket de journaux, procédez comme suit :

Console Google Cloud

  1. Dans la console Google Cloud , accédez à la page Explorateur de journaux.

    Accéder à l'explorateur de journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Pour personnaliser les journaux affichés dans l'explorateur de journaux, cliquez sur Affiner le champ d'application, puis sélectionnez une option. Par exemple, vous pouvez afficher les journaux stockés dans un projet ou par vue de journal.

  3. Cliquez sur Appliquer. Le volet Résultats de la requête est actualisé avec les journaux correspondant à l'option que vous avez sélectionnée.

Pour en savoir plus, consultez Présentation de l'explorateur de journaux : affiner le champ d'application.

gcloud

Pour lire les journaux d'un bucket de journaux, utilisez la commande gcloud logging read et ajoutez un LOG_FILTER pour sélectionner les données :

gcloud logging read LOG_FILTER --bucket=BUCKET_ID --location=LOCATION --view=LOG_VIEW_ID

REST

Pour lire les journaux d'un bucket de journaux, utilisez la méthode entries.list. Définissez resourceNames pour spécifier le bucket et la vue de journaux appropriés, et définissez filter pour sélectionner les données.

Pour en savoir plus sur la syntaxe de filtrage, consultez la page Langage de requête Logging.

Configurer la conservation personnalisée

Lorsque vous créez un bucket de journaux, vous avez la possibilité de personnaliser la période pendant laquelle Cloud Logging stocke les journaux du bucket. Vous pouvez configurer la durée de conservation de n'importe quel bucket de journaux défini par l'utilisateur, ainsi que celle du bucket de journaux _Default. Vous ne pouvez pas modifier la durée de conservation du bucket de journaux _Required.

Si vous raccourcissez la durée de conservation d'un bucket, un délai de grâce de sept jours est accordé pendant lequel les journaux expirés ne sont pas supprimés. Vous ne pouvez pas interroger ni afficher ces journaux expirés, mais vous pouvez restaurer l'accès complet dans les sept jours en prolongeant la période de conservation du bucket. Les journaux stockés pendant le délai de grâce sont comptabilisés dans vos frais de conservation.

Pour mettre à jour la durée de conservation d'un bucket de journaux personnalisé ou du bucket de journaux _Default, procédez comme suit :

Console Google Cloud

Pour mettre à jour la durée de conservation d'un bucket de journaux, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page Stockage des journaux :

    Accéder à la page Stockage des journaux

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est Logging.

  2. Pour le bucket que vous souhaitez mettre à jour, cliquez sur Plus, puis sélectionnez Modifier le bucket.

  3. Dans le champ Conservation, saisissez le nombre de jours (compris entre 1 et 3 650 jours) pendant lesquels vous souhaitez que Cloud Logging conserve vos journaux.

  4. Cliquez sur Mettre à jour le bucket. Votre nouvelle durée de conservation apparaît dans la liste Bucket de journaux.

gcloud

Pour mettre à jour la durée de conservation d'un bucket de journaux, exécutez la commande gcloud logging buckets update, après avoir défini une valeur pour RETENTION_DAYS :

gcloud logging buckets update BUCKET_ID  --location=LOCATION --retention-days=RETENTION_DAYS

Par exemple, pour conserver les journaux dans le bucket _Default dans l'emplacement global pendant un an, votre commande se présentera comme suit :

gcloud logging buckets update _Default --location=global --retention-days=365

Si vous prolongez la durée de conservation d'un bucket, les règles de conservation ne s'appliquent pas de façon rétroactive. Les journaux ne peuvent pas être récupérés après la fin de leur période de conservation spécifique.

Méthodes d'API asynchrones

La réponse d'une méthode asynchrone telle que projects.locations.buckets.createAsync est un objet Operation.

Les applications qui appellent une méthode API asynchrone doivent interroger le point de terminaison operation.get jusqu'à ce que la valeur du champ Operation.done soit true :

  • Lorsque l'état done est défini sur false, l'opération est en cours.

    Pour actualiser les informations d'état, envoyez une requête GET au point de terminaison operation.get.

  • Lorsque done est défini sur true, l'opération est terminée et le champ error ou response est défini:

    • error: si défini, l'opération asynchrone a échoué. La valeur de ce champ est un objet Status qui contient un code d'erreur gRPC et un message d'erreur.
    • response: si défini, l'opération asynchrone est terminée et la valeur reflète le résultat.

Pour interroger une commande asynchrone à l'aide de Google Cloud CLI, exécutez la commande suivante :

gcloud logging operations describe OPERATION_ID --location=LOCATION --project=PROJECT_ID

Pour en savoir plus, consultez la page gcloud logging operations describe.

Résoudre les problèmes courants

Si vous rencontrez des problèmes lors de l'utilisation des buckets de journaux, reportez-vous aux étapes de dépannage suivantes et aux réponses aux questions courantes.

Pourquoi ne puis-je pas supprimer ce bucket ?

Si vous essayez de supprimer un bucket, procédez comme suit :

  • Assurez-vous de disposer des autorisations appropriées pour supprimer le bucket. Pour obtenir la liste des autorisations dont vous avez besoin, consultez Contrôle des accès avec IAM.

  • Déterminez si le bucket est verrouillé en répertoriant les attributs du bucket. Si le bucket est verrouillé, vérifiez sa durée de conservation. Vous ne pouvez pas supprimer un bucket verrouillé tant que tous les journaux qu'il contient n'ont pas atteint la date limite de conservation du bucket.

  • Vérifiez que le bucket de journaux n'est pas associé à un ensemble de données BigQuery. Vous ne pouvez pas supprimer un bucket de journaux associé à un ensemble de données.

    L'erreur suivante s'affiche en réponse à une commande delete sur un bucket de journaux associé à un ensemble de données :

    FAILED_PRECONDITION: This bucket is used for advanced analytics and has an active link. The link must be deleted first before deleting the bucket
    

    Pour lister les liens associés à un bucket de journaux, exécutez la commande gcloud logging links list ou la méthode d'API projects.locations.buckets.links.list.

Quels comptes de service acheminent les journaux vers mon bucket ?

Pour déterminer si des comptes de service disposent d'autorisations IAM pour acheminer les journaux vers votre bucket, procédez comme suit :

  1. Dans la console Google Cloud , accédez à la page IAM :

    Accéder à IAM

    Si vous utilisez la barre de recherche pour trouver cette page, sélectionnez le résultat dont le sous-titre est IAM et administration.

  2. À partir de l'onglet Autorisations, affichez la liste par Rôles. Un tableau contenant tous les rôles et comptes principaux IAM associés à votre projetGoogle Cloud s'affiche.

  3. Dans la tableFiltre zone de texte, saisissez Rédacteur de bucket de journaux.

    Tous les comptes principaux dotés du rôle Rédacteur de bucket de journaux s'affichent. Si un compte principal est un compte de service, son ID contient la chaîne gserviceaccount.com.

  4. Facultatif : Si vous souhaitez empêcher un compte de service d'acheminer les journaux vers votre projet Google Cloud , cochez la case correspondant au compte de service, puis cliquez sur Supprimer.

Pourquoi les journaux d'un projet Google Cloud apparaissent-ils alors que je les ai exclus de mon récepteur _Default ?

Vous pouvez consulter les journaux d'un bucket de journaux dans un projet Google Cloud centralisé qui regroupe les journaux de votre organisation.

Si vous utilisez l'explorateur de journaux pour accéder à ces journaux et que vous voyez les journaux que vous avez exclus du récepteur _Default, il est possible que votre vue soit définie au niveau du projetGoogle Cloud .

Pour résoudre ce problème, sélectionnez Vue des journaux dans le menu Affiner le champ d'application, puis sélectionnez la vue des journaux associée au bucket _Default dans votre projetGoogle Cloud . Vous ne devriez plus voir les journaux exclus.

Étapes suivantes

Pour en savoir plus sur les méthodes de l'API Logs Bucket, consultez la documentation de référence sur LogBucket.

Si vous gérez une organisation ou un dossier, vous pouvez spécifier l'emplacement des buckets de journaux _Default et _Required des ressources enfants. Vous pouvez également configurer l'utilisation de CMEK par les buckets de journaux et le comportement du récepteur de journaux _Default. Pour en savoir plus, consultez Configurer les paramètres par défaut pour les organisations et les dossiers.

Pour en savoir plus sur la gestion des cas d'utilisation courants des buckets de journaux, consultez les articles suivants :