Collecter les journaux de combinaisons toxiques de Cloud Security Command Center

Compatible avec:

Ce document explique comment exporter et ingérer les journaux de combinaisons toxiques de Security Command Center dans Google Security Operations à l'aide de Cloud Storage. L'analyseur extrait et structure les données de résultats de sécurité à partir des journaux JSON. Il normalise les données dans un modèle de données unifié (UDM), gère différents formats de données et les enrichit de contexte supplémentaire, comme des informations sur le réseau et des détails sur l'user-agent.

Avant de commencer

  • Assurez-vous que Google Cloud Security Command Center est activé et configuré dans votre Google Cloud environnement.
  • Assurez-vous de disposer d'une instance Google SecOps.
  • Assurez-vous d'avoir un accès privilégié à Security Command Center et à Cloud Logging.

Créer un bucket Cloud Storage

  1. Connectez-vous à la console Google Cloud.
  2. Accédez à la page Buckets Cloud Storage.

    Accéder à la page "Buckets"

  3. Cliquez sur Créer.

  4. Sur la page Créer un bucket, saisissez les informations concernant votre bucket. Après chacune de ces étapes, cliquez sur Continuer pour passer à l'étape suivante:

    1. Dans la section Premiers pas, procédez comme suit :

      1. Saisissez un nom unique qui répond aux exigences de dénomination des buckets. Par exemple, gcp-scc-toxic-combination-logs.
      2. Pour activer l'espace de noms hiérarchique, cliquez sur la flèche d'expansion pour développer la section Optimiser pour les charges de travail orientées fichiers et à forte intensité de données, puis sélectionnez Activer l'espace de noms hiérarchique sur ce bucket.

      3. Pour ajouter une étiquette de bucket, cliquez sur la flèche de développement pour développer la section Étiquettes.

      4. Cliquez sur Ajouter un libellé, puis spécifiez une clé et une valeur pour votre libellé.

    2. Dans la section Choisir l'emplacement de stockage de vos données, procédez comme suit :

      1. Sélectionnez un type d'emplacement.
      2. Utilisez le menu "Type d'emplacement" pour sélectionner un emplacement où les données d'objets de votre bucket seront stockées de manière permanente.

      3. Pour configurer la réplication entre buckets, développez la section Configurer la réplication entre buckets.

    3. Dans la section Choisir une classe de stockage pour vos données, sélectionnez une classe de stockage par défaut pour le bucket, ou bien classe automatique pour une gestion automatique des classes de stockage des données de votre bucket.

    4. Dans la section Choisir comment contrôler l'accès aux objets, sélectionnez non pour appliquer la protection contre l'accès public, puis sélectionnez un modèle de contrôle des accès pour les objets de votre bucket.

    5. Dans la section Choisir comment protéger les données d'objet, procédez comme suit:

      1. Sélectionnez l'une des options sous Protection des données que vous souhaitez définir pour votre bucket.
      2. Pour choisir comment vos données d'objet seront chiffrées, cliquez sur la flèche d'expansion intitulée Chiffrement des données, puis sélectionnez une méthode de chiffrement des données.
  5. Cliquez sur Créer.

Configurer la journalisation de Security Command Center

  1. Connectez-vous à la console Google Cloud.
  2. Accédez à la page Security Command Center.

    Accéder à Security Command Center

  3. Sélectionnez votre organisation.

  4. Cliquez sur Paramètres.

  5. Cliquez sur l'onglet Exportations continues.

  6. Sous Nom de l'exportation, cliquez sur Exportation des journaux.

  7. Sous Récepteurs, activez l'option Consigner les résultats dans Logging.

  8. Sous Projet de journalisation, saisissez ou recherchez le projet dans lequel vous souhaitez consigner les résultats.

  9. Cliquez sur Enregistrer.

Configurer Google Cloud l'exportation des journaux de combinaisons toxiques de Security Command Center

  1. Connectez-vous à la console Google Cloud.
  2. Accédez à Logging > Log Router (Journalisation > Routeur de journaux).
  3. Cliquez sur Créer un récepteur.
  4. Fournissez les paramètres de configuration suivants:

    • Nom du récepteur: saisissez un nom explicite (par exemple, scc-toxic-combination-logs-sink).
    • Destination du sink: sélectionnez Cloud Storage, puis saisissez l'URI de votre bucket (par exemple, gs://gcp-scc-toxic-combination-logs).
    • Filtre de journal:

      logName="projects/<your-project-id>/logs/cloudsecurityscanner.googleapis.com%2Ftoxic_combinations"
      resource.type="security_command_center_toxic_combination"
      
    • Définir les options d'exportation: inclut toutes les entrées de journal.

  5. Cliquez sur Créer.

Configurer les autorisations pour Cloud Storage

  1. Accédez à IAM et administration > IAM.
  2. Recherchez le compte de service Cloud Logging.
  3. Attribuez le rôle roles/storage.admin au bucket.

Configurez un flux dans Google SecOps pour ingérer les Google Cloud journaux de combinaisons toxiques de Security Command Center

  1. Accédez à SIEM Settings > Feeds (Paramètres du SIEM > Flux).
  2. Cliquez sur Ajouter.
  3. Dans le champ Nom du flux, saisissez un nom pour le flux (par exemple, Google Cloud Journaux de combinaisons toxiques de Security Command Center).
  4. Sélectionnez Google Cloud Storage comme Type de source.
  5. Sélectionnez Security Command Center Toxic Combination (Combinaison toxique de Security Command Center) comme Type de journal.
  6. Cliquez sur Obtenir un compte de service à côté du champ Compte de service Chronicle.
  7. Cliquez sur Suivant.
  8. Spécifiez les valeurs des paramètres d'entrée suivants:

    • URI du bucket Storage: URL du bucket Cloud Storage (par exemple, gs://gcp-scc-toxic-combination-logs).
    • L'URI est: sélectionnez Répertoire incluant des sous-répertoires.
    • Options de suppression de la source: sélectionnez l'option de suppression en fonction de vos préférences.

    • Espace de noms des éléments: espace de noms des éléments.

    • Libellés d'ingestion: libellé appliqué aux événements de ce flux.

  9. Cliquez sur Suivant.

  10. Vérifiez la configuration de votre nouveau flux dans l'écran Finaliser, puis cliquez sur Envoyer.

Tableau de mappage UDM

Champ de journal Mappage UDM Logique
category read_only_udm.metadata.product_event_type Mappé directement à partir du champ category dans le journal brut.
Date et heure de création read_only_udm.security_result.detection_fields.value Mappé directement à partir du champ createTime dans le journal brut, où la clé est "createTime".
mute read_only_udm.security_result.detection_fields.value Mappé directement à partir du champ mute dans le journal brut, où la clé est "mute".
nom read_only_udm.metadata.product_log_id Mappé directement à partir du champ name dans le journal brut.
parent read_only_udm.target.resource_ancestors.name Mappé directement à partir du champ parent dans le journal brut.
parentDisplayName read_only_udm.metadata.description Mappé directement à partir du champ parentDisplayName dans le journal brut.
resource.displayName read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.displayName dans le journal brut, où la clé est "resource_displayName".
resource.folders read_only_udm.target.resource_ancestors L'analyseur extrait les informations sur le dossier de ressources à partir du tableau folders de l'objet resource. Il parcourt chaque dossier et mappe resourceFolder à name et resourceFolderDisplayName à attribute.labels.value, où la clé est "folder_resourceFolderDisplayName".
resource.name read_only_udm.target.resource.name Mappé directement à partir du champ resource.name dans le journal brut.
resource.parent read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.parent dans le journal brut, où la clé est "resource_parent".
resource.parentDisplayName read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.parentDisplayName dans le journal brut, où la clé est "resource_parentDisplayName".
resource.project read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.project dans le journal brut, où la clé est "resource_project".
resource.projectDisplayName read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.projectDisplayName dans le journal brut, où la clé est "resource_projectDisplayName".
resource.service read_only_udm.target.application Mappé directement à partir du champ resource.service dans le journal brut.
resource.type read_only_udm.target.resource.attribute.labels.value Mappé directement à partir du champ resource.type dans le journal brut, où la clé est "resource_type".
resourceName read_only_udm.target.resource.name Mappé directement à partir du champ resourceName dans le journal brut.
securityMarks.name read_only_udm.security_result.detection_fields.value Mappé directement à partir du champ securityMarks.name dans le journal brut, où la clé est "securityMarks_name".
de gravité, read_only_udm.security_result.severity Mappé directement à partir du champ severity dans le journal brut.
state read_only_udm.security_result.detection_fields.value Mappé directement à partir du champ state dans le journal brut, où la clé est "state".
is_alert L'analyseur définit le champ is_alert sur true, car ce journal représente une alerte de sécurité.
is_significant L'analyseur définit le champ is_significant sur true, car ce journal représente un événement de sécurité important.
eventTime read_only_udm.metadata.event_timestamp.seconds L'analyseur extrait l'horodatage du champ eventTime et le convertit en secondes Unix.
read_only_udm.metadata.product_name L'analyseur définit product_name sur Security Command Center en fonction de la source de journal.
read_only_udm.metadata.vendor_name L'analyseur définit vendor_name sur Google en fonction de la source de journal.
read_only_udm.security_result.alert_state L'analyseur définit alert_state sur ALERTING, car ce journal représente une alerte active.
read_only_udm.security_result.category_details L'analyseur définit category_details sur POSTURE_VIOLATION en fonction de la source de journal.
read_only_udm.security_result.url_back_to_product L'analyseur construit dynamiquement le url_back_to_product à l'aide des ID de l'organisation, de la source et des résultats extraits du journal.
parent read_only_udm.target.resource.product_object_id L'analyseur extrait l'ID de la source du champ parent et le définit comme product_object_id.
resourceName read_only_udm.target.resource_ancestors.name L'analyseur extrait l'ID du projet du champ resourceName et le définit comme une entrée resource_ancestors avec resource_type comme CLOUD_PROJECT.
read_only_udm.target.resource_ancestors.resource_subtype L'analyseur définit resource_subtype sur google.cloud.resourcemanager.Project pour les ancêtres de dossiers en fonction de la source de journal.
read_only_udm.target.resource.attribute.labels.key L'analyseur définit plusieurs clés pour le champ labels dans l'objet attribute de la ressource cible. Ces clés incluent "resource_parentDisplayName", "resource_type", "resource_projectDisplayName", "resource_displayName", "finding_id", "source_id", "resource_parent" et "resource_project".

Modifications

2025-02-07

  • Mise à jour du mappage du champ UDM security_result.url_back_to_product. Ajout de la valeur de l'ID de projet à partir de la valeur du champ de journal brut resource.projectDisplayName à la fin de l'URL mappée sur le champ UDM security_result.url_back_to_product avec le préfixe ;?project=.

2024-11-21

  • Prise en charge de la version 2 de l'API SCC. Les champs suivants sont inclus dans la mise à jour:
  • resource.gcpMetadata.project
  • resource.gcpMetadata.projectDisplayName
  • resource.gcpMetadata.parent
  • resource.gcpMetadata.parentDisplayName
  • resource.gcpMetadata.folders.resourceFolder
  • resource.gcpMetadata.folders.resourceFolderDisplayName
  • resource.gcpMetadata.organization

2024-03-20

  • Analyseur nouvellement créé.

Vous avez encore besoin d'aide ? Obtenez des réponses de membres de la communauté et de professionnels Google SecOps.