Splunk

Le connecteur Splunk vous permet d'effectuer des opérations d'insertion, de suppression, de mise à jour et de lecture sur la base de données Splunk.

Avant de commencer

Avant d'utiliser le connecteur Splunk, effectuez les tâches suivantes :

  • Dans votre projet Google Cloud :
    • Assurez-vous que la connectivité réseau est configurée. Pour en savoir plus sur les schémas de réseau, consultez Connectivité réseau.
    • Attribuez le rôle IAM roles/connectors.admin à l'utilisateur qui configure le connecteur.
    • Attribuez les rôles IAM suivants au compte de service que vous souhaitez utiliser pour le connecteur :
      • roles/secretmanager.viewer
      • roles/secretmanager.secretAccessor

      Un compte de service est un type spécial de compte Google destiné à représenter un utilisateur non humain qui doit s'authentifier et obtenir les autorisations permettant d'accéder aux données des API Google. Si vous ne possédez pas de compte de service, vous devez en créer un. Pour plus d'informations, consultez Créer un compte de service.

    • Activez les services suivants :
      • secretmanager.googleapis.com (API Secret Manager)
      • connectors.googleapis.com (API Connectors)

      Pour savoir comment activer des services, consultez Activer des services.

    Si ces services ou autorisations n'ont pas encore été activés pour votre projet, vous êtes invité à les activer au moment de configurer le connecteur.

Configurer le connecteur

Une connexion est propre à une source de données. Cela signifie que si vous disposez de nombreuses sources de données, vous devez créer une connexion distincte pour chacune d'elles. Pour créer une connexion, procédez comme suit :

  1. Dans la console Cloud, accédez à la page Connecteurs d'intégration > Connexions, puis sélectionnez ou créez un projet Google Cloud.

    Accéder à la page "Connexions"

  2. Cliquez sur + CRÉER pour ouvrir la page Créer une connexion.
  3. Dans la section Emplacement, choisissez l'emplacement de la connexion.
    1. Région : sélectionnez un emplacement dans la liste déroulante.

      Pour obtenir la liste de toutes les régions disponibles, consultez Emplacements.

    2. Cliquez sur SUIVANT.
  4. Dans la section Détails de la connexion, procédez comme suit :
    1. Connecteur : sélectionnez Splunk dans la liste déroulante des connecteurs disponibles.
    2. Version du connecteur : sélectionnez la version du connecteur dans la liste déroulante des versions disponibles.
    3. Dans le champ Nom de connexion, indiquez le nom de l'instance de connexion.

      Les noms de connexion doivent répondre aux critères suivants :

      • Ils peuvent contenir des lettres, des chiffres ou des traits d'union.
      • Les lettres doivent être en minuscules.
      • Ils doivent commencer par une lettre et se terminer par une lettre ou un chiffre.
      • Ils ne peuvent pas dépasser 49 caractères.
    4. (Facultatif) Saisissez une description de l'instance de connexion.
    5. (Facultatif) Activez Cloud Logging, puis sélectionnez un niveau de journalisation. Par défaut, le niveau de journalisation est défini sur Error.
    6. Compte de service : sélectionnez un compte de service disposant des rôles requis.
    7. (Facultatif) Configurez les paramètres de nœuds de connexion :

      • Nombre minimal de nœuds : saisissez le nombre minimal de nœuds de connexion.
      • Nombre maximal de nœuds : saisissez le nombre maximal de nœuds de connexion.

      Un nœud est une unité (ou instance répliquée) de connexion qui traite des transactions. Pour traiter davantage de transactions pour une connexion, vous devez disposer de plus de nœuds. À l'inverse, moins de nœuds sont nécessaires si une connexion traite moins de transactions. Pour comprendre comment les nœuds affectent la tarification de votre connecteur, consultez Tarifs des nœuds de connexion. Si vous ne saisissez aucune valeur, le nombre minimal de nœuds est défini par défaut sur 2 (pour améliorer la disponibilité) et le nombre maximal de nœuds sur 50.

    8. (Facultatif) Cliquez sur + AJOUTER UNE ÉTIQUETTE pour ajouter une étiquette à la connexion sous la forme d'une paire clé/valeur.
    9. Cliquez sur SUIVANT.
  5. Dans la section Destinations, saisissez des informations sur l'hôte distant (système backend) auquel vous souhaitez vous connecter.
    1. Type de destination : sélectionnez un type de destination.
      • Sélectionnez Adresse de l'hôte dans la liste pour spécifier le nom d'hôte ou l'adresse IP de la destination.
      • Si vous souhaitez établir une connexion privée à vos systèmes backend, sélectionnez Rattachement de point de terminaison dans la liste, puis sélectionnez le rattachement de point de terminaison requis dans la liste Rattachement de point de terminaison.

      Si vous souhaitez établir une connexion publique à vos systèmes backend avec une sécurité supplémentaire, vous pouvez envisager de configurer des adresses IP sortantes statiques pour vos connexions, puis de configurer vos règles de pare-feu pour ajouter à la liste d'autorisation uniquement les adresses IP statiques spécifiques.

      Pour saisir d'autres destinations, cliquez sur + AJOUTER UNE DESTINATION.

    2. Cliquez sur SUIVANT.
  6. Dans la section Authentification, saisissez les informations d'authentification.
    1. Sélectionnez un type d'authentification, puis saisissez les informations appropriées.

      Les types d'authentification suivants sont compatibles avec la connexion Splunk :

      • Nom d'utilisateur et mot de passe (authentification de base)
      • AccessToken
      • HTTPEventCollectorToken
    2. Pour savoir comment configurer ces types d'authentification, consultez Configurer l'authentification.

    3. Cliquez sur SUIVANT.
  7. Vérifier : vérifiez vos informations de connexion et d'authentification.
  8. Cliquez sur Créer.

Configurer l'authentification

Saisissez les informations en fonction de l'authentification que vous souhaitez utiliser.

  • Nom d'utilisateur et mot de passe
    • Nom d'utilisateur : nom d'utilisateur Splunk à utiliser pour la connexion.
    • Mot de passe : secret Secret Manager contenant le mot de passe associé au nom d'utilisateur Splunk.
  • AccessToken : définissez cette valeur pour effectuer une authentification basée sur un jeton à l'aide de la propriété AccessToken.
  • HTTPEventCollectorToken : définissez cette valeur pour effectuer une authentification basée sur un jeton à l'aide de la propriété HTTPEventCollectorToken.

Exemples de configuration de connexion

Cette section présente des exemples de valeurs pour les différents champs que vous configurez lorsque vous créez la connexion Splunk.

Type de connexion avec collecteur d'événements HTTP

Nom du champ Détails
Emplacement us-central1
Connecteur Splunk
Version du connecteur 1
Nom de connexion splunk-http-event-coll-conn
Activer Cloud Logging Non
Compte de service SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Nombre minimal de nœuds 2
Nombre maximal de nœuds 50
Activer SSL Oui
Connexion non sécurisée du truststore Oui
Type de destination (serveur) Adresse de l'hôte
Adresse de l'hôte 192.0.2.0
Port PORT
Authentification basée sur un jeton de collecteur d'événements HTTP Oui
HTTPEventCollectorToken HTTPEVENTCOLLECTOR_TOKEN
Version du secret 1

Pour savoir comment créer un jeton de collecteur d'événements HTTP, consultez Create an HTTP event collector (Créer un collecteur d'événements HTTP).

Type de connexion SSL

Nom du champ Détails
Emplacement us-central1
Connecteur Splunk
Version du connecteur 1
Nom de connexion splunk-ssl-connection
Activer Cloud Logging Oui
Compte de service SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Niveau de verbosité 5
Nombre minimal de nœuds 2
Nombre maximal de nœuds 50
Activer SSL Oui
Connexion non sécurisée Oui
Type de destination (serveur) Adresse de l'hôte
Adresse de l'hôte https://192.0.2.0
Port PORT
Mot de passe utilisateur Oui
Nom d'utilisateur UTILISATEUR
Mot de passe MOT DE PASSE
Version du secret 1

Pour l'authentification de base, vous devez disposer du rôle d'utilisateur ou d'utilisateur expérimenté. Pour savoir comment configurer un utilisateur expérimenté, consultez Configure power user role (Configurer le rôle d'utilisateur expérimenté). Pour en savoir plus sur la définition des rôles dans Splunk, consultez Define the Role on Splunk Platform (Définir le rôle sur la plate-forme Splunk).

Entités, opérations et actions

Tous les connecteurs Integration Connectors fournissent une couche d'abstraction pour les objets de l'application connectée. Vous ne pouvez accéder aux objets d'une application que par le biais de cette abstraction. L'abstraction vous est présentée en tant qu'entités, opérations et actions.

  • Entité : une entité peut être considérée comme un objet ou un ensemble de propriétés dans l'application ou le service connectés. La définition d'une entité diffère d'un connecteur à l'autre. Par exemple, dans un connecteur de base de données, les tables sont les entités, alors que dans un connecteur de serveur de fichiers, ce sont les dossiers, et dans un connecteur de système de messagerie, ce sont les files d'attente.

    Toutefois, il est possible qu'un connecteur n'accepte ou ne possède aucune entité. Dans ce cas, la liste Entities est vide.

  • Opération : une opération est l'activité que vous pouvez effectuer sur une entité. Voici les opérations possibles :

    Lorsque vous sélectionnez une entité dans la liste proposée, cela génère une liste d'opérations disponibles pour l'entité. Pour obtenir une description détaillée des opérations, consultez les opérations d'entité de la tâche "Connecteurs". Cependant, si un connecteur n'accepte pas l'une des opérations d'entité, cette opération non compatible ne figure pas dans la liste Operations.

  • Action : une action est une fonction de première classe mise à la disposition de l'intégration par le biais de l'interface du connecteur. Une action vous permet de modifier une ou plusieurs entités, et varie d'un connecteur à l'autre. Normalement, une action comporte des paramètres d'entrée et un paramètre de sortie. Toutefois, il est possible qu'un connecteur n'accepte aucune action, auquel cas la liste Actions est vide.

Limites du système

Le connecteur Splunk peut traiter au maximum cinq transactions par seconde et par nœud, et limite les transactions au-delà de ce seuil. Toutefois, le nombre de transactions que ce connecteur peut traiter dépend également des contraintes imposées par l'instance Splunk. Par défaut, Integration Connectors alloue deux nœuds (pour améliorer la disponibilité) à une connexion.

Pour en savoir plus sur les limites applicables à Integration Connectors, consultez Limites.

Actions

Dans cette section, vous trouverez la liste des actions prises en charge par le connecteur. Pour savoir comment configurer les actions, consultez Exemples d'actions.

Action CreateHTTPEvent

Cette action permet d'envoyer des événements d'application et de données à un déploiement Splunk avec les protocoles HTTP et HTTPS.

Paramètres d'entrée de l'action CreateHTTPEvent

Nom du paramètre Type de données Obligatoire Description
EventContent STRING Oui Nom de la table ou de la vue.
ContentType STRING Non Type de contenu spécifié pour l'entrée EventContent. Les valeurs acceptées sont JSON et RAWTEXT.
ChannelGUID INTEGER Non GUID du canal utilisé pour l'événement. Vous devez spécifier cette valeur si ContentType est défini sur RAWTEXT.

Paramètres de sortie de l'action CreateHTTPEvent

Cette action renvoie l'état de réussite de l'événement créé.

Action CreateIndex

Cette action permet de créer des index.

Paramètres d'entrée de l'action CreateIndex

Nom du paramètre Type de données Obligatoire Description
MaxMetaEntries STRING Non Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut aider à réduire la consommation de mémoire.
FrozenTimePeriodInSecs STRING Non Nombre de secondes au bout duquel les données indexées sont gelées. La valeur par défaut est 188697600 (six ans).
HomePath STRING Non Chemin absolu contenant les buckets chauds et tièdes de l'index.
MinRawFileSyncSecs STRING Non Spécifiez un entier (ou disable) pour ce paramètre. Il définit la fréquence à laquelle splunkd force la synchronisation d'un système de fichiers lors de la compression des segments de journal.
ProcessTrackerServiceInterval STRING Non Indique la fréquence (en secondes) à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état des processus enfants toutes les secondes.
ServiceMetaPeriod STRING Non Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque.
MaxHotSpanSecs STRING Non Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes.
QuarantinePastSecs STRING Non Les événements dont le code temporel défini pour quarantinePastSecs est antérieur à >now sont placés dans le bucket de quarantaine.
ColdToFrozenDir STRING Non Chemin de destination de l'archive gelée. À utiliser comme alternative à ColdToFrozenScript.
ColdPath STRING Non Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être accessible en lecture et en écriture.
MaxHotIdleSecs STRING Non Durée de vie maximale (en secondes) d'un bucket chaud.
WarmToColdScript STRING Non Chemin d'accès à un script à exécuter lors du passage de données de l'état tiède à l'état froid.
ColdToFrozenScript STRING Non Chemin d'accès au script d'archivage.
MaxHotBuckets STRING Non Nombre maximal de buckets chauds pouvant exister par index.
TstatsHomePath STRING Non Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet index. Si ce paramètre est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture.
RepFactor STRING Non Contrôle de la réplication de l'index. Ce paramètre ne s'applique qu'aux nœuds homologues du cluster.
  • auto : utilisez la valeur de configuration de la réplication de l'index maître.
  • 0 : permet de désactiver la réplication pour cet index.
MaxDataSize STRING Non Taille maximale (en Mo) qu'une base de données chaude peut atteindre avant que son passage à l'état tiède ne soit déclenché. Si vous spécifiez auto ou auto_high_volume, Splunk ajuste automatiquement ce paramètre (recommandé).
MaxBloomBackfillBucketAge STRING Non Valeurs valides : integer[m|s|h|d]. Si un bucket tiède ou froid est plus ancien que l'âge spécifié, vous ne devez pas créer ni recréer son filtre de Bloom. Indiquez 0 pour ne jamais recréer de filtres de Bloom.
BlockSignSize STRING Non Contrôle le nombre d'événements qui composent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet index. La valeur recommandée est 100.
Name STRING Oui Nom de l'index à créer.
MaxTotalDataSizeMB STRING Non Taille maximale d'un index (en Mo). Si un index dépasse la taille maximale, les données les plus anciennes sont gelées.
MaxWarmDBCount STRING Non Nombre maximal de buckets tièdes. Si ce nombre est dépassé, les buckets tièdes dont la valeur la plus récente est la plus faible passent à l'état froid.
RawChunkSizeBytes STRING Non Taille cible non compressée (en octets) pour chaque segment brut dans le journal de données brutes de l'index. La valeur 0 n'est pas valide. Si elle est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut.
DataType STRING Non Indique le type d'index.
MaxConcurrentOptimizes STRING Non Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud.
ThrottleCheckPeriod STRING Non Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index.
SyncMeta STRING Non Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant que le descripteur de fichier ne soit fermé lors des mises à jour des fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, surtout en cas de plantage du système d'exploitation ou de défaillance de la machine.
RotatePeriodInSecs STRING Non Définit la fréquence (en secondes) à laquelle vérifier si un bucket chaud doit être créé, ainsi que la fréquence à laquelle vérifier si des buckets tièdes/froids doivent changer d'état/être gelés.

Paramètres de sortie de l'action CreateIndex

Cette action renvoie le message de confirmation de l'action CreateIndex.

Pour savoir comment configurer l'action CreateIndex, consultez Exemples d'actions.

Action CreateSavedSearch

Cette action permet d'enregistrer vos recherches.

Paramètres d'entrée de l'action CreateSavedSearch

Nom du paramètre Type de données Obligatoire Description
IsVisible BOOLEAN Oui Indique si cette recherche enregistrée apparaît dans la liste des recherches enregistrées visibles.
RealTimeSchedule BOOLEAN Oui Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de l'heure d'exécution de la dernière recherche.
Search STRING Oui Requête de recherche à enregistrer.
Description STRING Non Description de cette recherche enregistrée.
SchedulePriority STRING Oui Indique la priorité de planification d'une recherche spécifique.
CronSchedule STRING Oui Planification Cron pour exécuter cette recherche. Par exemple, */5 * * * * entraîne l'exécution de la recherche toutes les cinq minutes.
Name STRING Oui Nom de la recherche.
UserContext STRING Oui Si le contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général /services est utilisé par défaut.
RunOnStartup BOOLEAN Oui Indique si cette recherche s'exécute au démarrage. Si ce n'est pas le cas, elle s'exécute à l'heure planifiée suivante.
Disabled BOOLEAN Non Indique si cette recherche enregistrée est désactivée.
IsScheduled BOOLEAN Oui Indique si cette recherche doit être exécutée selon une planification.

Paramètres de sortie de l'action CreateSavedSearch

Cette action renvoie le message de confirmation de l'action CreateSavedSearch.

Pour savoir comment configurer l'action CreateSavedSearch, consultez Exemples d'actions.

Action UpdateSavedSearch

Cette action permet de mettre à jour une recherche enregistrée.

Paramètres d'entrée de l'action UpdateSavedSearch

Nom du paramètre Type de données Obligatoire Description
IsVisible BOOLEAN Oui Indique si cette recherche enregistrée apparaît dans la liste des recherches enregistrées visibles.
RealTimeSchedule BOOLEAN Oui Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de l'heure d'exécution de la dernière recherche.
Search STRING Oui Requête de recherche à enregistrer.
Description STRING Non Description de cette recherche enregistrée.
SchedulePriority STRING Oui Indique la priorité de planification d'une recherche spécifique.
CronSchedule STRING Oui Planification Cron pour exécuter cette recherche. Par exemple, */5 * * * * entraîne l'exécution de la recherche toutes les cinq minutes.
Name STRING Oui Nom de la recherche.
UserContext STRING Oui Si le contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général /services est utilisé par défaut.
RunOnStartup BOOLEAN Oui Indique si cette recherche s'exécute au démarrage. Si ce n'est pas le cas, elle s'exécute à l'heure planifiée suivante.
Disabled BOOLEAN Non Indique si cette recherche enregistrée est désactivée.
IsScheduled BOOLEAN Oui Indique si cette recherche doit être exécutée selon une planification.

Paramètres de sortie de l'action UpdateSavedSearch

Cette action renvoie le message de confirmation de l'action UpdateSavedSearch.

Pour savoir comment configurer l'action UpdateSavedSearch, consultez Exemples d'actions.

Action DeleteIndex

Cette action permet de supprimer un index.

Paramètres d'entrée de l'action DeleteIndex

Nom du paramètre Type de données Obligatoire Description
Name STRING Oui Nom de l'index à supprimer.

Paramètres de sortie de l'action DeleteIndex

Cette action renvoie le message de confirmation de l'action DeleteIndex.

Pour savoir comment configurer l'action DeleteIndex, consultez Exemples d'actions.

Action UpdateIndex

Cette action permet de mettre à jour un index.

Paramètres d'entrée de l'action UpdateIndex

Nom du paramètre Type de données Obligatoire Description
MaxMetaEntries STRING Non Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut aider à réduire la consommation de mémoire.
FrozenTimePeriodInSecs STRING Non Nombre de secondes au bout duquel les données indexées sont gelées. La valeur par défaut est 188697600 (six ans).
HomePath STRING Non Chemin absolu contenant les buckets chauds et tièdes de l'index.
MinRawFileSyncSecs STRING Non Spécifiez un entier (ou disable) pour ce paramètre. Il définit la fréquence à laquelle splunkd force la synchronisation d'un système de fichiers lors de la compression des segments de journal.
ProcessTrackerServiceInterval STRING Non Indique la fréquence (en secondes) à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état des processus enfants toutes les secondes.
ServiceMetaPeriod STRING Non Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque.
MaxHotSpanSecs STRING Non Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes.
QuarantinePastSecs STRING Non Les événements dont le code temporel défini pour quarantinePastSecs est antérieur à now sont placés dans le bucket de quarantaine.
ColdToFrozenDir STRING Non Chemin de destination de l'archive gelée. À utiliser comme alternative à ColdToFrozenScript.
ColdPath STRING Non Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être accessible en lecture et en écriture.
MaxHotIdleSecs STRING Non Durée de vie maximale (en secondes) d'un bucket chaud.
WarmToColdScript STRING Non Chemin d'accès à un script à exécuter lors du passage de données de l'état tiède à l'état froid.
ColdToFrozenScript STRING Non Chemin d'accès au script d'archivage.
MaxHotBuckets STRING Non Nombre maximal de buckets chauds pouvant exister par index.
TstatsHomePath STRING Non Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet index. Si ce paramètre est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture.
RepFactor STRING Non Contrôle de la réplication de l'index. Ce paramètre ne s'applique qu'aux nœuds homologues du cluster.
  • auto : utilisez la valeur de configuration de la réplication de l'index maître.
  • 0 : permet de désactiver la réplication pour cet index.
MaxDataSize STRING Non Taille maximale (en Mo) qu'une base de données chaude peut atteindre avant que son passage à l'état tiède ne soit déclenché. Si vous spécifiez auto ou auto_high_volume, Splunk ajuste automatiquement ce paramètre (recommandé).
MaxBloomBackfillBucketAge STRING Non Valeurs valides : integer[m|s|h|d]. Si un bucket tiède ou froid est plus ancien que l'âge spécifié, vous ne devez pas créer ni recréer son filtre de Bloom. Indiquez 0 pour ne jamais recréer de filtres de Bloom.
BlockSignSize STRING Non Contrôle le nombre d'événements qui composent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet index. La valeur recommandée est 100.
Name STRING Oui Nom de l'index à créer.
MaxTotalDataSizeMB STRING Oui Taille maximale d'un index (en Mo). Si un index dépasse la taille maximale, les données les plus anciennes sont gelées.
MaxWarmDBCount STRING Non Nombre maximal de buckets tièdes. Si ce nombre est dépassé, les buckets tièdes dont la valeur la plus récente est la plus faible passent à l'état froid.
RawChunkSizeBytes STRING Non Taille cible non compressée (en octets) pour chaque segment brut dans le journal de données brutes de l'index. La valeur 0 n'est pas valide. Si elle est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut.
DataType STRING Non Indique le type d'index.
MaxConcurrentOptimizes STRING Non Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud.
ThrottleCheckPeriod STRING Non Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index.
SyncMeta STRING Non Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant que le descripteur de fichier ne soit fermé lors des mises à jour des fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, surtout en cas de plantage du système d'exploitation ou de défaillance de la machine.
RotatePeriodInSecs STRING Non Définit la fréquence (en secondes) à laquelle vérifier si un bucket chaud doit être créé, ainsi que la fréquence à laquelle vérifier si des buckets tièdes/froids doivent changer d'état/être gelés.

Paramètres de sortie de l'action UpdateIndex

Cette action renvoie le message de confirmation de l'action UpdateIndex.

Pour savoir comment configurer l'action UpdateIndex, consultez Exemples d'actions.

Exemples d'actions

Exemple : Créer un événement HTTP

Cet exemple crée un événement HTTP.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateHTTPEvent, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "EventContent": "Testing Task",
    "ContentType": "RAWTEXT",
    "ChannelGUID": "ContentType=RAWTEXT"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche CreateHTTPEvent aura une valeur semblable à la suivante :

    [{
    "Success": "Success"
    }] 
    

Exemple : Créer un index

Cet exemple crée un index.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Name": "http_testing"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche CreateIndex aura une valeur semblable à la suivante :

    [{
    "AssureUTF8": null,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": null,
    "ColdPath": null,
    "FrozenTimePeriodInSecs": null,
    "HomePath": null,
    "HomePathExpanded": null,
    "IndexThreads": null,
    "IsInternal": null,
    "MaxConcurrentOptimizes": null,
    "MaxDataSize": null,
    "MaxHotBuckets": null,
    "SuppressBannerList": null,
    "Sync": null,
    "SyncMeta": null,
    "ThawedPath": null,
    "ThawedPathExpanded": null,
    "TstatsHomePath": null,
    "WarmToColdScript": null,
    }]

Cet exemple crée une recherche enregistrée.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action CreateSavedSearch, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Name": "test_created_g",
    "Search": "index=\"http_testing\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest",
    "UserContext": "nobody"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche CreateSavedSearch aura une valeur semblable à la suivante :

    [{
    "Success": true,
    "Message": null
    }]

Cet exemple met à jour une recherche enregistrée.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action UpdateSavedSearch, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Name": "test_created_g",
    "Search": "index=\"december_test_data\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche UpdateSavedSearch aura une valeur semblable à la suivante :

    [{
    "Success": true,
    "Message": null
    }]

Exemple : Supprimer un index

Cet exemple supprime un index.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action DeleteIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Name": "g_http_testing"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche DeleteIndex aura une valeur semblable à la suivante :

    [{
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Exemple : Mettre à jour un index

Cet exemple met à jour un index.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action UpdateIndex, puis cliquez sur OK.
  3. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "MaxTotalDataSizeMB": "400000",
    "Name": "g_http_testing"
    }
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche UpdateIndex aura une valeur semblable à la suivante :

    [{
    "AssureUTF8": false,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": "auto",
    "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb",
    "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb",
    "ColdToFrozenDir": "",
    "ColdToFrozenScript": "",
    "CurrentDBSizeMB": 1.0,
    "DefaultDatabase": "main",
    "EnableOnlineBucketRepair": true,
    "EnableRealtimeSearch": true,
    "FrozenTimePeriodInSecs": 1.886976E8,
    "HomePath": "$SPLUNK_DB\\g_http_testing\\db",
    "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db",
    "IndexThreads": "auto",
    "IsInternal": false,
    "LastInitTime": "2024-01-08 05:15:28.0",
    "MaxBloomBackfillBucketAge": "30d",
    "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb",
    "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb",
    "ThrottleCheckPeriod": 15.0,
    "TotalEventCount": 0.0,
    "TsidxDedupPostingsListMaxTermsLimit": 8388608.0,
    "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary",
    "WarmToColdScript": "",
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Exemples d'opérations d'entité

Cette section explique comment effectuer certaines opérations d'entité dans ce connecteur.

Exemple : Lister tous les enregistrements

Cet exemple liste tous les enregistrements de l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. (Facultatif) Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez filtrer votre ensemble de résultats en spécifiant une clause de filtre. Indiquez toujours la valeur de la clause de filtre entre guillemets simples (').

Exemple : Récupérer un enregistrement à partir d'une entité

Cet exemple récupère un enregistrement ayant l'ID spécifié à partir de l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Get, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur EntityId, puis saisissez 1698309163.1300 dans le champ Valeur par défaut.

    Ici, 1698309163.1300 est un ID d'enregistrement unique dans l'entité SearchJobs.

Exemple : Créer un enregistrement dans une entité

Cet exemple crée un enregistrement dans l'entité SearchJobs.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    { 
    "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex  \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" 
    } 
    

    Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à la suivante :

    {
    "Sid": "1699336785.1919"
    } 
    

Exemple : Créer un enregistrement dans une entité

Cet exemple crée un enregistrement dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Id": "Test1",
    "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\",
    \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\",
    \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false,
    \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\"
    ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }

    Si l'intégration aboutit, le champ connectorOutputPayload de la tâche "Connecteurs" aura une valeur semblable à la suivante :

    [{
    "Id": "Test1"
    }]

Exemple : Supprimer un enregistrement d'une entité

Cet exemple supprime l'enregistrement ayant l'ID spécifié dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Delete, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur entityId, puis saisissez Test1 dans le champ Valeur par défaut.

Exemple : Mettre à jour un enregistrement dans une entité

Cet exemple met à jour un enregistrement dans l'entité DataModels.

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez DataModels dans la liste Entity.
  3. Sélectionnez l'opération Update, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur connectorInputPayload, puis saisissez une valeur semblable à la suivante dans le champ Default Value :
    {
    "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\",
    \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60,
    \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false,
    \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3,
    \"allow_skew\":\"0\",\"schedule_priority\":\"default\",
    \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }
  5. Cliquez sur entityId, puis saisissez /servicesNS/nobody/search/datamodel/model/Testing dans le champ Valeur par défaut.

    Si l'intégration aboutit, le champ connectorOutputPayload de la tâche "Connecteurs" aura une valeur semblable à la suivante :

    [{
    "Id": "/servicesNS/nobody/search/datamodel/model/Testing"
    }]

Exemple : Flux de recherche utilisant un index

Dans cette section, vous trouverez la liste de tous les flux de recherche utilisant un index unique et plusieurs index.

Créer une recherche à l'aide d'un index unique

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à la suivante :

    {
    "Sid": "1726051471.76"
    } 
    

Opération List utilisant le nom d'index indiqué dans la requête de recherche

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez Index Name dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez définir la filterClause, par exemple Sid= '1726051471.76'.

  5. Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche Index Name aura une valeur semblable à la suivante :

    [{
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1726051471.76"
    }]
    

Créer une recherche à l'aide de plusieurs index

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à la suivante :

    {
    "Sid": "1727261971.4007"
    } 
    

Opération List utilisant les noms d'index indiqués dans la requête de recherche

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez Index Name dans la liste Entity.
  3. Sélectionnez l'opération List, puis cliquez sur OK.
  4. Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez définir la filterClause, par exemple Sid= '1727261971.4007'.

  5. Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche Index aura une valeur semblable à la suivante :

     [{
      "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.727155516E9,
      "_kv": null,
      "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo",
      "_sourcetype": "Demo_Text",
      "_time": "2024-09-24 05:25:16.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "googlecloud-demo",
      "linecount": 3.0,
      "punct": null,
      "source": "Splunk_Demo.txt",
      "sourcetype": "Demo_Text",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }, {
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 1.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }]
    

Exemple : Flux de recherche utilisant des ReadJobResults

Dans cette section, vous trouverez la liste de tous les flux de recherche qui utilisent à la fois un index unique et plusieurs index compatibles avec la connexion Splunk. Actuellement, la taille maximale de la charge utile pour les résultats de journal compatibles est de 150 Mo.

Créer une recherche avec un index unique

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Cet exemple crée une recherche. Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à la suivante :

    {
    "Sid": "1732775755.24612"
    } 
    

Pour obtenir les résultats de la recherche, effectuez l'opération Create sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.

Récupérer des journaux de résultats à l'aide de l'action ReadJobResults

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action ReadJobResults, puis cliquez sur OK.
  3. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "Sid": "1732775755.24612"
    }
    
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche ReadJobResults aura une valeur semblable à la suivante :

    [{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732775755.24612",
    "sid": "1732775755.24612"
    }]
    

Créer une recherche avec plusieurs index

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Entities.
  2. Sélectionnez SearchJobs dans la liste Entity.
  3. Sélectionnez l'opération Create, puis cliquez sur OK.
  4. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload de la tâche SearchJobs aura une valeur semblable à la suivante :

    {
    "Sid": "1732776556.24634"
    } 
    

Pour obtenir les résultats de la recherche, effectuez l'opération Create sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.

ResultsLogs à l'aide de l'action ReadJobResults

  1. Dans la boîte de dialogue Configure connector task, cliquez sur Actions.
  2. Sélectionnez l'action ReadJobResults, puis cliquez sur OK.
  3. Dans la section Data Mapper de la tâche Mappage de données, cliquez sur Open Data Mapping Editor, puis saisissez une valeur semblable à la suivante dans le champ Input Value et choisissez EntityId/ConnectorInputPayload comme variable locale.
    {
    "Sid": "1732776556.24634"
    }
    
  4. Si l'action aboutit, le paramètre de réponse connectorOutputPayload de la tâche ReadJobResults aura une valeur semblable à la suivante :

    [{
    "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1727155516",
    "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
    "_serial": "0",
    "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo",
    "_sourcetype": "Demo_Text",
    "_time": "2024-09-24T05:25:16.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "googlecloud-demo",
    "linecount": "3",
    "source": "Splunk_Demo.txt",
    "sourcetype": "Demo_Text",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    },{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    }]
    

    Utiliser Terraform pour créer des connexions

    Vous pouvez utiliser la ressource Terraform pour créer une connexion.

    Pour savoir comment appliquer ou supprimer une configuration Terraform, consultez Commandes Terraform de base.

    Pour afficher un exemple de modèle Terraform permettant de créer une connexion, consultez Exemple de modèle.

    Lorsque vous créez cette connexion à l'aide de Terraform, vous devez définir les variables suivantes dans votre fichier de configuration Terraform :

    Nom du paramètre Type de données Obligatoire Description
    verbosity STRING False Niveau de verbosité de la connexion, compris entre 1 et 5. Un niveau de verbosité plus élevé consigne tous les détails de la communication (requête, réponse et certificats SSL).
    proxy_enabled BOOLEAN False Cochez cette case afin de configurer un serveur proxy pour la connexion.
    proxy_auth_scheme ENUM False Type d'authentification à utiliser pour s'authentifier auprès du proxy ProxyServer. Valeurs acceptées : BASIC, DIGEST et NONE.
    proxy_user STRING False Nom d'utilisateur permettant de s'authentifier auprès du proxy ProxyServer.
    proxy_password SECRET False Mot de passe à utiliser pour s'authentifier auprès du proxy ProxyServer.
    proxy_ssltype ENUM False Type SSL à utiliser lors de la connexion au proxy ProxyServer. Valeurs acceptées : AUTO, ALWAYS, NEVER et TUNNEL.

    Utiliser la connexion Splunk dans une intégration

    Une fois la connexion créée, elle devient disponible dans Apigee Integration et Application Integration. Vous pouvez utiliser la connexion dans une intégration au moyen de la tâche "Connecteurs".

    • Pour savoir comment créer et utiliser la tâche "Connecteurs" dans Apigee Integration, consultez Tâche "Connecteurs".
    • Pour savoir comment créer et utiliser la tâche "Connecteurs" dans Application Integration, consultez Tâche "Connecteurs".

    Demander de l'aide à la communauté Google Cloud

    Vous pouvez publier vos questions et discuter de ce connecteur sur les forums Cloud de la communauté Google Cloud.

    Étapes suivantes