Splunk
Le connecteur Splunk vous permet d'effectuer des opérations d'insertion, de suppression, de mise à jour et de lecture sur la base de données Splunk.
Avant de commencer
Avant d'utiliser le connecteur Splunk, effectuez les tâches suivantes :
- Dans votre projet Google Cloud :
- Assurez-vous que la connectivité réseau est configurée. Pour en savoir plus sur les schémas de réseau, consultez Connectivité réseau.
- Attribuez le rôle IAM roles/connectors.admin à l'utilisateur qui configure le connecteur.
- Attribuez les rôles IAM suivants au compte de service que vous souhaitez utiliser pour le connecteur :
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Un compte de service est un type spécial de compte Google destiné à représenter un utilisateur non humain qui doit s'authentifier et obtenir les autorisations permettant d'accéder aux données des API Google. Si vous ne possédez pas de compte de service, vous devez en créer un. Pour plus d'informations, consultez Créer un compte de service.
- Activez les services suivants :
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Pour savoir comment activer des services, consultez Activer des services.
Si ces services ou autorisations n'ont pas encore été activés pour votre projet, vous êtes invité à les activer au moment de configurer le connecteur.
Configurer le connecteur
Une connexion est propre à une source de données. Cela signifie que si vous disposez de nombreuses sources de données, vous devez créer une connexion distincte pour chacune d'elles. Pour créer une connexion, procédez comme suit :
- Dans la console Cloud, accédez à la page Connecteurs d'intégration > Connexions, puis sélectionnez ou créez un projet Google Cloud.
- Cliquez sur + CRÉER pour ouvrir la page Créer une connexion.
- Dans la section Emplacement, choisissez l'emplacement de la connexion.
- Région : sélectionnez un emplacement dans la liste déroulante.
Pour obtenir la liste de toutes les régions disponibles, consultez Emplacements.
- Cliquez sur SUIVANT.
- Région : sélectionnez un emplacement dans la liste déroulante.
- Dans la section Détails de la connexion, procédez comme suit :
- Connecteur : sélectionnez Splunk dans la liste déroulante des connecteurs disponibles.
- Version du connecteur : sélectionnez la version du connecteur dans la liste déroulante des versions disponibles.
- Dans le champ Nom de connexion, indiquez le nom de l'instance de connexion.
Les noms de connexion doivent répondre aux critères suivants :
- Ils peuvent contenir des lettres, des chiffres ou des traits d'union.
- Les lettres doivent être en minuscules.
- Ils doivent commencer par une lettre et se terminer par une lettre ou un chiffre.
- Ils ne peuvent pas dépasser 49 caractères.
- (Facultatif) Saisissez une description de l'instance de connexion.
- (Facultatif) Activez Cloud Logging, puis sélectionnez un niveau de journalisation. Par défaut, le niveau de journalisation est défini sur
Error
. - Compte de service : sélectionnez un compte de service disposant des rôles requis.
- (Facultatif) Configurez les paramètres de nœuds de connexion :
- Nombre minimal de nœuds : saisissez le nombre minimal de nœuds de connexion.
- Nombre maximal de nœuds : saisissez le nombre maximal de nœuds de connexion.
Un nœud est une unité (ou instance répliquée) de connexion qui traite des transactions. Pour traiter davantage de transactions pour une connexion, vous devez disposer de plus de nœuds. À l'inverse, moins de nœuds sont nécessaires si une connexion traite moins de transactions. Pour comprendre comment les nœuds affectent la tarification de votre connecteur, consultez Tarifs des nœuds de connexion. Si vous ne saisissez aucune valeur, le nombre minimal de nœuds est défini par défaut sur 2 (pour améliorer la disponibilité) et le nombre maximal de nœuds sur 50.
- (Facultatif) Cliquez sur + AJOUTER UNE ÉTIQUETTE pour ajouter une étiquette à la connexion sous la forme d'une paire clé/valeur.
- Cliquez sur SUIVANT.
- Dans la section Destinations, saisissez des informations sur l'hôte distant (système backend) auquel vous souhaitez vous connecter.
- Type de destination : sélectionnez un type de destination.
- Sélectionnez Adresse de l'hôte dans la liste pour spécifier le nom d'hôte ou l'adresse IP de la destination.
- Si vous souhaitez établir une connexion privée à vos systèmes backend, sélectionnez Rattachement de point de terminaison dans la liste, puis sélectionnez le rattachement de point de terminaison requis dans la liste Rattachement de point de terminaison.
Si vous souhaitez établir une connexion publique à vos systèmes backend avec une sécurité supplémentaire, vous pouvez envisager de configurer des adresses IP sortantes statiques pour vos connexions, puis de configurer vos règles de pare-feu pour ajouter à la liste d'autorisation uniquement les adresses IP statiques spécifiques.
Pour saisir d'autres destinations, cliquez sur + AJOUTER UNE DESTINATION.
- Cliquez sur SUIVANT.
- Type de destination : sélectionnez un type de destination.
-
Dans la section Authentification, saisissez les informations d'authentification.
- Sélectionnez un type d'authentification, puis saisissez les informations appropriées.
Les types d'authentification suivants sont compatibles avec la connexion Splunk :
- Nom d'utilisateur et mot de passe (authentification de base)
- AccessToken
- HTTPEventCollectorToken
- Cliquez sur SUIVANT.
Pour savoir comment configurer ces types d'authentification, consultez Configurer l'authentification.
- Sélectionnez un type d'authentification, puis saisissez les informations appropriées.
- Vérifier : vérifiez vos informations de connexion et d'authentification.
- Cliquez sur Créer.
Configurer l'authentification
Saisissez les informations en fonction de l'authentification que vous souhaitez utiliser.
- Nom d'utilisateur et mot de passe
- Nom d'utilisateur : nom d'utilisateur Splunk à utiliser pour la connexion.
- Mot de passe : secret Secret Manager contenant le mot de passe associé au nom d'utilisateur Splunk.
-
AccessToken : définissez cette valeur pour effectuer une authentification basée sur un jeton à l'aide de la propriété
AccessToken
. -
HTTPEventCollectorToken : définissez cette valeur pour effectuer une authentification basée sur un jeton à l'aide de la propriété
HTTPEventCollectorToken
.
Exemples de configuration de connexion
Cette section présente des exemples de valeurs pour les différents champs que vous configurez lorsque vous créez la connexion Splunk.
Type de connexion avec collecteur d'événements HTTP
Nom du champ | Détails |
---|---|
Emplacement | us-central1 |
Connecteur | Splunk |
Version du connecteur | 1 |
Nom de connexion | splunk-http-event-coll-conn |
Activer Cloud Logging | Non |
Compte de service | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Nombre minimal de nœuds | 2 |
Nombre maximal de nœuds | 50 |
Activer SSL | Oui |
Connexion non sécurisée du truststore | Oui |
Type de destination (serveur) | Adresse de l'hôte |
Adresse de l'hôte | 192.0.2.0 |
Port | PORT |
Authentification basée sur un jeton de collecteur d'événements HTTP | Oui |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Version du secret | 1 |
Pour savoir comment créer un jeton de collecteur d'événements HTTP, consultez Create an HTTP event collector (Créer un collecteur d'événements HTTP).
Type de connexion SSL
Nom du champ | Détails |
---|---|
Emplacement | us-central1 |
Connecteur | Splunk |
Version du connecteur | 1 |
Nom de connexion | splunk-ssl-connection |
Activer Cloud Logging | Oui |
Compte de service | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Niveau de verbosité | 5 |
Nombre minimal de nœuds | 2 |
Nombre maximal de nœuds | 50 |
Activer SSL | Oui |
Connexion non sécurisée | Oui |
Type de destination (serveur) | Adresse de l'hôte |
Adresse de l'hôte | https://192.0.2.0 |
Port | PORT |
Mot de passe utilisateur | Oui |
Nom d'utilisateur | UTILISATEUR |
Mot de passe | MOT DE PASSE |
Version du secret | 1 |
Pour l'authentification de base, vous devez disposer du rôle d'utilisateur ou d'utilisateur expérimenté. Pour savoir comment configurer un utilisateur expérimenté, consultez Configure power user role (Configurer le rôle d'utilisateur expérimenté). Pour en savoir plus sur la définition des rôles dans Splunk, consultez Define the Role on Splunk Platform (Définir le rôle sur la plate-forme Splunk).
Entités, opérations et actions
Tous les connecteurs Integration Connectors fournissent une couche d'abstraction pour les objets de l'application connectée. Vous ne pouvez accéder aux objets d'une application que par le biais de cette abstraction. L'abstraction vous est présentée en tant qu'entités, opérations et actions.
- Entité : une entité peut être considérée comme un objet ou un ensemble de propriétés dans l'application ou le service connectés. La définition d'une entité diffère d'un connecteur à l'autre. Par exemple, dans un connecteur de base de données, les tables sont les entités, alors que dans un connecteur de serveur de fichiers, ce sont les dossiers, et dans un connecteur de système de messagerie, ce sont les files d'attente.
Toutefois, il est possible qu'un connecteur n'accepte ou ne possède aucune entité. Dans ce cas, la liste
Entities
est vide. - Opération : une opération est l'activité que vous pouvez effectuer sur une entité. Voici les opérations possibles :
Lorsque vous sélectionnez une entité dans la liste proposée, cela génère une liste d'opérations disponibles pour l'entité. Pour obtenir une description détaillée des opérations, consultez les opérations d'entité de la tâche "Connecteurs". Cependant, si un connecteur n'accepte pas l'une des opérations d'entité, cette opération non compatible ne figure pas dans la liste
Operations
. - Action : une action est une fonction de première classe mise à la disposition de l'intégration par le biais de l'interface du connecteur. Une action vous permet de modifier une ou plusieurs entités, et varie d'un connecteur à l'autre. Normalement, une action comporte des paramètres d'entrée et un paramètre de sortie. Toutefois, il est possible qu'un connecteur n'accepte aucune action, auquel cas la liste
Actions
est vide.
Limites du système
Le connecteur Splunk peut traiter au maximum cinq transactions par seconde et par nœud, et limite les transactions au-delà de ce seuil. Toutefois, le nombre de transactions que ce connecteur peut traiter dépend également des contraintes imposées par l'instance Splunk. Par défaut, Integration Connectors alloue deux nœuds (pour améliorer la disponibilité) à une connexion.
Pour en savoir plus sur les limites applicables à Integration Connectors, consultez Limites.
Actions
Dans cette section, vous trouverez la liste des actions prises en charge par le connecteur. Pour savoir comment configurer les actions, consultez Exemples d'actions.
Action CreateHTTPEvent
Cette action permet d'envoyer des événements d'application et de données à un déploiement Splunk avec les protocoles HTTP et HTTPS.
Paramètres d'entrée de l'action CreateHTTPEvent
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
EventContent | STRING | Oui | Nom de la table ou de la vue. |
ContentType | STRING | Non | Type de contenu spécifié pour l'entrée EventContent . Les valeurs acceptées sont JSON et RAWTEXT . |
ChannelGUID | INTEGER | Non | GUID du canal utilisé pour l'événement. Vous devez spécifier cette valeur si ContentType est défini sur RAWTEXT . |
Paramètres de sortie de l'action CreateHTTPEvent
Cette action renvoie l'état de réussite de l'événement créé.
Action CreateIndex
Cette action permet de créer des index.
Paramètres d'entrée de l'action CreateIndex
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
MaxMetaEntries | STRING | Non | Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut aider à réduire la consommation de mémoire. |
FrozenTimePeriodInSecs | STRING | Non | Nombre de secondes au bout duquel les données indexées sont gelées. La valeur par défaut est 188697600 (six ans). |
HomePath | STRING | Non | Chemin absolu contenant les buckets chauds et tièdes de l'index. |
MinRawFileSyncSecs | STRING | Non | Spécifiez un entier (ou disable ) pour ce paramètre. Il définit la fréquence à laquelle splunkd force la synchronisation d'un système de fichiers lors de la compression des segments de journal. |
ProcessTrackerServiceInterval | STRING | Non | Indique la fréquence (en secondes) à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état des processus enfants toutes les secondes. |
ServiceMetaPeriod | STRING | Non | Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque. |
MaxHotSpanSecs | STRING | Non | Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes. |
QuarantinePastSecs | STRING | Non | Les événements dont le code temporel défini pour quarantinePastSecs est antérieur à >now sont placés dans le bucket de quarantaine. |
ColdToFrozenDir | STRING | Non | Chemin de destination de l'archive gelée. À utiliser comme alternative à ColdToFrozenScript. |
ColdPath | STRING | Non | Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être accessible en lecture et en écriture. |
MaxHotIdleSecs | STRING | Non | Durée de vie maximale (en secondes) d'un bucket chaud. |
WarmToColdScript | STRING | Non | Chemin d'accès à un script à exécuter lors du passage de données de l'état tiède à l'état froid. |
ColdToFrozenScript | STRING | Non | Chemin d'accès au script d'archivage. |
MaxHotBuckets | STRING | Non | Nombre maximal de buckets chauds pouvant exister par index. |
TstatsHomePath | STRING | Non | Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet index. Si ce paramètre est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture. |
RepFactor | STRING | Non | Contrôle de la réplication de l'index. Ce paramètre ne s'applique qu'aux nœuds homologues du cluster.
|
MaxDataSize | STRING | Non | Taille maximale (en Mo) qu'une base de données chaude peut atteindre avant que son passage à l'état tiède ne soit déclenché.
Si vous spécifiez auto ou auto_high_volume , Splunk ajuste automatiquement ce paramètre (recommandé). |
MaxBloomBackfillBucketAge | STRING | Non | Valeurs valides : integer[m|s|h|d]. Si un bucket tiède ou froid est plus ancien que l'âge spécifié, vous ne devez pas créer ni recréer son filtre de Bloom. Indiquez 0 pour ne jamais recréer de filtres de Bloom. |
BlockSignSize | STRING | Non | Contrôle le nombre d'événements qui composent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet index. La valeur recommandée est 100. |
Name | STRING | Oui | Nom de l'index à créer. |
MaxTotalDataSizeMB | STRING | Non | Taille maximale d'un index (en Mo). Si un index dépasse la taille maximale, les données les plus anciennes sont gelées. |
MaxWarmDBCount | STRING | Non | Nombre maximal de buckets tièdes. Si ce nombre est dépassé, les buckets tièdes dont la valeur la plus récente est la plus faible passent à l'état froid. |
RawChunkSizeBytes | STRING | Non | Taille cible non compressée (en octets) pour chaque segment brut dans le journal de données brutes de l'index. La valeur 0 n'est pas valide. Si elle est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut. |
DataType | STRING | Non | Indique le type d'index. |
MaxConcurrentOptimizes | STRING | Non | Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud. |
ThrottleCheckPeriod | STRING | Non | Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index. |
SyncMeta | STRING | Non | Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant que le descripteur de fichier ne soit fermé lors des mises à jour des fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, surtout en cas de plantage du système d'exploitation ou de défaillance de la machine. |
RotatePeriodInSecs | STRING | Non | Définit la fréquence (en secondes) à laquelle vérifier si un bucket chaud doit être créé, ainsi que la fréquence à laquelle vérifier si des buckets tièdes/froids doivent changer d'état/être gelés. |
Paramètres de sortie de l'action CreateIndex
Cette action renvoie le message de confirmation de l'action CreateIndex.
Pour savoir comment configurer l'action CreateIndex
, consultez Exemples d'actions.
Action CreateSavedSearch
Cette action permet d'enregistrer vos recherches.
Paramètres d'entrée de l'action CreateSavedSearch
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
IsVisible | BOOLEAN | Oui | Indique si cette recherche enregistrée apparaît dans la liste des recherches enregistrées visibles. |
RealTimeSchedule | BOOLEAN | Oui | Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de l'heure d'exécution de la dernière recherche. |
Search | STRING | Oui | Requête de recherche à enregistrer. |
Description | STRING | Non | Description de cette recherche enregistrée. |
SchedulePriority | STRING | Oui | Indique la priorité de planification d'une recherche spécifique. |
CronSchedule | STRING | Oui | Planification Cron pour exécuter cette recherche. Par exemple, */5 * * * * entraîne l'exécution de la recherche toutes les cinq minutes. |
Name | STRING | Oui | Nom de la recherche. |
UserContext | STRING | Oui | Si le contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général /services est utilisé par défaut. |
RunOnStartup | BOOLEAN | Oui | Indique si cette recherche s'exécute au démarrage. Si ce n'est pas le cas, elle s'exécute à l'heure planifiée suivante. |
Disabled | BOOLEAN | Non | Indique si cette recherche enregistrée est désactivée. |
IsScheduled | BOOLEAN | Oui | Indique si cette recherche doit être exécutée selon une planification. |
Paramètres de sortie de l'action CreateSavedSearch
Cette action renvoie le message de confirmation de l'action CreateSavedSearch.
Pour savoir comment configurer l'action CreateSavedSearch
, consultez Exemples d'actions.
Action UpdateSavedSearch
Cette action permet de mettre à jour une recherche enregistrée.
Paramètres d'entrée de l'action UpdateSavedSearch
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
IsVisible | BOOLEAN | Oui | Indique si cette recherche enregistrée apparaît dans la liste des recherches enregistrées visibles. |
RealTimeSchedule | BOOLEAN | Oui | Si cette valeur est définie sur 1, le planificateur détermine l'heure d'exécution de la recherche planifiée suivante en fonction de l'heure actuelle. Si cette valeur est définie sur 0, elle est déterminée en fonction de l'heure d'exécution de la dernière recherche. |
Search | STRING | Oui | Requête de recherche à enregistrer. |
Description | STRING | Non | Description de cette recherche enregistrée. |
SchedulePriority | STRING | Oui | Indique la priorité de planification d'une recherche spécifique. |
CronSchedule | STRING | Oui | Planification Cron pour exécuter cette recherche. Par exemple, */5 * * * * entraîne l'exécution de la recherche toutes les cinq minutes. |
Name | STRING | Oui | Nom de la recherche. |
UserContext | STRING | Oui | Si le contexte utilisateur est fourni, le nœud servicesNS est utilisé (/servicesNS/[UserContext]/search). Sinon, le point de terminaison général /services est utilisé par défaut. |
RunOnStartup | BOOLEAN | Oui | Indique si cette recherche s'exécute au démarrage. Si ce n'est pas le cas, elle s'exécute à l'heure planifiée suivante. |
Disabled | BOOLEAN | Non | Indique si cette recherche enregistrée est désactivée. |
IsScheduled | BOOLEAN | Oui | Indique si cette recherche doit être exécutée selon une planification. |
Paramètres de sortie de l'action UpdateSavedSearch
Cette action renvoie le message de confirmation de l'action UpdateSavedSearch.
Pour savoir comment configurer l'action UpdateSavedSearch
, consultez Exemples d'actions.
Action DeleteIndex
Cette action permet de supprimer un index.
Paramètres d'entrée de l'action DeleteIndex
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
Name | STRING | Oui | Nom de l'index à supprimer. |
Paramètres de sortie de l'action DeleteIndex
Cette action renvoie le message de confirmation de l'action DeleteIndex.
Pour savoir comment configurer l'action DeleteIndex
, consultez Exemples d'actions.
Action UpdateIndex
Cette action permet de mettre à jour un index.
Paramètres d'entrée de l'action UpdateIndex
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
MaxMetaEntries | STRING | Non | Définit le nombre maximal de lignes uniques dans les fichiers .data d'un bucket, ce qui peut aider à réduire la consommation de mémoire. |
FrozenTimePeriodInSecs | STRING | Non | Nombre de secondes au bout duquel les données indexées sont gelées. La valeur par défaut est 188697600 (six ans). |
HomePath | STRING | Non | Chemin absolu contenant les buckets chauds et tièdes de l'index. |
MinRawFileSyncSecs | STRING | Non | Spécifiez un entier (ou disable ) pour ce paramètre. Il définit la fréquence à laquelle splunkd force la synchronisation d'un système de fichiers lors de la compression des segments de journal. |
ProcessTrackerServiceInterval | STRING | Non | Indique la fréquence (en secondes) à laquelle l'indexeur vérifie l'état des processus d'OS enfants qu'il a lancés pour voir s'il peut lancer de nouveaux processus pour les requêtes en file d'attente. Si la valeur est définie sur 0, l'indexeur vérifie l'état des processus enfants toutes les secondes. |
ServiceMetaPeriod | STRING | Non | Définit la fréquence (en secondes) à laquelle les métadonnées sont synchronisées sur le disque. |
MaxHotSpanSecs | STRING | Non | Limite supérieure de la période cible maximale (en secondes) des buckets chauds ou tièdes. |
QuarantinePastSecs | STRING | Non | Les événements dont le code temporel défini pour quarantinePastSecs est antérieur à now sont placés dans le bucket de quarantaine. |
ColdToFrozenDir | STRING | Non | Chemin de destination de l'archive gelée. À utiliser comme alternative à ColdToFrozenScript. |
ColdPath | STRING | Non | Chemin absolu contenant les colddbs de l'index. Le chemin d'accès doit être accessible en lecture et en écriture. |
MaxHotIdleSecs | STRING | Non | Durée de vie maximale (en secondes) d'un bucket chaud. |
WarmToColdScript | STRING | Non | Chemin d'accès à un script à exécuter lors du passage de données de l'état tiède à l'état froid. |
ColdToFrozenScript | STRING | Non | Chemin d'accès au script d'archivage. |
MaxHotBuckets | STRING | Non | Nombre maximal de buckets chauds pouvant exister par index. |
TstatsHomePath | STRING | Non | Emplacement où stocker les données TSIDX d'accélération du modèle de données pour cet index. Si ce paramètre est spécifié, il doit être défini en termes de définition de volume. Le chemin d'accès doit être accessible en écriture. |
RepFactor | STRING | Non | Contrôle de la réplication de l'index. Ce paramètre ne s'applique qu'aux nœuds homologues du cluster.
|
MaxDataSize | STRING | Non | Taille maximale (en Mo) qu'une base de données chaude peut atteindre avant que son passage à l'état tiède ne soit déclenché.
Si vous spécifiez auto ou auto_high_volume , Splunk ajuste automatiquement ce paramètre (recommandé). |
MaxBloomBackfillBucketAge | STRING | Non | Valeurs valides : integer[m|s|h|d]. Si un bucket tiède ou froid est plus ancien que l'âge spécifié, vous ne devez pas créer ni recréer son filtre de Bloom. Indiquez 0 pour ne jamais recréer de filtres de Bloom. |
BlockSignSize | STRING | Non | Contrôle le nombre d'événements qui composent un bloc pour les signatures de bloc. Si cette valeur est définie sur 0, la signature de bloc est désactivée pour cet index. La valeur recommandée est 100. |
Name | STRING | Oui | Nom de l'index à créer. |
MaxTotalDataSizeMB | STRING | Oui | Taille maximale d'un index (en Mo). Si un index dépasse la taille maximale, les données les plus anciennes sont gelées. |
MaxWarmDBCount | STRING | Non | Nombre maximal de buckets tièdes. Si ce nombre est dépassé, les buckets tièdes dont la valeur la plus récente est la plus faible passent à l'état froid. |
RawChunkSizeBytes | STRING | Non | Taille cible non compressée (en octets) pour chaque segment brut dans le journal de données brutes de l'index. La valeur 0 n'est pas valide. Si elle est spécifiée, rawChunkSizeBytes est défini sur la valeur par défaut. |
DataType | STRING | Non | Indique le type d'index. |
MaxConcurrentOptimizes | STRING | Non | Nombre de processus d'optimisation simultanés pouvant s'exécuter sur un bucket chaud. |
ThrottleCheckPeriod | STRING | Non | Définit la fréquence (en secondes) à laquelle Splunk vérifie la condition de limitation de l'index. |
SyncMeta | STRING | Non | Si cette valeur est définie sur "true", une opération de synchronisation est appelée avant que le descripteur de fichier ne soit fermé lors des mises à jour des fichiers de métadonnées. Cette fonctionnalité améliore l'intégrité des fichiers de métadonnées, surtout en cas de plantage du système d'exploitation ou de défaillance de la machine. |
RotatePeriodInSecs | STRING | Non | Définit la fréquence (en secondes) à laquelle vérifier si un bucket chaud doit être créé, ainsi que la fréquence à laquelle vérifier si des buckets tièdes/froids doivent changer d'état/être gelés. |
Paramètres de sortie de l'action UpdateIndex
Cette action renvoie le message de confirmation de l'action UpdateIndex.
Pour savoir comment configurer l'action UpdateIndex
, consultez Exemples d'actions.
Exemples d'actions
Exemple : Créer un événement HTTP
Cet exemple crée un événement HTTP.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateHTTPEvent
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche CreateHTTPEvent
aura une valeur semblable à la suivante :
[{ "Success": "Success" }]
Exemple : Créer un index
Cet exemple crée un index.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "http_testing" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche CreateIndex
aura une valeur semblable à la suivante :
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Exemple : Créer une recherche enregistrée
Cet exemple crée une recherche enregistrée.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
CreateSavedSearch
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche CreateSavedSearch
aura une valeur semblable à la suivante :
[{ "Success": true, "Message": null }]
Exemple : Mettre à jour une recherche enregistrée
Cet exemple met à jour une recherche enregistrée.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
UpdateSavedSearch
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche UpdateSavedSearch
aura une valeur semblable à la suivante :
[{ "Success": true, "Message": null }]
Exemple : Supprimer un index
Cet exemple supprime un index.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
DeleteIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Name": "g_http_testing" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche DeleteIndex
aura une valeur semblable à la suivante :
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemple : Mettre à jour un index
Cet exemple met à jour un index.
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
UpdateIndex
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche UpdateIndex
aura une valeur semblable à la suivante :
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemples d'opérations d'entité
Cette section explique comment effectuer certaines opérations d'entité dans ce connecteur.
Exemple : Lister tous les enregistrements
Cet exemple liste tous les enregistrements de l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - (Facultatif) Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez filtrer votre ensemble de résultats en spécifiant une clause de filtre. Indiquez toujours la valeur de la clause de filtre entre guillemets simples (').
Exemple : Récupérer un enregistrement à partir d'une entité
Cet exemple récupère un enregistrement ayant l'ID spécifié à partir de l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Get
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur EntityId, puis saisissez
1698309163.1300
dans le champ Valeur par défaut.Ici,
1698309163.1300
est un ID d'enregistrement unique dans l'entitéSearchJobs
.
Exemple : Créer un enregistrement dans une entité
Cet exemple crée un enregistrement dans l'entité SearchJobs
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à la suivante :{ "Sid": "1699336785.1919" }
Exemple : Créer un enregistrement dans une entité
Cet exemple crée un enregistrement dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Si l'intégration aboutit, le champ
connectorOutputPayload
de la tâche "Connecteurs" aura une valeur semblable à la suivante :[{ "Id": "Test1" }]
Exemple : Supprimer un enregistrement d'une entité
Cet exemple supprime l'enregistrement ayant l'ID spécifié dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Delete
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur entityId, puis saisissez
Test1
dans le champ Valeur par défaut.
Exemple : Mettre à jour un enregistrement dans une entité
Cet exemple met à jour un enregistrement dans l'entité DataModels
.
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
DataModels
dans la listeEntity
. - Sélectionnez l'opération
Update
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, cliquez sur
connectorInputPayload
, puis saisissez une valeur semblable à la suivante dans le champDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Cliquez sur entityId, puis saisissez
/servicesNS/nobody/search/datamodel/model/Testing
dans le champ Valeur par défaut.Si l'intégration aboutit, le champ
connectorOutputPayload
de la tâche "Connecteurs" aura une valeur semblable à la suivante :[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Exemple : Flux de recherche utilisant un index
Dans cette section, vous trouverez la liste de tous les flux de recherche utilisant un index unique et plusieurs index.
Créer une recherche à l'aide d'un index unique
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à la suivante :{ "Sid": "1726051471.76" }
Opération List utilisant le nom d'index indiqué dans la requête de recherche
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
Index Name
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez définir la filterClause, par exemple Sid= '1726051471.76'.
Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload
de la tâche Index Name
aura une valeur semblable à la suivante :
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Créer une recherche à l'aide de plusieurs index
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à la suivante :{ "Sid": "1727261971.4007" }
Opération List utilisant les noms d'index indiqués dans la requête de recherche
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
Index Name
dans la listeEntity
. - Sélectionnez l'opération
List
, puis cliquez sur OK. - Dans la section Entrée de la tâche de la tâche Connecteurs, vous pouvez définir la filterClause, par exemple Sid= '1727261971.4007'.
Si l'intégration aboutit, le paramètre de réponse connectorOutputPayload
de la tâche Index
aura une valeur semblable à la suivante :
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Exemple : Flux de recherche utilisant des ReadJobResults
Dans cette section, vous trouverez la liste de tous les flux de recherche qui utilisent à la fois un index unique et plusieurs index compatibles avec la connexion Splunk. Actuellement, la taille maximale de la charge utile pour les résultats de journal compatibles est de 150 Mo.
Créer une recherche avec un index unique
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Cet exemple crée une recherche. Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à la suivante :{ "Sid": "1732775755.24612" }
Pour obtenir les résultats de la recherche, effectuez l'opération Create sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.
Récupérer des journaux de résultats à l'aide de l'action ReadJobResults
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
ReadJobResults
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "Sid": "1732775755.24612" }
Si l'action aboutit, le paramètre de réponse
connectorOutputPayload
de la tâche ReadJobResults
aura une valeur semblable à la suivante :
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Créer une recherche avec plusieurs index
- Dans la boîte de dialogue
Configure connector task
, cliquez surEntities
. - Sélectionnez
SearchJobs
dans la listeEntity
. - Sélectionnez l'opération
Create
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Si l'intégration aboutit, le paramètre de réponse
connectorOutputPayload
de la tâcheSearchJobs
aura une valeur semblable à la suivante :{ "Sid": "1732776556.24634" }
Pour obtenir les résultats de la recherche, effectuez l'opération Create sur l'action ReadJobResults. Pour vous assurer que les résultats sont filtrés en fonction du SID, transmettez-le en tant que paramètre à l'action.
ResultsLogs à l'aide de l'action ReadJobResults
- Dans la boîte de dialogue
Configure connector task
, cliquez surActions
. - Sélectionnez l'action
ReadJobResults
, puis cliquez sur OK. - Dans la section Data Mapper de la tâche Mappage de données, cliquez sur
Open Data Mapping Editor
, puis saisissez une valeur semblable à la suivante dans le champInput Value
et choisissez EntityId/ConnectorInputPayload comme variable locale.{ "Sid": "1732776556.24634" }
- Pour savoir comment créer et utiliser la tâche "Connecteurs" dans Apigee Integration, consultez Tâche "Connecteurs".
- Pour savoir comment créer et utiliser la tâche "Connecteurs" dans Application Integration, consultez Tâche "Connecteurs".
- Découvrez comment suspendre et reprendre une connexion.
- Découvrez comment surveiller l'utilisation des connecteurs.
- Découvrez comment afficher les journaux des connecteurs.
Si l'action aboutit, le paramètre de réponse connectorOutputPayload
de la tâche ReadJobResults
aura une valeur semblable à la suivante :
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Utiliser Terraform pour créer des connexions
Vous pouvez utiliser la ressource Terraform pour créer une connexion.Pour savoir comment appliquer ou supprimer une configuration Terraform, consultez Commandes Terraform de base.
Pour afficher un exemple de modèle Terraform permettant de créer une connexion, consultez Exemple de modèle.
Lorsque vous créez cette connexion à l'aide de Terraform, vous devez définir les variables suivantes dans votre fichier de configuration Terraform :
Nom du paramètre | Type de données | Obligatoire | Description |
---|---|---|---|
verbosity | STRING | False | Niveau de verbosité de la connexion, compris entre 1 et 5. Un niveau de verbosité plus élevé consigne tous les détails de la communication (requête, réponse et certificats SSL). |
proxy_enabled | BOOLEAN | False | Cochez cette case afin de configurer un serveur proxy pour la connexion. |
proxy_auth_scheme | ENUM | False | Type d'authentification à utiliser pour s'authentifier auprès du proxy ProxyServer. Valeurs acceptées : BASIC, DIGEST et NONE. |
proxy_user | STRING | False | Nom d'utilisateur permettant de s'authentifier auprès du proxy ProxyServer. |
proxy_password | SECRET | False | Mot de passe à utiliser pour s'authentifier auprès du proxy ProxyServer. |
proxy_ssltype | ENUM | False | Type SSL à utiliser lors de la connexion au proxy ProxyServer. Valeurs acceptées : AUTO, ALWAYS, NEVER et TUNNEL. |
Utiliser la connexion Splunk dans une intégration
Une fois la connexion créée, elle devient disponible dans Apigee Integration et Application Integration. Vous pouvez utiliser la connexion dans une intégration au moyen de la tâche "Connecteurs".