Splunk
Il connettore Splunk ti consente di eseguire operazioni di inserimento, eliminazione, aggiornamento e lettura sul database Splunk.
Prima di iniziare
Prima di utilizzare il connettore Splunk, esegui le seguenti operazioni:
- Nel tuo progetto Google Cloud:
- Assicurati che la connettività di rete sia configurata. Per informazioni sui pattern di rete, consulta Connettività di rete.
- Concedi il ruolo IAM roles/connectors.admin all'utente che configura il connettore.
- Concedi i seguenti ruoli IAM al account di servizio che vuoi utilizzare per il connettore:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Un account di servizio è un tipo speciale di Account Google destinato a rappresentare un utente non umano che deve eseguire l'autenticazione ed essere autorizzato ad accedere ai dati nelle API di Google. Se non hai un account di servizio, devi crearne uno. Per maggiori informazioni, vedi Creare un service account.
- Attiva i seguenti servizi:
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Per capire come abilitare i servizi, consulta Abilitazione dei servizi.
Se questi servizi o queste autorizzazioni non sono stati attivati in precedenza per il tuo progetto, ti viene chiesto di attivarli durante la configurazione del connettore.
Configura il connettore
Una connessione è specifica per un'origine dati. Ciò significa che se hai molte origini dati, devi creare una connessione separata per ciascuna origine dati. Per creare una connessione:
- Nella console Cloud, vai alla pagina Integration Connectors > Connessioni e poi seleziona o crea un progetto Google Cloud.
- Fai clic su + CREA NUOVA per aprire la pagina Crea connessione.
- Nella sezione Località, scegli la località per la connessione.
- Regione: seleziona una località dall'elenco a discesa.
Per l'elenco di tutte le regioni supportate, consulta Località.
- Fai clic su AVANTI.
- Regione: seleziona una località dall'elenco a discesa.
- Nella sezione Dettagli connessione, completa quanto segue:
- Connettore: seleziona Splunk dall'elenco a discesa dei connettori disponibili.
- Versione del connettore: seleziona la versione del connettore dall'elenco a discesa delle versioni disponibili.
- Nel campo Nome connessione, inserisci un nome per l'istanza di connessione.
I nomi delle connessioni devono soddisfare i seguenti criteri:
- I nomi delle connessioni possono contenere lettere, numeri o trattini.
- Le lettere devono essere minuscole.
- I nomi delle connessioni devono iniziare con una lettera e terminare con una lettera o un numero.
- I nomi delle connessioni non possono contenere più di 49 caratteri.
- (Facoltativo) Inserisci una Descrizione per l'istanza di connessione.
- (Facoltativo) Abilita Cloud Logging,
quindi seleziona un livello di log. Per impostazione predefinita, il livello di log è impostato su
Error
. - Service Account: seleziona un account di servizio con i ruoli richiesti.
- (Facoltativo) Configura le impostazioni del nodo di connessione:
- Numero minimo di nodi: inserisci il numero minimo di nodi di connessione.
- Numero massimo di nodi: inserisci il numero massimo di nodi di connessione.
Un nodo è un'unità (o una replica) di una connessione che elabora le transazioni. Sono necessari più nodi per elaborare più transazioni per una connessione e, viceversa, sono necessari meno nodi per elaborare meno transazioni. Per capire in che modo i nodi influiscono sui prezzi dei connettori, consulta la sezione Prezzi dei nodi di connessione. Se non inserisci alcun valore, per impostazione predefinita i nodi minimi sono impostati su 2 (per una migliore disponibilità) e i nodi massimi su 50.
- (Facoltativo) Fai clic su + AGGIUNGI ETICHETTA per aggiungere un'etichetta alla connessione sotto forma di coppia chiave/valore.
- Fai clic su AVANTI.
- Nella sezione Destinazioni, inserisci i dettagli dell'host remoto (sistema di backend) a cui vuoi connetterti.
- Tipo di destinazione: seleziona un Tipo di destinazione.
- Per specificare il nome host o l'indirizzo IP di destinazione, seleziona Indirizzo host e inserisci l'indirizzo nel campo Host 1.
- Per stabilire una connessione privata, seleziona Collegamento endpoint e scegli il collegamento richiesto dall'elenco Collegamento endpoint.
Se vuoi stabilire una connessione pubblica ai tuoi sistemi di backend con maggiore sicurezza, puoi valutare la possibilità di configurare indirizzi IP statici in uscita per le tue connessioni e poi configurare le regole del firewall in modo da consentire solo gli indirizzi IP statici specifici.
Per inserire altre destinazioni, fai clic su +AGGIUNGI DESTINAZIONE.
- Fai clic su AVANTI.
- Tipo di destinazione: seleziona un Tipo di destinazione.
-
Nella sezione Autenticazione, inserisci i dettagli di autenticazione.
- Seleziona un Tipo di autenticazione e inserisci i dettagli pertinenti.
La connessione Splunk supporta i seguenti tipi di autenticazione:
- Nome utente e password (autenticazione di base)
- AccessToken
- HTTPEventCollectorToken
- Fai clic su AVANTI.
Per capire come configurare questi tipi di autenticazione, consulta Configurare l'autenticazione.
- Seleziona un Tipo di autenticazione e inserisci i dettagli pertinenti.
- Rivedi: rivedi i dettagli di connessione e autenticazione.
- Fai clic su Crea.
Configura l'autenticazione
Inserisci i dettagli in base all'autenticazione che vuoi utilizzare.
-
Nome utente e password
- Nome utente: il nome utente Splunk da utilizzare per la connessione.
- Password: secret di Secret Manager contenente la password associata al nome utente Splunk.
-
AccessToken: imposta questo valore per eseguire l'autenticazione basata su token utilizzando
la proprietà
AccessToken
. -
HTTPEventCollectorToken: impostalo per eseguire l'autenticazione basata su token utilizzando la proprietà
HTTPEventCollectorToken
.
Esempi di configurazione della connessione
Questa sezione elenca i valori di esempio per i vari campi che configuri durante la creazione della connessione Splunk.
Tipo di connessione della raccolta eventi HTTP
Nome campo | Dettagli |
---|---|
Località | us-central1 |
Connettore | Splunk |
Versione del connettore | 1 |
Nome collegamento | splunk-http-event-coll-conn |
Abilita Cloud Logging | No |
Service account | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Numero minimo di nodi | 2 |
Numero massimo di nodi | 50 |
Attiva SSL | Sì |
Archivio di attendibilità Connessione non sicura | Sì |
Tipo di destinazione(server) | Indirizzo host |
Indirizzo host | 192.0.2.0 |
Porta | PORT |
Autenticazione basata su token della raccolta eventi HTTP | Sì |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versione secret | 1 |
Per informazioni su come creare un token di raccolta eventi HTTP, vedi Creare una raccolta eventi HTTP.
Tipo di connessione SSL
Nome campo | Dettagli |
---|---|
Località | us-central1 |
Connettore | Splunk |
Versione del connettore | 1 |
Nome collegamento | splunk-ssl-connection |
Abilita Cloud Logging | Sì |
Service account | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Livello di verbosità | 5 |
Numero minimo di nodi | 2 |
Numero massimo di nodi | 50 |
Attiva SSL | Sì |
Connessione non sicura | Sì |
Tipo di destinazione(server) | Indirizzo host |
Indirizzo host | https://192.0.2.0 |
Porta | PORT |
Password utente | Sì |
Nome utente | UTENTE |
Password | PASSWORD |
Versione secret | 1 |
Per l'autenticazione di base, devi disporre del ruolo utente o utente avanzato. Per informazioni su come configurare un utente avanzato, vedi Configurare il ruolo di utente avanzato. Per informazioni sulla definizione dei ruoli in Splunk, vedi Definire il ruolo sulla piattaforma Splunk.
Entità, operazioni e azioni
Tutti i connettori di integrazione forniscono un livello di astrazione per gli oggetti dell'applicazione connessa. Puoi accedere agli oggetti di un'applicazione solo tramite questa astrazione. L'astrazione ti viene mostrata come entità, operazioni e azioni.
- Entità : un'entità può essere considerata un oggetto o una raccolta di proprietà nell'applicazione o nel servizio connesso. La definizione di un'entità varia da un connettore all'altro. Ad esempio, in un connettore di database, le tabelle sono le entità, in un
connettore del file server, le cartelle sono le entità e in un connettore del sistema di messaggistica,
le code sono le entità.
Tuttavia, è possibile che un connettore non supporti o non abbia entità, nel qual caso l'elenco
Entities
sarà vuoto. - Operazione : un'operazione è l'attività che puoi eseguire su un'entità. Puoi eseguire
una delle seguenti operazioni su un'entità:
Selezionando un'entità dall'elenco disponibile, viene generato un elenco di operazioni disponibili per l'entità. Per una descrizione dettagliata delle operazioni, consulta le operazioni sulle entità dell'attività Connettori. Tuttavia, se un connettore non supporta alcuna delle operazioni sulle entità, queste operazioni non supportate non sono elencate nell'elenco
Operations
. - Azione: un'azione è una funzione di prima classe resa disponibile per l'integrazione
tramite l'interfaccia del connettore. Un'azione ti consente di apportare modifiche a una o più entità e
varia da connettore a connettore. In genere, un'azione ha alcuni parametri di input e un parametro di output. Tuttavia, è possibile
che un connettore non supporti alcuna azione, nel qual caso l'elenco
Actions
sarà vuoto.
Limitazioni di sistema
Il connettore Splunk può elaborare 5 transazioni al secondo, per nodo, e limita le transazioni oltre questo limite. Tuttavia, il numero di transazioni che questo connettore può elaborare dipende anche dai vincoli imposti dall'istanza Splunk. Per impostazione predefinita, Integration Connectors alloca due nodi (per una migliore disponibilità) per una connessione.
Per informazioni sui limiti applicabili a Integration Connectors, vedi Limiti.
Azioni
Questa sezione elenca le azioni supportate dal connettore. Per capire come configurare le azioni, consulta Esempi di azioni.
Azione CreateHTTPEvent
Questa azione ti consente di inviare dati ed eventi dell'applicazione a un deployment Splunk tramite i protocolli HTTP e HTTPS.
Parametri di input dell'azione CreateHTTPEvent
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
EventContent | Stringa | Sì | Il nome della tabella o della visualizzazione. |
ContentType | Stringa | No | Il tipo di contenuti specificato per l'input EventContent . I valori supportati sono JSON e RAWTEXT . |
ChannelGUID | Numero intero | No | Il GUID del canale utilizzato per l'evento. Devi specificare questo valore
se ContentType è RAWTEXT . |
Parametri di output dell'azione CreateHTTPEvent
Questa azione restituisce lo stato di riuscita dell'evento creato.
Azione CreateIndex
Questa azione ti consente di creare indici.
Parametri di input dell'azione CreateIndex
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
MaxMetaEntries | Stringa | No | Imposta il numero massimo di righe uniche nei file .data in un bucket, il che può contribuire a ridurre il consumo di memoria. |
FrozenTimePeriodInSecs | Stringa | No | Numero di secondi dopo i quali i dati indicizzati vengono spostati in stato bloccato. Il valore predefinito è 188697600 (6 anni). |
HomePath | Stringa | No | Un percorso assoluto che contiene i bucket caldi e tiepidi per l'indice. |
MinRawFileSyncSecs | Stringa | No | Specifica un numero intero (o disable ) per questo parametro. Questo parametro imposta
la frequenza con cui splunkd forza una sincronizzazione del file system durante la compressione delle sezioni del journal. |
ProcessTrackerServiceInterval | Stringa | No | Specifica, in secondi, la frequenza con cui l'indicizzatore controlla lo stato dei processi del sistema operativo secondario che ha avviato per verificare se può avviare nuovi processi per le richieste in coda. Se impostato su 0, l'indicizzatore controlla lo stato del processo secondario ogni secondo. |
ServiceMetaPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui i metadati vengono sincronizzati sul disco. |
MaxHotSpanSecs | Stringa | No | Limite superiore dell'intervallo di tempo massimo target (in secondi) dei bucket caldi o tiepidi. |
QuarantinePastSecs | Stringa | No | Gli eventi con timestamp quarantinePastSecs precedente a >now vengono inseriti nel bucket di quarantena. |
ColdToFrozenDir | Stringa | No | Percorso di destinazione per l'archivio bloccato. Utilizzalo in alternativa a uno script ColdToFrozen. |
ColdPath | Stringa | No | Un percorso assoluto che contiene i colddb per l'indice. Il percorso deve essere leggibile e scrivibile. |
MaxHotIdleSecs | Stringa | No | Durata massima, in secondi, di un bucket caldo |
WarmToColdScript | Stringa | No | Percorso di uno script da eseguire quando i dati vengono spostati da warm a cold. |
ColdToFrozenScript | Stringa | No | Percorso dello script di archiviazione. |
MaxHotBuckets | Stringa | No | Numero massimo di bucket attivi che possono esistere per indice. |
TstatsHomePath | Stringa | No | Posizione in cui archiviare i dati TSIDX di accelerazione del modello di dati per questo indice. Se specificato, deve essere definito in termini di definizione del volume. Il percorso deve essere scrivibile |
RepFactor | Stringa | No | Controllo della replica dell'indice. Questo parametro si applica solo ai nodi peer nel cluster.
|
MaxDataSize | Stringa | No | La dimensione massima in MB che un database attivo deve raggiungere prima che venga attivato il roll to warm.
Se specifichi auto o auto_high_volume , Splunk
ottimizza automaticamente questo parametro (opzione consigliata). |
MaxBloomBackfillBucketAge | Stringa | No | I valori validi sono: integer[m|s|h|d] se un bucket caldo o freddo è più vecchio dell'età specificata, non creare o ricreare il relativo filtro Bloom. Specifica 0 per non ricompilare mai i filtri Bloom. |
BlockSignSize | Stringa | No | Controlla il numero di eventi che compongono un blocco per le firme dei blocchi. Se questo valore è impostato su 0, la firma del blocco è disattivata per questo indice. Un valore consigliato è 100. |
Nome | Stringa | Sì | Il nome dell'indice da creare |
MaxTotalDataSizeMB | Stringa | No | La dimensione massima di un indice (in MB). Se un indice supera le dimensioni massime, i dati meno recenti vengono bloccati. |
MaxWarmDBCount | Stringa | No | Il numero massimo di bucket caldi. Se questo numero viene superato, i bucket caldi con il valore più basso per gli ultimi orari vengono spostati in quelli freddi. |
RawChunkSizeBytes | Stringa | No | Dimensioni non compresse in byte per la singola sezione non elaborata nel journal rawdata dell'indice. 0 non è un valore valido. Se viene specificato 0, rawChunkSizeBytes viene impostato sul valore predefinito. |
DataType | Stringa | No | Specifica il tipo di indice |
MaxConcurrentOptimizes | Stringa | No | Il numero di processi di ottimizzazione simultanei che possono essere eseguiti su un bucket caldo. |
ThrottleCheckPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui Splunk verifica la condizione di limitazione dell'indice. |
SyncMeta | Stringa | No | Se è true, viene chiamata un'operazione di sincronizzazione prima che il descrittore del file venga chiuso negli aggiornamenti del file di metadati. Questa funzionalità migliora l'integrità dei file di metadati, in particolare per quanto riguarda i blocchi del sistema operativo o i guasti del computer. |
RotatePeriodInSecs | Stringa | No | Frequenza (in secondi) con cui controllare se è necessario creare un nuovo bucket caldo. Inoltre, con quale frequenza controllare se sono presenti bucket caldi/freddi che devono essere sottoposti a roll/freeze. |
Parametri di output dell'azione CreateIndex
Questa azione restituisce il messaggio di conferma dell'azione CreateIndex.
Per un esempio di come configurare l'azione CreateIndex
,
consulta Esempi di azioni.
Azione CreateSavedSearch
Questa azione ti consente di salvare le ricerche
Parametri di input dell'azione CreateSavedSearch
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
IsVisible | Booleano | Sì | Indica se questa ricerca salvata viene visualizzata nell'elenco delle ricerche salvate visibili. |
RealTimeSchedule | Booleano | Sì | Se questo valore è impostato su 1, lo scheduler basa la determinazione dell'ora di esecuzione della ricerca pianificata successiva sull'ora corrente. Se questo valore è impostato su 0, viene determinato in base all'ora dell'ultima esecuzione della ricerca. |
Cerca | Stringa | Sì | La query di ricerca da salvare |
Descrizione | Stringa | No | Descrizione di questa ricerca salvata |
SchedulePriority | Stringa | Sì | Indica la priorità di pianificazione di una ricerca specifica |
CronSchedule | Stringa | Sì | La pianificazione cron per eseguire questa ricerca. Ad esempio, */5 * * * *
fa sì che la ricerca venga eseguita ogni 5 minuti. |
Nome | Stringa | Sì | Un nome per la ricerca |
UserContext | Stringa | Sì | Se viene fornito il contesto utente, viene utilizzato il nodo servicesNS
(/servicesNS/[UserContext]/search), altrimenti viene utilizzato l'endpoint generale, /services . |
RunOnStartup | Booleano | Sì | Indica se questa ricerca viene eseguita all'avvio. Se non viene eseguita all'avvio, la ricerca viene eseguita all'ora pianificata successiva. |
Disabilitato | Booleano | No | Indica se questa ricerca salvata è disattivata. |
IsScheduled | Booleano | Sì | Indica se questa ricerca deve essere eseguita in base a una pianificazione. |
Parametri di output dell'azione CreateSavedSearch
Questa azione restituisce il messaggio di conferma dell'azione CreateSavedSearch.
Per un esempio di come configurare l'azione CreateSavedSearch
,
consulta Esempi di azioni.
Azione UpdateSavedSearch
Questa azione ti consente di aggiornare una ricerca salvata.
Parametri di input dell'azione UpdateSavedSearch
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
IsVisible | Booleano | Sì | Indica se questa ricerca salvata viene visualizzata nell'elenco delle ricerche salvate visibili. |
RealTimeSchedule | Booleano | Sì | Se questo valore è impostato su 1, lo scheduler basa la determinazione dell'ora di esecuzione della ricerca pianificata successiva sull'ora corrente. Se questo valore è impostato su 0, viene determinato in base all'ora dell'ultima esecuzione della ricerca. |
Cerca | Stringa | Sì | La query di ricerca da salvare |
Descrizione | Stringa | No | Descrizione di questa ricerca salvata |
SchedulePriority | Stringa | Sì | Indica la priorità di pianificazione di una ricerca specifica |
CronSchedule | Stringa | Sì | La pianificazione cron per eseguire questa ricerca. Ad esempio, */5 * * * * fa sì che la ricerca venga eseguita ogni 5 minuti. |
Nome | Stringa | Sì | Un nome per la ricerca |
UserContext | Stringa | Sì | Se viene fornito il contesto utente, viene utilizzato il nodo servicesNS (/servicesNS/[UserContext]/search),
altrimenti viene utilizzato l'endpoint generale, /services . |
RunOnStartup | Booleano | Sì | Indica se questa ricerca viene eseguita all'avvio. Se non viene eseguita all'avvio, la ricerca viene eseguita all'ora pianificata successiva. |
Disabilitato | Booleano | No | Indica se questa ricerca salvata è disattivata. |
IsScheduled | Booleano | Sì | Indica se questa ricerca deve essere eseguita in base a una pianificazione. |
Parametri di output dell'azione UpdateSavedSearch
Questa azione restituisce il messaggio di conferma dell'azione UpdateSavedSearch.
Per un esempio di come configurare l'azione UpdateSavedSearch
,
consulta Esempi di azioni.
Azione DeleteIndex
Questa azione ti consente di eliminare un indice.
Parametri di input dell'azione DeleteIndex
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
Nome | Stringa | Sì | Il nome dell'indice da eliminare. |
Parametri di output dell'azione DeleteIndex
Questa azione restituisce il messaggio di conferma dell'azione DeleteIndex
Per un esempio di come configurare l'azione DeleteIndex
,
consulta Esempi di azioni.
Azione UpdateIndex
Questa azione ti consente di aggiornare un indice.
Parametri di input dell'azione UpdateIndex
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
MaxMetaEntries | Stringa | No | Imposta il numero massimo di righe uniche nei file .data in un bucket, il che può contribuire a ridurre il consumo di memoria. |
FrozenTimePeriodInSecs | Stringa | No | Numero di secondi dopo i quali i dati indicizzati vengono spostati in stato bloccato. Il valore predefinito è 188697600 (6 anni). |
HomePath | Stringa | No | Un percorso assoluto che contiene i bucket caldi e tiepidi per l'indice. |
MinRawFileSyncSecs | Stringa | No | Specifica un numero intero (o disable ) per questo parametro. Questo parametro imposta
la frequenza con cui splunkd forza una sincronizzazione del file system durante la compressione delle sezioni del journal. |
ProcessTrackerServiceInterval | Stringa | No | Specifica, in secondi, la frequenza con cui l'indicizzatore controlla lo stato dei processi del sistema operativo secondario che ha avviato per verificare se può avviare nuovi processi per le richieste in coda. Se impostato su 0, l'indicizzatore controlla lo stato del processo secondario ogni secondo. |
ServiceMetaPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui i metadati vengono sincronizzati sul disco. |
MaxHotSpanSecs | Stringa | No | Limite superiore dell'intervallo di tempo massimo target (in secondi) dei bucket caldi o tiepidi. |
QuarantinePastSecs | Stringa | No | Gli eventi con timestamp quarantinePastSecs precedente a now vengono inseriti nel bucket di quarantena. |
ColdToFrozenDir | Stringa | No | Percorso di destinazione per l'archivio bloccato. Utilizzalo in alternativa a uno script ColdToFrozen. |
ColdPath | Stringa | No | Un percorso assoluto che contiene i colddb per l'indice. Il percorso deve essere leggibile e scrivibile. |
MaxHotIdleSecs | Stringa | No | Durata massima, in secondi, di un bucket caldo. |
WarmToColdScript | Stringa | No | Percorso di uno script da eseguire quando i dati vengono spostati da warm a cold. |
ColdToFrozenScript | Stringa | No | Percorso dello script di archiviazione. |
MaxHotBuckets | Stringa | No | Numero massimo di bucket attivi che possono esistere per indice. |
TstatsHomePath | Stringa | No | Posizione in cui archiviare i dati TSIDX di accelerazione del modello di dati per questo indice. Se specificato, deve essere definito in termini di definizione del volume. Il percorso deve essere scrivibile |
RepFactor | Stringa | No | Controllo della replica dell'indice. Questo parametro si applica solo ai nodi peer nel cluster.
|
MaxDataSize | Stringa | No | La dimensione massima in MB che un database attivo deve raggiungere prima che venga attivato il roll to warm.
Se specifichi auto o auto_high_volume , Splunk esegue la regolazione automatica di questo parametro (opzione consigliata). |
MaxBloomBackfillBucketAge | Stringa | No | I valori validi sono: integer[m|s|h|d] se un bucket caldo o freddo è più vecchio dell'età specificata, non creare o ricompilare il relativo filtro Bloom. Specifica 0 per non ricompilare mai i filtri Bloom. |
BlockSignSize | Stringa | No | Controlla il numero di eventi che compongono un blocco per le firme dei blocchi. Se questo valore è impostato su 0, la firma del blocco è disattivata per questo indice. Un valore consigliato è 100. |
Nome | Stringa | Sì | Il nome dell'indice da creare |
MaxTotalDataSizeMB | Stringa | Sì | La dimensione massima di un indice (in MB). Se un indice supera le dimensioni massime, i dati meno recenti vengono bloccati. |
MaxWarmDBCount | Stringa | No | Il numero massimo di bucket caldi. Se questo numero viene superato, i bucket caldi con il valore più basso per gli ultimi orari vengono spostati in quelli freddi. |
RawChunkSizeBytes | Stringa | No | Dimensioni non compresse in byte per la singola sezione non elaborata nel journal rawdata dell'indice. 0 non è un valore valido. Se viene specificato 0, rawChunkSizeBytes viene impostato sul valore predefinito. |
DataType | Stringa | No | Specifica il tipo di indice |
MaxConcurrentOptimizes | Stringa | No | Il numero di processi di ottimizzazione simultanei che possono essere eseguiti su un bucket caldo. |
ThrottleCheckPeriod | Stringa | No | Definisce la frequenza (in secondi) con cui Splunk verifica la condizione di limitazione dell'indice. |
SyncMeta | Stringa | No | Se è true, viene chiamata un'operazione di sincronizzazione prima che il descrittore del file venga chiuso negli aggiornamenti del file di metadati. Questa funzionalità migliora l'integrità dei file di metadati, in particolare per quanto riguarda i blocchi del sistema operativo o i guasti della macchina. |
RotatePeriodInSecs | Stringa | No | Frequenza (in secondi) con cui controllare se è necessario creare un nuovo bucket caldo. Inoltre, la frequenza con cui controllare se sono presenti bucket caldi o freddi che devono essere spostati o bloccati. |
Parametri di output dell'azione UpdateIndex
Questa azione restituisce il messaggio di conferma dell'azione UpdateIndex.
Per un esempio di come configurare l'azione UpdateIndex
,
consulta Esempi di azioni.
Esempi di azioni
Esempio: crea un evento HTTP
Questo esempio crea un evento HTTP.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateHTTPEvent
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Se l'azione ha esito positivo, il parametro
CreateHTTPEvent
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "Success": "Success" }]
Esempio: creare un indice
Questo esempio crea un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateIndex
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "http_testing" }
Se l'azione ha esito positivo, il parametro
CreateIndex
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Esempio: creare una ricerca salvata
Questo esempio crea una ricerca salvata.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
CreateSavedSearch
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Se l'azione ha esito positivo, il parametro
CreateSavedSearch
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "Success": true, "Message": null }]
Esempio: aggiornare una ricerca salvata
Questo esempio aggiorna una ricerca salvata.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
UpdateSavedSearch
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Se l'azione ha esito positivo, il parametro
UpdateSavedSearch
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "Success": true, "Message": null }]
Esempio: elimina un indice
Questo esempio elimina un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
DeleteIndex
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Name": "g_http_testing" }
Se l'azione ha esito positivo, il parametro
DeleteIndex
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Esempio: aggiorna un indice
Questo esempio aggiorna un indice.
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
UpdateIndex
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Se l'azione ha esito positivo, il parametro
UpdateIndex
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Esempi di operazioni sulle entità
Questa sezione mostra come eseguire alcune delle operazioni sulle entità in questo connettore.
Esempio: elencare tutti i record
Questo esempio elenca tutti i record nell'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
List
, quindi fai clic su Fine. - (Facoltativo) Nella sezione Input attività dell'attività Connettori, puoi filtrare il set di risultati specificando una clausola di filtro. Specifica il valore della clausola di filtro sempre tra virgolette singole (').
Esempio: recuperare un record da un'entità
Questo esempio recupera un record con l'ID specificato dall'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Get
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su EntityId e
poi inserisci
1698309163.1300
nel campo Valore predefinito.In questo caso,
1698309163.1300
è un ID record univoco nell'entitàSearchJobs
.
Esempio: creare un record in un'entità
Questo esempio crea un record nell'entità SearchJobs
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Se l'integrazione ha esito positivo, il parametro di risposta
connectorOutputPayload
dell'attivitàSearchJobs
avrà un valore simile al seguente:{ "Sid": "1699336785.1919" }
Esempio: creare un record in un'entità
Questo esempio crea un record nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Se l'integrazione ha esito positivo, il campo
connectorOutputPayload
dell'attività del connettore avrà un valore simile al seguente:[{ "Id": "Test1" }]
Esempio: elimina un record da un'entità
Questo esempio elimina il record con l'ID specificato nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Delete
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su entityId e
poi inserisci
Test1
nel campo Valore predefinito.
Esempio: aggiorna un record in un'entità
Questo esempio aggiorna un record nell'entità DataModels
.
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
DataModels
dall'elencoEntity
. - Seleziona l'operazione
Update
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, fai clic su
connectorInputPayload
e poi inserisci un valore simile al seguente nel campoDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Fai clic su entityId, quindi inserisci
/servicesNS/nobody/search/datamodel/model/Testing
nel campo Valore predefinito.Se l'integrazione ha esito positivo, il campo
connectorOutputPayload
dell'attività del connettore avrà un valore simile al seguente:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Esempio: flusso di ricerca che utilizza l'indice
Questa sezione elenca tutto il flusso di ricerca utilizzando un singolo indice e più indici.
Crea una ricerca utilizzando un singolo indice
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Se l'integrazione ha esito positivo, il parametro di risposta
connectorOutputPayload
dell'attivitàSearchJobs
avrà un valore simile al seguente:{ "Sid": "1726051471.76" }
Operazione di elenco che utilizza il nome dell'indice utilizzato nella query di ricerca
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
Index Name
dall'elencoEntity
. - Seleziona l'operazione
List
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, puoi impostare la filterClause, ad esempio Sid= '1726051471.76'.
Se l'integrazione ha esito positivo, il parametro
di risposta connectorOutputPayload
dell'attività
Index Name
avrà un valore simile al seguente:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Creare una ricerca utilizzando più indici
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se l'integrazione ha esito positivo, il parametro di risposta
connectorOutputPayload
dell'attivitàSearchJobs
avrà un valore simile al seguente:{ "Sid": "1727261971.4007" }
Operazione di elenco che utilizza il nome degli indici nella query di ricerca
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona Nome
Index Name
dall'elencoEntity
. - Seleziona l'operazione
List
, quindi fai clic su Fine. - Nella sezione Input attività dell'attività Connettori, puoi impostare la filterClause, ad esempio Sid= '1727261971.4007'.
Se l'integrazione ha esito positivo, il parametro
di risposta connectorOutputPayload
dell'attività
Index
avrà un valore simile al seguente:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Esempio: flusso di ricerca utilizzando ReadJobResults
Questa sezione elenca tutti i flussi di ricerca che utilizzano sia un singolo indice sia più indici supportati dalla connessione Splunk. Al momento,la dimensione massima del payload per i risultati dei log supportati è di 150 MB.
Crea una ricerca con un singolo indice
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Questo esempio crea una ricerca. Se l'integrazione va a buon fine, il parametro di risposta
connectorOutputPayload
dell'attivitàSearchJobs
avrà un valore simile al seguente:{ "Sid": "1732775755.24612" }
Per ottenere i risultati di ricerca, esegui l'operazione di creazione sull'azione ReadJobResults. Per assicurarti che i risultati vengano filtrati in base all'ID sessione, trasmetti l'ID sessione come parametro all'azione.
Recuperare i log dei risultati utilizzando l'azione ReadJobResults
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
ReadJobResults
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "Sid": "1732775755.24612" }
Se l'azione ha esito positivo, il parametro
ReadJobResults
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Creare una ricerca con più indici
- Nella finestra di dialogo
Configure connector task
, fai clic suEntities
. - Seleziona
SearchJobs
dall'elencoEntity
. - Seleziona l'operazione
Create
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se l'integrazione ha esito positivo, il parametro di risposta
connectorOutputPayload
dell'attivitàSearchJobs
avrà un valore simile al seguente:{ "Sid": "1732776556.24634" }
Per ottenere i risultati di ricerca, esegui l'operazione di creazione sull'azione ReadJobResults. Per assicurarti che i risultati vengano filtrati in base all'ID sessione, trasmetti l'ID sessione come parametro all'azione.
ResultsLogs utilizzando l'azione ReadJobResults
- Nella finestra di dialogo
Configure connector task
, fai clic suActions
. - Seleziona l'azione
ReadJobResults
, quindi fai clic su Fine. - Nella sezione Data Mapper dell'attività Mappatura dati, fai clic su
Open Data Mapping Editor
, quindi inserisci un valore simile al seguente nel campoInput Value
e scegli EntityId/ConnectorInputPayload come variabile locale.{ "Sid": "1732776556.24634" }
- Per capire come creare e utilizzare l'attività Connettori in Apigee Integration, consulta Attività Connettori.
- Per capire come creare e utilizzare l'attività Connettori in Application Integration, consulta Attività Connettori.
- Scopri come sospendere e ripristinare una connessione.
- Scopri come monitorare l'utilizzo dei connettori.
- Scopri come visualizzare i log dei connettori.
Se l'azione ha esito positivo, il parametro
ReadJobResults
della risposta connectorOutputPayload
dell'attività avrà un valore simile al seguente:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Creare connessioni utilizzando Terraform
Puoi utilizzare la risorsa Terraform per creare una nuova connessione.
Per scoprire come applicare o rimuovere una configurazione Terraform, consulta Comandi Terraform di base.
Per visualizzare un modello Terraform di esempio per la creazione della connessione, consulta Modello di esempio.
Quando crei questa connessione utilizzando Terraform, devi impostare le seguenti variabili nel file di configurazione Terraform:
Nome parametro | Tipo di dati | Obbligatorio | Descrizione |
---|---|---|---|
livello di dettaglio | STRING | Falso | Livello di verbosità per la connessione, varia da 1 a 5. Un livello di dettaglio più elevato registra tutti i dettagli di comunicazione (richiesta,risposta e certificati SSL). |
proxy_enabled | BOOLEANO | Falso | Seleziona questa casella di controllo per configurare un server proxy per la connessione. |
proxy_auth_scheme | ENUM | Falso | Il tipo di autenticazione da utilizzare per l'autenticazione al proxy ProxyServer. I valori supportati sono: BASIC, DIGEST, NONE |
proxy_user | STRING | Falso | Un nome utente da utilizzare per l'autenticazione al proxy ProxyServer. |
proxy_password | SECRET | Falso | Una password da utilizzare per l'autenticazione al proxy ProxyServer. |
proxy_ssltype | ENUM | Falso | Il tipo di SSL da utilizzare per la connessione al proxy ProxyServer. I valori supportati sono: AUTO, ALWAYS, NEVER, TUNNEL |
Utilizzare la connessione Splunk in un'integrazione
Una volta creata la connessione, questa diventa disponibile sia in Apigee Integration che in Application Integration. Puoi utilizzare la connessione in un'integrazione tramite l'attività Connettori.