Splunk
O conector do Splunk permite realizar operações de inserção, exclusão, atualização e leitura no banco de dados do Splunk.
Antes de começar
Antes de usar o conector do Splunk, faça o seguinte:
- No seu projeto do Google Cloud, faça o seguinte:
- Verifique se a conectividade de rede está configurada. Para informações sobre padrões de rede, consulte Conectividade de rede.
- Conceda o papel do IAM roles/connectors.admin ao usuário que está configurando o conector.
- Conceda os seguintes papéis de IAM à conta de serviço que você quer usar para o conector:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Uma conta de serviço é um tipo especial de Conta do Google destinada a representar um usuário não humano que precisa ser autenticado e autorizado a acessar dados nas APIs do Google. Se você não tiver uma conta de serviço, será necessário criar uma. Para mais informações, consulte Como criar uma conta de serviço.
- Ative os seguintes serviços:
secretmanager.googleapis.com
(API Secret Manager)connectors.googleapis.com
(API Connectors)
Para entender como ativar os serviços, consulte Como ativar serviços.
Se esses serviços ou permissões não tiverem sido ativados no seu projeto, você precisará ativá-los ao configurar o conector.
Configurar o conector
Uma conexão é específica a uma fonte de dados. Isso significa que, se você tiver muitas fontes de dados, precisará criar uma conexão separada para cada uma. Para criar uma conexão, faça o seguinte:
- No console do Cloud, acesse a página Integration Connectors > Conexões e selecione ou crie um projeto do Google Cloud.
- Clique em + CRIAR NOVO para abrir a página Criar conexão.
- Na seção Local, escolha o local da conexão.
- Região: selecione um local na lista suspensa.
Para conferir a lista de todas as regiões com suporte, consulte Locais.
- Clique em PRÓXIMA.
- Região: selecione um local na lista suspensa.
- Na seção Detalhes da conexão, faça o seguinte:
- Conector: selecione Splunk na lista suspensa de conectores disponíveis.
- Versão do conector: selecione a versão do conector na lista suspensa de versões disponíveis.
- No campo Nome da conexão, insira um nome para a instância de conexão
Os nomes de conexão precisam atender aos seguintes critérios:
- Os nomes de conexões podem usar letras, números ou hifens.
- As letras precisam ser minúsculas.
- Os nomes das conexões precisam começar com uma letra e terminar com uma letra ou um número.
- Os nomes das conexões não podem exceder 49 caracteres.
- Como opção, insira uma Descrição para a instância de conexão.
- Se quiser, ative o Cloud Logging e selecione um nível de registro. Por padrão, o nível de registro é definido como
Error
. - Conta de serviço: selecione uma conta de serviço que tenha os papéis necessários.
- Opcionalmente, defina as Configurações do nó de conexão:
- Número mínimo de nós: digite o número mínimo de nós de conexão.
- Número máximo de nós: digite o número máximo de nós de conexão.
Um nó é uma unidade (ou réplica) de uma conexão que processa transações. Mais nós são necessários para processar mais transações para uma conexão e, por outro lado, menos nós são necessários para processar menos transações. Para entender como os nós afetam os preços do conector, consulte Preços dos nós de conexão. Se você não inserir qualquer valor, por padrão, os nós mínimos serão definidos como 2 (para melhor disponibilidade) e os nós máximos serão definidos como 50.
- Outra opção é clicar em + ADICIONAR MARCADOR para adicionar um rótulo à conexão na forma de um par de chave-valor.
- Clique em PRÓXIMA.
- Na seção Destinos, insira os detalhes do host remoto (sistema de back-end) ao qual você quer se conectar.
- Tipo de destino: selecione um Tipo de destino.
- Para especificar o nome do host ou o endereço IP de destino, selecione Endereço do host e insira o endereço no campo Host 1.
- Para estabelecer uma conexão particular, selecione Anexo de endpoint e escolha o anexo necessário na lista Anexo de endpoint.
Para estabelecer uma conexão pública com os sistemas de back-end com mais segurança, considere configurar endereços IP de saída estáticos para suas conexões e configure as regras de firewall para autorizar apenas os endereços IP estáticos específicos.
Para inserir outros destinos, clique em +ADICIONAR DESTINO.
- Clique em PRÓXIMA.
- Tipo de destino: selecione um Tipo de destino.
-
Na seção Autenticação, insira os detalhes da autenticação.
- Selecione um Tipo de autenticação e insira os detalhes relevantes.
Os seguintes tipos de autenticação oferecem suporte à conexão do Splunk:
- Nome de usuário e senha (autenticação básica)
- AccessToken
- HTTPEventCollectorToken
- Clique em PRÓXIMA.
Para entender como configurar esses tipos de autenticação, consulte Configurar autenticação.
- Selecione um Tipo de autenticação e insira os detalhes relevantes.
- Revisão: revise os detalhes de conexão e autenticação.
- Clique em Criar.
Configurar a autenticação
Digite os detalhes com base na autenticação que você quer usar.
-
Nome de usuário e senha
- Nome de usuário: o nome de usuário do Splunk a ser usado para a conexão.
- Senha: o Secret do Secret Manager que contém a senha associada ao nome de usuário do Splunk.
-
AccessToken: defina isso para realizar a autenticação baseada em token usando a propriedade
AccessToken
. -
HTTPEventCollectorToken: defina essa opção para realizar a autenticação baseada em token usando a propriedade
HTTPEventCollectorToken
.
Exemplos de configuração de conexão
Esta seção lista os valores de amostra para os vários campos que você configura ao criar a conexão do Splunk.
Tipo de conexão do coletor de eventos HTTP
Nome do campo | Detalhes |
---|---|
Local | us-central1 |
Conector | Splunk |
Versão do conector | 1 |
Nome da conexão | splunk-http-event-coll-conn |
Ativar Cloud Logging | Não |
Conta de serviço | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Número mínimo de nós | 2 |
Número máximo de nós | 50 |
Ativar SSL | Sim |
Conexão sem segurança do repositório de confiança | Sim |
Tipo de destino(servidor) | Endereço do host |
Endereço do host | 192.0.2.0 |
Porta | PORT |
Autenticação baseada em token do coletor de eventos HTTP | Sim |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versão do secret | 1 |
Para informações sobre como criar um token do coletor de eventos HTTP, consulte Criar um coletor de eventos HTTP.
Tipo de conexão SSL
Nome do campo | Detalhes |
---|---|
Local | us-central1 |
Conector | Splunk |
Versão do conector | 1 |
Nome da conexão | splunk-ssl-connection |
Ativar Cloud Logging | Sim |
Conta de serviço | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Nível de detalhamento | 5 |
Número mínimo de nós | 2 |
Número máximo de nós | 50 |
Ativar SSL | Sim |
Conexão sem segurança | Sim |
Tipo de destino(servidor) | Endereço do host |
Endereço do host | https://192.0.2.0 |
Porta | PORT |
Senha do usuário | Sim |
Nome do usuário | USUÁRIO |
Senha | SENHA |
Versão do secret | 1 |
Para a autenticação básica, você precisa ter a função do usuário ou de função do usuário avançado. Para informações sobre como configurar um usuário avançado, consulte Configurar o papel de usuário avançado. Para informações sobre como definir papéis no Splunk, consulte Definir o papel na plataforma Splunk.
Entidades, operações e ações
Todos os Integration Connectors fornecem uma camada de abstração para os objetos do aplicativo conectado. Só é possível acessar os objetos de um aplicativo por esta abstração. A abstração é exposta a você como entidades, operações e ações.
- Entidade: uma entidade pode ser considerada um objeto ou um conjunto de propriedades no aplicativo ou serviço conectado. A definição de uma entidade difere de um conector para
outro. Por exemplo, em um conector de banco de dados, as tabelas são as entidades, em um conector de servidor de arquivos, as pastas são as entidades e, em um conector de sistema de mensagens, as filas são as entidades.
No entanto, é possível que um conector não aceite ou não tenha entidades. Nesse caso, a lista
Entities
estará vazia. - Operação: uma operação é a atividade que pode ser realizada em uma entidade. É possível executar
qualquer uma das seguintes operações em uma entidade:
Selecionar uma entidade na lista disponível gera uma lista de operações disponíveis para ela. Para uma descrição detalhada das operações, consulte as operações de entidades da tarefa "Conectores". No entanto, se um conector não oferecer suporte a nenhuma das operações de entidade, essas operações não serão listadas na lista
Operations
. - Ação: uma ação é uma função de primeira classe disponibilizada para a integração por meio da interface do conector. Uma ação permite fazer alterações em uma ou mais entidades e varia de um conector para outro. Normalmente, uma ação tem alguns parâmetros de entrada e um parâmetro de saída. No entanto, é possível que o conector não ofereça suporte a nenhuma ação. Nesse caso, a lista
Actions
estará vazia.
Limitações do sistema
O conector do Splunk pode processar cinco transações por segundo, por nó, e limita qualquer transação além desse limite. No entanto, o número de transações que esse conector pode processar também depende das restrições impostas pela instância do Splunk. Por padrão, o Integration Connectors aloca dois nós (para melhor disponibilidade) para uma conexão.
Para informações sobre os limites aplicáveis aos Integration Connectors, consulte Limites.
Ações
Esta seção lista as ações compatíveis com o conector. Para entender como configurar as ações, consulte Exemplos de ações.
Ação CreateHTTPEvent
Com essa ação, é possível enviar dados e eventos de aplicativos para uma implantação do Splunk pelos protocolos HTTP e HTTPS.
Parâmetros de entrada da ação CreateHTTPEvent
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
EventContent | String | Sim | O nome da tabela ou visualização. |
ContentType | String | Não | O tipo de conteúdo especificado para a entrada EventContent . Os valores aceitos são JSON e RAWTEXT . |
ChannelGUID | Número inteiro | Não | O GUID do canal usado para o evento. Você precisa especificar esse valor se ContentType for RAWTEXT . |
Parâmetros de saída da ação CreateHTTPEvent
Essa ação retorna o status de sucesso do evento criado.
Ação CreateIndex
Essa ação permite criar índices.
Parâmetros de entrada da ação CreateIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
MaxMetaEntries | String | Não | Define o número máximo de linhas exclusivas em arquivos .data em um bucket, o que pode ajudar a reduzir o consumo de memória. |
FrozenTimePeriodInSecs | String | Não | Número de segundos após os quais os dados indexados são transferidos para o estado congelado. O padrão é 188697600 (6 anos). |
HomePath | String | Não | Um caminho absoluto que contém os buckets quente e morno para o índice. |
MinRawFileSyncSecs | String | Não | Especifique um número inteiro (ou disable ) para esse parâmetro. Esse parâmetro define a frequência com que o splunkd força uma sincronização do sistema de arquivos ao compactar partes do diário. |
ProcessTrackerServiceInterval | String | Não | Especifica, em segundos, a frequência com que o indexador verifica o status dos processos do SO filho iniciados para saber se é possível iniciar novos processos para solicitações enfileiradas. Se definido como 0, o indexador verifica o status do processo filho a cada segundo. |
ServiceMetaPeriod | String | Não | Define a frequência (em segundos) com que os metadados são sincronizados com o disco. |
MaxHotSpanSecs | String | Não | Limite máximo do período máximo de destino (em segundos) de intervalos frequentes ou quentes. |
QuarantinePastSecs | String | Não | Eventos com carimbo de data/hora de quarantinePastSecs mais antigos que >now são descartados no bucket de quarentena. |
ColdToFrozenDir | String | Não | Caminho de destino do arquivo congelado. Use como uma alternativa a um ColdToFrozenScript. |
ColdPath | String | Não | Um caminho absoluto que contém os coldbs para o índice. O caminho precisa ser legível e gravável. |
MaxHotIdleSecs | String | Não | Tempo de vida máximo, em segundos, de um bucket ativo |
WarmToColdScript | String | Não | Caminho para um script a ser executado ao mover dados de quente para frio. |
ColdToFrozenScript | String | Não | Caminho para o script de arquivamento. |
MaxHotBuckets | String | Não | Número máximo de buckets ativos que podem existir por índice. |
TstatsHomePath | String | Não | Local para armazenar dados TSIDX de aceleração do modelo de dados para este índice. Se especificado, ele precisa ser definido em termos de uma definição de volume. O caminho precisa ser gravável |
RepFactor | String | Não | Controle de replicação de índice. Esse parâmetro se aplica apenas aos nós de mesmo nível no cluster.
|
MaxDataSize | String | Não | O tamanho máximo em MB que um banco de dados ativo pode atingir antes de uma transferência para quente ser acionada.
Especificar auto ou auto_high_volume faz com que o Splunk
ajuste automaticamente esse parâmetro (recomendado). |
MaxBloomBackfillBucketAge | String | Não | Os valores válidos são: integer[m|s|h|d] se um bucket quente ou frio for mais antigo que a idade especificada, não crie nem reconstrua o filtro de Bloom. Especifique 0 para nunca recriar filtros de Bloom. |
BlockSignSize | String | Não | Controla quantos eventos compõem um bloco para assinaturas de bloco. Se for definido como 0, a assinatura de bloco será desativada para esse índice. O valor recomendado é 100. |
Nome | String | Sim | O nome do índice a ser criado |
MaxTotalDataSizeMB | String | Não | O tamanho máximo de um índice (em MB). Se um índice crescer mais do que o tamanho máximo, os dados mais antigos serão congelados. |
MaxWarmDBCount | String | Não | O número máximo de buckets quentes. Se esse número for excedido, os intervalos quentes com o menor valor para os tempos mais recentes serão movidos para o estado frio. |
RawChunkSizeBytes | String | Não | Tamanho não compactado de destino em bytes para cada fração bruta no diário rawdata do índice. 0 não é um valor válido. Se 0 for especificado, rawChunkSizeBytes será definido como o valor padrão. |
DataType | String | Não | Especifica o tipo de índice |
MaxConcurrentOptimizes | String | Não | O número de processos de otimização simultâneos que podem ser executados em um bucket ativo. |
ThrottleCheckPeriod | String | Não | Define a frequência (em segundos) com que o Splunk verifica a condição de limitação do índice. |
SyncMeta | String | Não | Quando verdadeiro, uma operação de sincronização é chamada antes que o descritor de arquivo seja fechado nas atualizações de arquivo de metadados. Essa funcionalidade melhora a integridade dos arquivos de metadados, principalmente em relação a falhas do sistema operacional ou da máquina. |
RotatePeriodInSecs | String | Não | A frequência (em segundos) com que é verificado se um novo bucket quente precisa ser criado. Além disso, com que frequência verificar se há buckets quentes/frios que precisam ser transferidos/congelados. |
Parâmetros de saída da ação CreateIndex
Essa ação retorna uma mensagem de confirmação da ação "CreateIndex".
Para ver um exemplo de como configurar a ação CreateIndex
,
consulte Exemplos de ações.
Ação CreateSavedSearch
Essa ação permite salvar suas pesquisas
Parâmetros de entrada da ação CreateSavedSearch
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
IsVisible | Booleano | Sim | Indica se esta pesquisa salva aparece na lista visível de pesquisas salvas. |
RealTimeSchedule | Booleano | Sim | Se esse valor for definido como 1, o programador vai basear a determinação do próximo horário de execução da pesquisa programada na hora atual. Se esse valor for definido como 0, ele será determinado com base na última execução da pesquisa. |
Pesquisar | String | Sim | A consulta de pesquisa a ser salva |
Descrição | String | Não | Descrição desta pesquisa salva |
SchedulePriority | String | Sim | Indica a prioridade de programação de uma pesquisa específica. |
CronSchedule | String | Sim | A programação do cron para executar esta pesquisa. Por exemplo, */5 * * * *
faz com que a pesquisa seja executada a cada 5 minutos. |
Nome | String | Sim | Um nome para a pesquisa |
UserContext | String | Sim | Se o contexto do usuário for fornecido, o nó servicesNS será usado (/servicesNS/[UserContext]/search). Caso contrário, o padrão será o endpoint geral, /services . |
RunOnStartup | Booleano | Sim | Indica se essa pesquisa é executada na inicialização. Se não for executada na inicialização, a pesquisa será feita no próximo horário programado. |
Desativado | Booleano | Não | Indica se esta pesquisa salva está desativada. |
IsScheduled | Booleano | Sim | Indica se essa pesquisa será executada de acordo com uma programação. |
Parâmetros de saída da ação CreateSavedSearch
Essa ação retorna uma mensagem de confirmação da ação "CreateSavedSearch".
Para ver um exemplo de como configurar a ação CreateSavedSearch
,
consulte Exemplos de ações.
Ação UpdateSavedSearch
Essa ação permite atualizar uma pesquisa salva.
Parâmetros de entrada da ação UpdateSavedSearch
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
IsVisible | Booleano | Sim | Indica se esta pesquisa salva aparece na lista visível de pesquisas salvas. |
RealTimeSchedule | Booleano | Sim | Se esse valor for definido como 1, o programador vai basear a determinação do próximo horário de execução da pesquisa programada na hora atual. Se esse valor for definido como 0, ele será determinado com base no último horário de execução da pesquisa. |
Pesquisar | String | Sim | A consulta de pesquisa a ser salva |
Descrição | String | Não | Descrição desta pesquisa salva |
SchedulePriority | String | Sim | Indica a prioridade de programação de uma pesquisa específica. |
CronSchedule | String | Sim | A programação do cron para executar esta pesquisa. Por exemplo, */5 * * * * faz com que a pesquisa seja executada a cada 5 minutos. |
Nome | String | Sim | Um nome para a pesquisa |
UserContext | String | Sim | Se o contexto do usuário for fornecido, o nó servicesNS será usado (/servicesNS/[UserContext]/search). Caso contrário, o padrão será o endpoint geral, /services . |
RunOnStartup | Booleano | Sim | Indica se essa pesquisa é executada na inicialização. Se não for executada na inicialização, a pesquisa será feita no próximo horário programado. |
Desativado | Booleano | Não | Indica se esta pesquisa salva está desativada. |
IsScheduled | Booleano | Sim | Indica se essa pesquisa será executada de acordo com uma programação. |
Parâmetros de saída da ação UpdateSavedSearch
Essa ação retorna uma mensagem de confirmação da ação "UpdateSavedSearch".
Para ver um exemplo de como configurar a ação UpdateSavedSearch
,
consulte Exemplos de ações.
Ação DeleteIndex
Essa ação permite excluir um índice.
Parâmetros de entrada da ação DeleteIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
Nome | String | Sim | O nome do índice a ser excluído. |
Parâmetros de saída da ação DeleteIndex
Essa ação retorna uma mensagem de confirmação da ação "DeleteIndex".
Para ver um exemplo de como configurar a ação DeleteIndex
,
consulte Exemplos de ações.
Ação UpdateIndex
Essa ação permite atualizar um índice.
Parâmetros de entrada da ação UpdateIndex
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
MaxMetaEntries | String | Não | Define o número máximo de linhas exclusivas em arquivos .data em um bucket, o que pode ajudar a reduzir o consumo de memória. |
FrozenTimePeriodInSecs | String | Não | Número de segundos após os quais os dados indexados são transferidos para o estado congelado. O padrão é 188697600 (6 anos). |
HomePath | String | Não | Um caminho absoluto que contém os buckets quente e morno para o índice. |
MinRawFileSyncSecs | String | Não | Especifique um número inteiro (ou disable ) para esse parâmetro. Esse parâmetro define a frequência com que o splunkd força uma sincronização do sistema de arquivos ao compactar partes do diário. |
ProcessTrackerServiceInterval | String | Não | Especifica, em segundos, a frequência com que o indexador verifica o status dos processos do SO filho iniciados para saber se é possível iniciar novos processos para solicitações enfileiradas. Se definido como 0, o indexador verifica o status do processo filho a cada segundo. |
ServiceMetaPeriod | String | Não | Define a frequência (em segundos) com que os metadados são sincronizados com o disco. |
MaxHotSpanSecs | String | Não | Limite máximo do período máximo de destino (em segundos) de intervalos frequentes ou quentes. |
QuarantinePastSecs | String | Não | Eventos com carimbo de data/hora de quarantinePastSecs mais antigos que now são descartados no bucket de quarentena. |
ColdToFrozenDir | String | Não | Caminho de destino do arquivo congelado. Use como uma alternativa a um ColdToFrozenScript. |
ColdPath | String | Não | Um caminho absoluto que contém os coldbs para o índice. O caminho precisa ser legível e gravável. |
MaxHotIdleSecs | String | Não | Tempo de vida máximo, em segundos, de um bucket quente. |
WarmToColdScript | String | Não | Caminho para um script a ser executado ao mover dados de quente para frio. |
ColdToFrozenScript | String | Não | Caminho para o script de arquivamento. |
MaxHotBuckets | String | Não | Número máximo de buckets ativos que podem existir por índice. |
TstatsHomePath | String | Não | Local para armazenar dados TSIDX de aceleração do modelo de dados para este índice. Se especificado, ele precisa ser definido em termos de uma definição de volume. O caminho precisa ser gravável |
RepFactor | String | Não | Controle de replicação de índice. Esse parâmetro se aplica apenas aos nós de mesmo nível no cluster.
|
MaxDataSize | String | Não | O tamanho máximo em MB que um banco de dados ativo pode atingir antes de uma transferência para quente ser acionada.
Especificar auto ou auto_high_volume faz com que o Splunk ajuste automaticamente esse parâmetro (recomendado). |
MaxBloomBackfillBucketAge | String | Não | Os valores válidos são: integer[m|s|h|d] se um bucket quente ou frio for mais antigo que a idade especificada, não crie nem recrie o bloomfilter. Especifique 0 para nunca recriar filtros de Bloom. |
BlockSignSize | String | Não | Controla quantos eventos compõem um bloco para assinaturas de bloco. Se for definido como 0, a assinatura de bloco será desativada para esse índice. O valor recomendado é 100. |
Nome | String | Sim | O nome do índice a ser criado |
MaxTotalDataSizeMB | String | Sim | O tamanho máximo de um índice (em MB). Se um índice ficar maior do que o tamanho máximo, os dados mais antigos serão congelados. |
MaxWarmDBCount | String | Não | O número máximo de buckets quentes. Se esse número for excedido, os intervalos quentes com o menor valor para os tempos mais recentes serão movidos para o estado frio. |
RawChunkSizeBytes | String | Não | Tamanho não compactado de destino em bytes para cada fração bruta no diário rawdata do índice. 0 não é um valor válido. Se 0 for especificado, rawChunkSizeBytes será definido como o valor padrão. |
DataType | String | Não | Especifica o tipo de índice |
MaxConcurrentOptimizes | String | Não | O número de processos de otimização simultâneos que podem ser executados em um bucket ativo. |
ThrottleCheckPeriod | String | Não | Define a frequência (em segundos) com que o Splunk verifica a condição de limitação do índice. |
SyncMeta | String | Não | Quando verdadeiro, uma operação de sincronização é chamada antes que o descritor de arquivo seja fechado nas atualizações de arquivo de metadados. Essa funcionalidade melhora a integridade dos arquivos de metadados, principalmente em relação a falhas do sistema operacional ou da máquina. |
RotatePeriodInSecs | String | Não | A frequência (em segundos) com que é verificado se um novo bucket quente precisa ser criado. Além disso, com que frequência verificar se há buckets quentes ou frios que precisam ser transferidos ou congelados. |
Parâmetros de saída da ação UpdateIndex
Essa ação retorna uma mensagem de confirmação da ação "UpdateIndex".
Para ver um exemplo de como configurar a ação UpdateIndex
,
consulte Exemplos de ações.
Exemplos de ações
Exemplo: criar um evento HTTP
Este exemplo cria um evento HTTP.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateHTTPEvent
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa CreateHTTPEvent
terá um valor semelhante a este:
[{ "Success": "Success" }]
Exemplo: criar um índice
Este exemplo cria um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "http_testing" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa CreateIndex
terá um valor semelhante a este:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Exemplo: criar uma pesquisa salva
Este exemplo cria uma pesquisa salva.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
CreateSavedSearch
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa CreateSavedSearch
terá um valor semelhante a este:
[{ "Success": true, "Message": null }]
Exemplo: atualizar uma pesquisa salva
Este exemplo atualiza uma pesquisa salva.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
UpdateSavedSearch
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa UpdateSavedSearch
terá um valor semelhante a este:
[{ "Success": true, "Message": null }]
Exemplo: excluir um índice
Este exemplo exclui um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
DeleteIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Name": "g_http_testing" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa DeleteIndex
terá um valor semelhante a este:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemplo: atualizar um índice
Este exemplo atualiza um índice.
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
UpdateIndex
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa UpdateIndex
terá um valor semelhante a este:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Exemplos de operações de entidade
Nesta seção, mostramos como realizar algumas das operações de entidade neste conector.
Exemplo: listar todos os registros
Este exemplo lista todos os registros na entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Se quiser, na seção Entrada de tarefa da tarefa Conectores, é possível filtrar o conjunto de resultados especificando uma cláusula de filtro. Sempre especifique o valor da cláusula de filtro entre aspas simples (').
Exemplo: receber um registro de uma entidade
Este exemplo recebe um registro com o ID especificado da entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Get
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Conectores, clique em EntityId e
insira
1698309163.1300
no campo Valor padrão.Aqui,
1698309163.1300
é um ID de registro exclusivo na entidadeSearchJobs
.
Exemplo: criar um registro em uma entidade
Este exemplo cria um registro na entidade SearchJobs
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1699336785.1919" }
Exemplo: criar um registro em uma entidade
Este exemplo cria um registro na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Se a integração for bem-sucedida, o campo
connectorOutputPayload
da tarefa do conector terá um valor semelhante a este:[{ "Id": "Test1" }]
Exemplo: excluir um registro de uma entidade
Este exemplo exclui o registro com o ID especificado na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Delete
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Conectores, clique em entityId e
insira
Test1
no campo Valor padrão.
Exemplo: atualizar um registro em uma entidade
Este exemplo atualiza um registro na entidade DataModels
.
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
DataModels
na listaEntity
. - Selecione a operação
Update
e clique em Concluído. - Na seção Entrada da tarefa da tarefa Connectors, clique em
connectorInputPayload
e insira um valor semelhante ao seguinte no campoDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Clique em entityId e digite
/servicesNS/nobody/search/datamodel/model/Testing
no campo Valor padrão.Se a integração for bem-sucedida, o campo
connectorOutputPayload
da tarefa do conector terá um valor semelhante a este:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Exemplo: fluxo de pesquisa usando índice
Esta seção lista todo o fluxo de pesquisa usando um único índice e vários índices.
Criar uma pesquisa usando um único índice
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1726051471.76" }
Operação de listagem usando o nome do índice usado na consulta de pesquisa
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
Index Name
na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Entrada de tarefa da tarefa Conectores, é possível definir a filterClause, como Sid= '1726051471.76'.
Se a integração for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da tarefa
Index Name
terá um valor semelhante a este:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Criar uma pesquisa usando vários índices
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1727261971.4007" }
Operação de lista usando o nome dos índices usado na consulta de pesquisa
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione o nome
Index Name
na listaEntity
. - Selecione a operação
List
e clique em Concluído. - Entrada de tarefa da tarefa Conectores, é possível definir a filterClause, como Sid= '1727261971.4007'.
Se a integração for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da tarefa
Index
terá um valor semelhante a este:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Exemplo: fluxo de pesquisa usando ReadJobResults
Esta seção lista todos os fluxos de pesquisa que usam um único índice e vários índices compatíveis com a conexão do Splunk. No momento,o tamanho máximo do payload para resultados de registros compatíveis é de 150 MB.
Criar uma pesquisa com um único índice
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Este exemplo cria uma pesquisa. Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1732775755.24612" }
Para receber os resultados da pesquisa, execute a operação de criação na ação "ReadJobResults". Para garantir que os resultados sejam filtrados com base no SID, transmita o SID como um parâmetro para a ação.
Receber registros de resultados usando a ação ReadJobResults
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
ReadJobResults
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "Sid": "1732775755.24612" }
Se a ação for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da
tarefa ReadJobResults
terá um valor semelhante a este:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Criar uma pesquisa com vários índices
- Na caixa de diálogo
Configure connector task
, clique emEntities
. - Selecione
SearchJobs
na listaEntity
. - Selecione a operação
Create
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Se a integração for bem-sucedida, o parâmetro de resposta
connectorOutputPayload
da tarefaSearchJobs
terá um valor semelhante a este:{ "Sid": "1732776556.24634" }
Para receber os resultados da pesquisa, execute a operação de criação na ação "ReadJobResults". Para garantir que os resultados sejam filtrados com base no SID, transmita o SID como um parâmetro para a ação.
ResultsLogs usando a ação ReadJobResults
- Na caixa de diálogo
Configure connector task
, clique emActions
. - Selecione a ação
ReadJobResults
e clique em Concluído. - Na seção Data Mapper da tarefa Mapeamento de dados, clique em
Open Data Mapping Editor
e insira um valor semelhante ao seguinte no campoInput Value
e escolha EntityId/ConnectorInputPayload como variável local.{ "Sid": "1732776556.24634" }
- Para entender como criar e usar a tarefa "Conectores" na integração da Apigee, consulte Tarefa "Conectores".
- Para entender como criar e usar a tarefa "Conectores" na Application Integration, consulte Tarefa "Conectores".
- Entenda como suspender e retomar uma conexão.
- Entenda como monitorar o uso do conector.
- Saiba como ver os registros do conector.
Se a ação for bem-sucedida, o parâmetro de resposta connectorOutputPayload
da
tarefa ReadJobResults
terá um valor semelhante a este:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Criar conexões usando o Terraform
Use o recurso do Terraform para criar uma conexão.
Para saber como aplicar ou remover uma configuração do Terraform, consulte Comandos básicos do Terraform.
Para conferir um modelo de exemplo do Terraform para criação de conexão, consulte modelo de exemplo.
Ao criar essa conexão usando o Terraform, defina as seguintes variáveis no arquivo de configuração do Terraform:
Nome do parâmetro | Tipo de dados | Obrigatório | Descrição |
---|---|---|---|
nível de detalhes | STRING | Falso | Nível de detalhes da conexão, varia de 1 a 5. Um nível de detalhes mais alto registra todos os detalhes da comunicação (solicitação,resposta e certificados SSL). |
proxy_enabled | BOOLEAN | Falso | Marque esta caixa de seleção para configurar um servidor proxy para a conexão. |
proxy_auth_scheme | ENUM | Falso | O tipo de autenticação a ser usado para autenticar o proxy ProxyServer. Os valores aceitos são: BASIC, DIGEST, NONE |
proxy_user | STRING | Falso | Um nome de usuário a ser usado para autenticar no proxy ProxyServer. |
proxy_password | SECRET | Falso | Uma senha a ser usada para autenticar no proxy ProxyServer. |
proxy_ssltype | ENUM | Falso | O tipo de SSL a ser usado ao se conectar ao proxy ProxyServer. Os valores aceitos são: AUTO, ALWAYS, NEVER, TUNNEL |
Usar a conexão do Splunk em uma integração
Depois de criar a conexão, ela fica disponível na integração da Apigee e Application Integration. É possível usar a conexão em uma integração pela tarefa de conectores.