Splunk

Splunk 커넥터를 사용하면 Splunk 데이터베이스에서 삽입, 삭제, 업데이트, 읽기 작업을 수행할 수 있습니다.

시작하기 전에

Splunk 커넥터를 사용하기 전에 다음 태스크를 수행합니다.

  • Google Cloud 프로젝트에서:
    • 네트워크 연결이 설정되어 있는지 확인합니다. 네트워크 패턴에 대한 자세한 내용은 네트워크 연결을 참조하세요.
    • 커넥터를 구성하는 사용자에게 roles/connectors.admin IAM 역할을 부여합니다.
    • 커넥터에 사용할 서비스 계정에 다음 IAM 역할을 부여합니다.
      • roles/secretmanager.viewer
      • roles/secretmanager.secretAccessor

      서비스 계정은 인증을 거쳐야 하며 Google API의 데이터에 액세스할 수 있는 승인을 받은 사람이 아닌 사용자를 나타내는 특별한 유형의 Google 계정입니다. 서비스 계정이 없으면 서비스 계정을 만들어야 합니다. 자세한 내용은 서비스 계정 만들기를 참조하세요.

    • 다음 서비스를 사용 설정합니다.
      • secretmanager.googleapis.com(Secret Manager API)
      • connectors.googleapis.com(Connectors API)

      서비스 사용 설정 방법은 서비스 사용 설정을 참조하세요.

    이러한 서비스나 권한이 이전 프로젝트에서 사용 설정되지 않았으면 커넥터를 구성할 때 서비스나 권한을 사용 설정하라는 메시지가 표시됩니다.

커넥터 구성

커넥터를 구성하려면 데이터 소스(백엔드 시스템)에 대한 연결을 만들어야 합니다. 연결은 데이터 소스와 관련이 있습니다. 즉, 데이터 소스가 많으면 데이터 소스마다 별도의 연결을 만들어야 합니다. 연결을 만들려면 다음 단계를 따르세요.

  1. Cloud 콘솔에서 Integration Connectors > 연결 페이지로 이동한 다음 Google Cloud 프로젝트를 선택하거나 만듭니다.

    연결 페이지로 이동

  2. + 새로 만들기를 클릭하여 연결 만들기 페이지를 엽니다.
  3. 위치 섹션에서 연결 위치를 선택합니다.
    1. 리전: 드롭다운 목록에서 위치를 선택합니다.

      지원되는 모든 리전 목록은 위치를 참조하세요.

    2. 다음을 클릭합니다.
  4. 연결 세부정보 섹션에서 다음을 완료합니다.
    1. 커넥터: 사용 가능한 커넥터 드롭다운 목록에서 Splunk를 선택합니다.
    2. 커넥터 버전: 사용 가능한 버전의 드롭다운 목록에서 커넥터 버전을 선택합니다.
    3. 연결 이름 필드에서 연결 인스턴스의 이름을 입력합니다.

      연결 이름은 다음 기준을 충족해야 합니다.

      • 연결 이름에 문자, 숫자, 하이픈을 사용할 수 있습니다.
      • 문자는 소문자여야 합니다.
      • 연결 이름은 문자로 시작하고 문자 또는 숫자로 끝나야 합니다.
      • 연결 이름은 49자(영문 기준)를 초과할 수 없습니다.
    4. 선택적으로 연결 인스턴스에 대한 설명을 입력합니다.
    5. 필요한 경우 Cloud Logging을 사용 설정한 다음 로그 수준을 선택합니다. 기본적으로 로그 수준은 Error로 설정됩니다.
    6. 서비스 계정: 필수 역할이 있는 서비스 계정을 선택합니다.
    7. 필요한 경우 연결 노드 설정을 구성합니다.

      • 최소 노드 수: 최소 연결 노드 수를 입력합니다.
      • 최대 노드 수: 최대 연결 노드 수를 입력합니다.

      노드는 트랜잭션을 처리하는 연결의 단위(또는 복제본)입니다. 연결에 대해 더 많은 트랜잭션을 처리하려면 더 많은 노드가 필요합니다. 이와 반대로 더 적은 트랜잭션을 처리하기 위해서는 더 적은 노드가 필요합니다. 노드가 커넥터 가격 책정에 미치는 영향을 파악하려면 연결 노드 가격 책정을 참조하세요. 값을 입력하지 않으면 기본적으로 최소 노드가 (높은 가용성을 위해) 2로 설정되고 최대 노드는 50으로 설정됩니다.

    8. 선택적으로 + 라벨 추가를 클릭하여 키/값 쌍의 형식으로 연결에 라벨을 추가합니다.
    9. 다음을 클릭합니다.
  5. 대상 섹션에서 연결하려는 원격 호스트(백엔드 시스템)의 세부정보를 입력합니다.
    1. 대상 유형: 대상 유형을 선택합니다.
      • 목록에서 호스트 주소를 선택하여 대상의 호스트 이름 또는 IP 주소를 지정합니다.
      • 백엔드 시스템에 비공개 연결을 설정하려면 목록에서 엔드포인트 연결을 선택한 다음 엔드포인트 연결 목록에서 필요한 엔드포인트 연결을 선택합니다.

      추가 보안을 사용하여 백엔드 시스템에 공개 연결을 설정하려면 연결의 고정 아웃바운드 IP 주소를 구성한 후 방화벽 규칙을 구성하여 특정 고정 IP 주소만 허용 목록에 추가합니다.

      추가 대상을 입력하려면 +대상 추가를 클릭합니다.

    2. 다음을 클릭합니다.
  6. 인증 섹션에서 인증 세부정보를 입력합니다.
    1. 인증 유형을 선택하고 관련 세부정보를 입력합니다.

      Splunk 연결에서는 다음 인증 유형이 지원됩니다.

      • 사용자 이름 및 비밀번호(기본 인증)
      • AccessToken
      • HTTPEventCollectorToken
    2. 이러한 인증 유형을 구성하는 방법은 인증 구성을 참조하세요.

    3. 다음을 클릭합니다.
  7. 검토: 연결 및 인증 세부정보를 검토합니다.
  8. 만들기를 클릭합니다.

인증 구성

사용할 인증을 기반으로 세부정보를 입력합니다.

  • 사용자 이름 및 비밀번호
    • 사용자 이름: 연결에 사용할 Splunk 사용자 이름입니다.
    • 비밀번호: Splunk 사용자 이름과 연결된 비밀번호가 포함된 Secret Manager 보안 비밀입니다.
  • AccessToken - AccessToken 속성을 사용하여 토큰 기반 인증을 수행하도록 설정합니다.
  • HTTPEventCollectorToken - HTTPEventCollectorToken 속성을 사용하여 토큰 기반 인증을 수행하도록 설정합니다.

연결 구성 샘플

이 섹션에서는 Splunk 연결을 만들 때 구성할 다양한 필드의 샘플 값이 표시됩니다.

HTTP 이벤트 수집기 연결 유형

필드 이름 세부정보
위치 us-central1
커넥터 Splunk
커넥터 버전 1
연결 이름 splunk-http-event-coll-conn
Cloud Logging 사용 설정 아니요
서비스 계정 SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
최소 노드 수 2
최대 노드 수 50
SSL 사용 설정
트러스트 저장소 비보안 연결
대상 유형(서버) 호스트 주소
호스트 주소 192.0.2.0
포트 PORT
HTTP Event Collector 토큰 기반 인증
HTTPEventCollectorToken HTTPEVENTCOLLECTOR_TOKEN
보안 비밀 버전 1

HTTP 이벤트 수집기 토큰을 만드는 방법에 관한 자세한 내용은 HTTP 이벤트 수집기 만들기를 참고하세요.

SSL 연결 유형

필드 이름 세부정보
위치 us-central1
커넥터 Splunk
커넥터 버전 1
연결 이름 splunk-ssl-connection
Cloud Logging 사용 설정
서비스 계정 SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
세부정보 수준 5
최소 노드 수 2
최대 노드 수 50
SSL 사용 설정
비보안 연결
대상 유형(서버) 호스트 주소
호스트 주소 https://192.0.2.0
포트 PORT
사용자 비밀번호
사용자 이름 사용자
비밀번호 PASSWORD
보안 비밀 버전 1

기본 인증의 경우 사용자 역할 또는 고급 사용자 역할이 있어야 합니다. 고급 사용자를 구성하는 방법에 대한 자세한 내용은 고급 사용자 역할 구성을 참고하세요. Splunk에서 역할 정의에 관한 자세한 내용은 Splunk 플랫폼에서 역할 정의를 참고하세요.

항목, 작업, 조치

모든 Integration Connectors는 연결된 애플리케이션의 객체에 대한 추상화 레이어를 제공합니다. 이 추상화를 통해서만 애플리케이션의 객체에 액세스할 수 있습니다. 추상화는 항목, 작업, 조치로 노출됩니다.

  • 항목: 연결된 애플리케이션 또는 서비스에서 항목은 객체 또는 속성 모음으로 간주될 수 있습니다. 항목의 정의는 커넥터마다 다릅니다. 예를 들어 데이터베이스 커넥터에서는 테이블이 항목이고, 파일 서버 커넥터에서는 폴더가 항목이며 메시징 시스템 커넥터에서는 큐가 항목입니다.

    그러나 커넥터가 항목을 지원하지 않거나 항목을 포함하지 않을 수 있으며, 이 경우 Entities 목록이 비어 있습니다.

  • 작업: 작업은 항목에 대해 수행할 수 있는 활동입니다. 항목에서 다음 작업을 수행할 수 있습니다.

    사용 가능한 목록에서 항목을 선택하면 항목에 사용 가능한 작업 목록이 생성됩니다. 작업에 대한 자세한 설명은 커넥터 태스크의 항목 작업을 참조하세요. 그러나 커넥터가 항목 작업을 지원하지 않으면 이렇게 지원되지 않는 작업은 Operations 목록에 나열되지 않습니다.

  • 조치: 커넥터 인터페이스를 통해 통합에 제공되는 첫 번째 클래스 함수입니다. 조치를 사용하면 항목을 변경할 수 있습니다. 조치는 커넥터마다 다릅니다. 일반적으로 조치에는 입력 매개변수와 출력 매개변수가 있습니다. 하지만 커넥터가 조치를 지원하지 않을 수 있으며 이 경우 Actions 목록이 비어 있습니다.

시스템 제한사항

Splunk 커넥터는 노드별로 초당 5개의 트랜잭션을 처리할 수 있으며 이 한도를 초과하는 모든 트랜잭션을 제한합니다. 그러나 이 커넥터가 처리할 수 있는 트랜잭션 수는 Splunk 인스턴스에서 적용하는 제약 조건에 따라 달라집니다. 기본적으로 Integration Connectors는 가용성을 높이기 위해 연결에 2개의 노드를 할당합니다.

Integration Connectors에 적용되는 한도에 대한 자세한 내용은 한도를 참조하세요.

작업

이 섹션에는 커넥터에서 지원하는 작업이 나와 있습니다. 작업을 구성하는 방법은 작업 예시를 참조하세요.

CreateHTTPEvent 작업

이 작업을 통해 HTTP 및 HTTPS 프로토콜을 통해 데이터와 애플리케이션 이벤트를 Splunk 배포로 전송할 수 있습니다.

CreateHTTPEvent 작업의 입력 매개변수

매개변수 이름 데이터 유형 필수 설명
EventContent 문자열 테이블 또는 뷰의 이름입니다.
ContentType 문자열 아니요 EventContent 입력에 지정된 콘텐츠의 유형입니다. 지원되는 값은 JSONRAWTEXT입니다.
ChannelGUID 정수 아니요 이벤트에 사용되는 채널의 GUID입니다. ContentTypeRAWTEXT인 경우 이 값을 지정해야 합니다.

CreateHTTPEvent 작업의 출력 매개변수

이 작업은 생성된 이벤트의 성공 상태를 반환합니다.

CreateIndex 작업

이 작업을 수행하면 색인을 만들 수 있습니다.

CreateIndex 작업의 입력 파라미터

매개변수 이름 데이터 유형 필수 설명
MaxMetaEntries 문자열 아니요 버킷에 있는 .data 파일의 최대 고유 줄 수를 설정하여 메모리 소비를 줄이는 데 도움이 될 수 있습니다.
FrozenTimePeriodInSecs 문자열 아니요 색인이 생성된 데이터가 고정된 후 경과한 시간(초)입니다. 기본값은 188697600초(6년)입니다.
HomePath 문자열 아니요 색인의 핫 버킷과 웜 버킷이 포함된 절대 경로입니다.
MinRawFileSyncSecs 문자열 아니요 이 매개변수의 정수(또는 disable)를 지정합니다. 이 매개변수는 splunkd가 저널 슬라이스를 압축하는 동안 파일 시스템 동기화를 강제하는 빈도를 설정합니다.
ProcessTrackerServiceInterval 문자열 아니요 큐에 추가된 요청에 대해 새 프로세스를 실행할 수 있는지 확인하기 위해 색인 생성기가 시작한 하위 OS 프로세스의 상태를 초 단위로 지정합니다. 0으로 설정하면 색인 생성기가 1초마다 하위 프로세스 상태를 확인합니다.
ServiceMetaPeriod 문자열 아니요 메타데이터가 디스크에 동기화되는 빈도(초)를 정의합니다.
MaxHotSpanSecs 문자열 아니요 핫 버킷 또는 웜 버킷의 대상 최대 기간(초)의 상한값입니다.
QuarantinePastSecs 문자열 아니요 >now보다 오래된 quarantinePastSecs의 타임스탬프가 있는 이벤트는 격리 버킷으로 이동됩니다.
ColdToFrozenDir 문자열 아니요 정지된 보관 파일의 대상 경로입니다. ColdToFrozenScript 대신 사용하세요.
ColdPath 문자열 아니요 색인의 colddbs가 포함된 절대 경로입니다. 경로는 읽고 쓸 수 있어야 합니다.
MaxHotIdleSecs 문자열 아니요 핫 버킷의 최대 수명(초)
WarmToColdScript 문자열 아니요 데이터를 웜에서 콜드로 이동할 때 실행할 스크립트의 경로입니다.
ColdToFrozenScript 문자열 아니요 보관 파일 스크립트의 경로입니다.
MaxHotBuckets 문자열 아니요 색인당 존재할 수 있는 최대 핫 버킷 수입니다.
TstatsHomePath 문자열 아니요 이 색인의 데이터 모델 가속 TSIDX 데이터를 저장할 위치입니다. 지정된 경우 볼륨 정의에 따라 정의되어야 합니다. 경로는 쓰기 가능해야 합니다.
RepFactor 문자열 아니요 색인 복제 제어. 이 파라미터는 클러스터의 피어 노드에만 적용됩니다.
  • auto: 마스터 색인 복제 구성 값을 사용합니다.
  • 0: 이 색인의 복제를 사용 중지합니다.
MaxDataSize 문자열 아니요 웜으로의 전환이 트리거되기 위해 핫 DB가 도달할 최대 크기(MB)입니다. auto 또는 auto_high_volume을 지정하면 Splunk가 이 매개변수를 자동 조정합니다(권장).
MaxBloomBackfillBucketAge 문자열 아니요 유효한 값은 integer[m|s|h|d]입니다. 웜 또는 콜드 버킷이 지정된 기간보다 오래된 경우 블룸 필터를 만들거나 다시 빌드하지 마세요. bloomfilters를 다시 빌드하지 않으려면 0을 지정합니다.
BlockSignSize 문자열 아니요 블록 서명의 블록을 구성하는 이벤트 수를 제어합니다. 0으로 설정하면 이 색인의 블록 서명이 사용 중지됩니다. 권장 값은 100입니다.
이름 문자열 만들려는 색인의 이름
MaxTotalDataSizeMB 문자열 아니요 색인의 최대 크기(MB)입니다. 색인이 최대 크기보다 커지면 가장 오래된 데이터가 고정됩니다.
MaxWarmDBCount 문자열 아니요 최대 웜 버킷 수입니다. 이 숫자가 초과되면 최근 시간의 값이 가장 낮은 웜 버킷이 콜드로 이동합니다.
RawChunkSizeBytes 문자열 아니요 색인의 원시 데이터 저널에 있는 개별 원시 슬라이스에 대한 압축되지 않은 크기(바이트)를 타겟팅합니다. 0은 유효한 값이 아닙니다. 0이 지정되면 rawChunkSizeBytes가 기본값으로 설정됩니다.
DataType 문자열 아니요 색인 유형을 지정합니다.
MaxConcurrentOptimizes 문자열 아니요 핫 버킷에 대해 실행할 수 있는 동시 최적화 프로세스 수입니다.
ThrottleCheckPeriod 문자열 아니요 Splunk가 색인 제한 조건을 확인하는 빈도(초)를 정의합니다.
SyncMeta 문자열 아니요 True이면 메타데이터 파일 업데이트 시 파일 설명자가 닫히기 전에 동기화 작업이 호출됩니다. 이 기능은 특히 운영체제 비정상 종료나 머신 장애와 관련하여 메타데이터 파일의 무결성을 향상시킵니다.
RotatePeriodInSecs 문자열 아니요 새 핫 버킷을 만들어야 하는지 확인하는 빈도(초)입니다. 또한 롤링/고정해야 하는 웜/콜드 버킷이 있는지 확인하는 빈도입니다.

CreateIndex 작업의 출력 파라미터

이 작업은 CreateIndex 작업의 확인 메시지를 반환합니다.

CreateIndex 작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.

CreateSavedSearch 작업

이 작업을 수행하면 검색 내역을 저장할 수 있습니다.

CreateSavedSearch 작업의 입력 파라미터

매개변수 이름 데이터 유형 필수 설명
IsVisible 불리언 저장된 검색 목록에 이 저장된 검색이 표시되는지 여부를 나타냅니다.
RealTimeSchedule 불리언 이 값을 1로 설정하면 스케줄러는 현재 시간을 기준으로 다음 예약된 검색 실행 시간을 결정합니다. 이 값을 0으로 설정하면 마지막 검색 실행 시간을 기준으로 결정됩니다.
검색 문자열 저장할 검색어
설명 문자열 아니요 저장된 검색어에 대한 설명
SchedulePriority 문자열 특정 검색의 예약 우선순위를 나타냅니다.
CronSchedule 문자열 이 검색을 실행할 크론 일정입니다. 예를 들어 */5 * * * *를 입력하면 검색이 5분마다 실행됩니다.
이름 문자열 검색의 이름
UserContext 문자열 사용자 컨텍스트가 제공되면 servicesNS 노드가 사용(/servicesNS/[UserContext]/search)되고, 그 밖의 경우 기본값은 일반 엔드포인트인 /services입니다.
RunOnStartup 불리언 시작 시 이 검색을 실행할지 여부를 나타냅니다. 시작 시 실행되지 않으면 다음으로 예약된 시간에 검색이 실행됩니다.
사용 중지됨 불리언 아니요 저장된 검색결과가 사용 중지되었는지 여부를 나타냅니다.
IsScheduled 불리언 이 검색을 일정에 따라 실행할지 여부를 나타냅니다.

CreateSavedSearch 작업의 출력 파라미터

이 작업은 CreateSavedSearch 작업의 확인 메시지를 반환합니다.

CreateSavedSearch 작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.

UpdateSavedSearch 작업

이 작업을 수행하면 저장된 검색결과를 업데이트할 수 있습니다.

UpdateSavedSearch 작업의 입력 파라미터

매개변수 이름 데이터 유형 필수 설명
IsVisible 불리언 저장된 검색 목록에 이 저장된 검색이 표시되는지 여부를 나타냅니다.
RealTimeSchedule 불리언 이 값을 1로 설정하면 스케줄러는 현재 시간을 기준으로 다음 예약된 검색 실행 시간을 결정합니다. 이 값을 0으로 설정하면 마지막 검색 실행 시간을 기준으로 결정됩니다.
검색 문자열 저장할 검색어
설명 문자열 아니요 저장된 검색어에 대한 설명
SchedulePriority 문자열 특정 검색의 예약 우선순위를 나타냅니다.
CronSchedule 문자열 이 검색을 실행할 크론 일정입니다. 예를 들어 */5 * * * *를 입력하면 검색이 5분마다 실행됩니다.
이름 문자열 검색의 이름
UserContext 문자열 사용자 컨텍스트가 제공되면 servicesNS 노드가 사용(/servicesNS/[UserContext]/search)되고, 그 밖의 경우 기본값은 일반 엔드포인트인 /services입니다.
RunOnStartup 불리언 시작 시 이 검색을 실행할지 여부를 나타냅니다. 시작 시 실행되지 않으면 다음으로 예약된 시간에 검색이 실행됩니다.
사용 중지됨 불리언 아니요 저장된 검색결과가 사용 중지되었는지 여부를 나타냅니다.
IsScheduled 불리언 이 검색을 일정에 따라 실행할지 여부를 나타냅니다.

UpdateSavedSearch 작업의 출력 파라미터

이 작업은 UpdateSavedSearch 작업의 확인 메시지를 반환합니다.

UpdateSavedSearch 작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.

DeleteIndex 작업

이 작업을 수행하면 색인을 삭제할 수 있습니다.

DeleteIndex 작업의 입력 파라미터

매개변수 이름 데이터 유형 필수 설명
이름 문자열 삭제할 색인의 이름입니다.

DeleteIndex 작업의 출력 파라미터

이 작업은 DeleteIndex 작업의 확인 메시지를 반환합니다.

DeleteIndex 작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.

UpdateIndex 작업

이 작업을 수행하면 색인을 업데이트할 수 있습니다.

UpdateIndex 작업의 입력 파라미터

매개변수 이름 데이터 유형 필수 설명
MaxMetaEntries 문자열 아니요 버킷에 있는 .data 파일의 최대 고유 줄 수를 설정하여 메모리 소비를 줄이는 데 도움이 될 수 있습니다.
FrozenTimePeriodInSecs 문자열 아니요 색인이 생성된 데이터가 고정된 후 경과한 시간(초)입니다. 기본값은 188697600초(6년)입니다.
HomePath 문자열 아니요 색인의 핫 버킷과 웜 버킷이 포함된 절대 경로입니다.
MinRawFileSyncSecs 문자열 아니요 이 매개변수의 정수(또는 disable)를 지정합니다. 이 매개변수는 splunkd가 저널 슬라이스를 압축하는 동안 파일 시스템 동기화를 강제하는 빈도를 설정합니다.
ProcessTrackerServiceInterval 문자열 아니요 큐에 추가된 요청에 대해 새 프로세스를 실행할 수 있는지 확인하기 위해 색인 생성기가 시작한 하위 OS 프로세스의 상태를 초 단위로 지정합니다. 0으로 설정하면 색인 생성기가 1초마다 하위 프로세스 상태를 확인합니다.
ServiceMetaPeriod 문자열 아니요 메타데이터가 디스크에 동기화되는 빈도(초)를 정의합니다.
MaxHotSpanSecs 문자열 아니요 핫 버킷 또는 웜 버킷의 대상 최대 기간(초)의 상한값입니다.
QuarantinePastSecs 문자열 아니요 now보다 오래된 quarantinePastSecs의 타임스탬프가 있는 이벤트는 격리 버킷으로 이동됩니다.
ColdToFrozenDir 문자열 아니요 정지된 보관 파일의 대상 경로입니다. ColdToFrozenScript 대신 사용하세요.
ColdPath 문자열 아니요 색인의 colddbs가 포함된 절대 경로입니다. 경로는 읽고 쓸 수 있어야 합니다.
MaxHotIdleSecs 문자열 아니요 핫 버킷의 최대 수명(초)입니다.
WarmToColdScript 문자열 아니요 데이터를 웜에서 콜드로 이동할 때 실행할 스크립트의 경로입니다.
ColdToFrozenScript 문자열 아니요 보관 파일 스크립트의 경로입니다.
MaxHotBuckets 문자열 아니요 색인당 존재할 수 있는 최대 핫 버킷 수입니다.
TstatsHomePath 문자열 아니요 이 색인의 데이터 모델 가속 TSIDX 데이터를 저장할 위치입니다. 지정된 경우 볼륨 정의에 따라 정의되어야 합니다. 경로는 쓰기 가능해야 합니다.
RepFactor 문자열 아니요 색인 복제 제어. 이 파라미터는 클러스터의 피어 노드에만 적용됩니다.
  • auto: 마스터 색인 복제 구성 값을 사용합니다.
  • 0: 이 색인의 복제를 사용 중지합니다.
MaxDataSize 문자열 아니요 웜으로의 전환이 트리거되기 위해 핫 DB가 도달할 최대 크기(MB)입니다. auto 또는 auto_high_volume을 지정하면 Splunk가 이 매개변수를 자동 조정합니다(권장).
MaxBloomBackfillBucketAge 문자열 아니요 유효한 값은 integer[m|s|h|d]입니다. 웜 또는 콜드 버킷이 지정된 기간보다 오래된 경우 블룸 필터를 만들거나 다시 빌드하지 마세요. bloomfilters를 다시 빌드하지 않으려면 0을 지정합니다.
BlockSignSize 문자열 아니요 블록 서명의 블록을 구성하는 이벤트 수를 제어합니다. 이 값을 0으로 설정하면 이 색인의 블록 서명이 사용 중지됩니다. 권장 값은 100입니다.
이름 문자열 만들려는 색인의 이름
MaxTotalDataSizeMB 문자열 색인의 최대 크기(MB)입니다. 색인이 최대 크기보다 커지면 가장 오래된 데이터가 고정됩니다.
MaxWarmDBCount 문자열 아니요 최대 웜 버킷 수입니다. 이 숫자가 초과되면 최근 시간의 값이 가장 낮은 웜 버킷이 콜드로 이동합니다.
RawChunkSizeBytes 문자열 아니요 색인의 원시 데이터 저널에 있는 개별 원시 슬라이스에 대한 압축되지 않은 크기(바이트)를 타겟팅합니다. 0은 유효한 값이 아닙니다. 0이 지정되면 rawChunkSizeBytes가 기본값으로 설정됩니다.
DataType 문자열 아니요 색인 유형을 지정합니다.
MaxConcurrentOptimizes 문자열 아니요 핫 버킷에 대해 실행할 수 있는 동시 최적화 프로세스 수입니다.
ThrottleCheckPeriod 문자열 아니요 Splunk가 색인 제한 조건을 확인하는 빈도(초)를 정의합니다.
SyncMeta 문자열 아니요 True이면 메타데이터 파일 업데이트 시 파일 설명자가 닫히기 전에 동기화 작업이 호출됩니다. 이 기능은 특히 운영체제 비정상 종료나 머신 장애와 관련하여 메타데이터 파일의 무결성을 향상시킵니다.
RotatePeriodInSecs 문자열 아니요 새 핫 버킷을 만들어야 하는지 확인하는 빈도(초)입니다. 또한 롤링하거나 고정해야 하는 웜 또는 콜드 버킷이 있는지 확인하는 빈도입니다.

UpdateIndex 작업의 출력 파라미터

이 작업은 UpdateIndex 작업의 확인 메시지를 반환합니다.

UpdateIndex 작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.

작업 예시

예시 - HTTP 이벤트 만들기

이 예시에서는 HTTP 이벤트를 만듭니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. CreateHTTPEvent 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "EventContent": "Testing Task",
    "ContentType": "RAWTEXT",
    "ChannelGUID": "ContentType=RAWTEXT"
    }
  4. 작업이 성공하면 CreateHTTPEvent 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "Success": "Success"
    }] 
    

예시 - 색인 만들기

이 예시에서는 색인을 만듭니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. CreateIndex 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Name": "http_testing"
    }
  4. 작업이 성공하면 CreateIndex 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "AssureUTF8": null,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": null,
    "ColdPath": null,
    "FrozenTimePeriodInSecs": null,
    "HomePath": null,
    "HomePathExpanded": null,
    "IndexThreads": null,
    "IsInternal": null,
    "MaxConcurrentOptimizes": null,
    "MaxDataSize": null,
    "MaxHotBuckets": null,
    "SuppressBannerList": null,
    "Sync": null,
    "SyncMeta": null,
    "ThawedPath": null,
    "ThawedPathExpanded": null,
    "TstatsHomePath": null,
    "WarmToColdScript": null,
    }]

이 예시에서는 저장된 검색결과를 만듭니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. CreateSavedSearch 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Name": "test_created_g",
    "Search": "index=\"http_testing\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest",
    "UserContext": "nobody"
    }
  4. 작업이 성공하면 CreateSavedSearch 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "Success": true,
    "Message": null
    }]

이 예시에서는 저장된 검색결과를 업데이트합니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. UpdateSavedSearch 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Name": "test_created_g",
    "Search": "index=\"december_test_data\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest"
    }
  4. 작업이 성공하면 UpdateSavedSearch 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "Success": true,
    "Message": null
    }]

예시 - 색인 삭제

이 예시에서는 색인을 삭제합니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. DeleteIndex 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Name": "g_http_testing"
    }
  4. 작업이 성공하면 DeleteIndex 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

예시 - 색인 업데이트

이 예시에서는 색인을 업데이트합니다.

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. UpdateIndex 조치를 선택한 다음 완료를 클릭합니다.
  3. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "MaxTotalDataSizeMB": "400000",
    "Name": "g_http_testing"
    }
  4. 작업이 성공하면 UpdateIndex 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "AssureUTF8": false,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": "auto",
    "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb",
    "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb",
    "ColdToFrozenDir": "",
    "ColdToFrozenScript": "",
    "CurrentDBSizeMB": 1.0,
    "DefaultDatabase": "main",
    "EnableOnlineBucketRepair": true,
    "EnableRealtimeSearch": true,
    "FrozenTimePeriodInSecs": 1.886976E8,
    "HomePath": "$SPLUNK_DB\\g_http_testing\\db",
    "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db",
    "IndexThreads": "auto",
    "IsInternal": false,
    "LastInitTime": "2024-01-08 05:15:28.0",
    "MaxBloomBackfillBucketAge": "30d",
    "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb",
    "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb",
    "ThrottleCheckPeriod": 15.0,
    "TotalEventCount": 0.0,
    "TsidxDedupPostingsListMaxTermsLimit": 8388608.0,
    "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary",
    "WarmToColdScript": "",
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

항목 작업 예시

이 섹션에서는 이 커넥터에서 일부 항목 작업을 수행하는 방법을 보여줍니다.

예시 - 모든 레코드 나열

이 예시에서는 SearchJobs 항목의 모든 레코드를 나열합니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. List 작업을 선택한 후 완료를 클릭합니다.
  4. 원하는 경우 커넥터 태스크의 태스크 입력 섹션에서 필터 절을 지정하여 결과 집합을 필터링할 수 있습니다. 필터 절 값을 항상 작은따옴표(')로 묶어서 지정합니다.

예시 - 항목에서 레코드 가져오기

이 예시에서는 SearchJobs 항목에서 지정된 ID가 있는 레코드를 가져옵니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Get 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 EntityId를 클릭한 후 기본값 필드에 1698309163.1300을 입력합니다.

    여기서 1698309163.1300SearchJobs 항목의 고유 레코드 ID입니다.

예시 - 항목에 레코드 만들기

이 예시에서는 SearchJobs 항목에 레코드를 만듭니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    { 
    "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex  \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" 
    } 
    

    통합이 성공하면 SearchJobs 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    {
    "Sid": "1699336785.1919"
    } 
    

예시 - 항목에 레코드 만들기

이 예시에서는 DataModels 항목에 레코드를 만듭니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 DataModels를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Id": "Test1",
    "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\",
    \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\",
    \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false,
    \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\"
    ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }

    통합이 완료되면 커넥터 태스크의 connectorOutputPayload 필드에 다음과 유사한 값이 포함됩니다.

    [{
    "Id": "Test1"
    }]

예시 - 항목에서 레코드 삭제

이 예시에서는 DataModels 항목에서 지정된 ID가 있는 레코드를 삭제합니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 DataModels를 선택합니다.
  3. Delete 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 entityId를 클릭한 후 기본값 필드에 Test1을 입력합니다.

예시 - 항목의 레코드 업데이트

이 예시에서는 DataModels 항목의 레코드를 업데이트합니다.

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 DataModels를 선택합니다.
  3. Update 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 connectorInputPayload를 클릭한 후 Default Value 필드에 다음과 유사한 값을 입력합니다.
    {
    "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\",
    \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60,
    \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false,
    \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3,
    \"allow_skew\":\"0\",\"schedule_priority\":\"default\",
    \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }
  5. entityId를 클릭한 후 기본값 필드에 /servicesNS/nobody/search/datamodel/model/Testing을 입력합니다.

    통합이 완료되면 커넥터 태스크의 connectorOutputPayload 필드에 다음과 유사한 값이 포함됩니다.

    [{
    "Id": "/servicesNS/nobody/search/datamodel/model/Testing"
    }]

예시 - 색인을 사용한 검색 흐름

이 섹션에는 단일 색인과 여러 색인을 사용하는 모든 검색 흐름이 나열되어 있습니다.

단일 색인을 사용하여 검색 만들기

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    통합이 성공하면 SearchJobs 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    {
    "Sid": "1726051471.76"
    } 
    

검색어에 사용된 색인 이름을 사용하여 목록 작업

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 Index Name를 선택합니다.
  3. List 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 filterClause(예: Sid= '1726051471.76')를 설정할 수 있습니다.

  5. 통합이 성공하면 Index Name 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1726051471.76"
    }]
    

여러 색인을 사용하여 검색 만들기

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    통합이 성공하면 SearchJobs 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    {
    "Sid": "1727261971.4007"
    } 
    

검색어에 사용된 색인 이름을 사용하여 목록 작업

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 Index Name 이름을 선택합니다.
  3. List 작업을 선택한 후 완료를 클릭합니다.
  4. 커넥터 태스크의 태스크 입력 섹션에서 filterClause(예: Sid= '1727261971.4007')를 설정할 수 있습니다.

  5. 통합이 성공하면 Index 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

     [{
      "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.727155516E9,
      "_kv": null,
      "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo",
      "_sourcetype": "Demo_Text",
      "_time": "2024-09-24 05:25:16.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "googlecloud-demo",
      "linecount": 3.0,
      "punct": null,
      "source": "Splunk_Demo.txt",
      "sourcetype": "Demo_Text",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }, {
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 1.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }]
    

예 - ReadJobResults를 사용한 검색 흐름

이 섹션에는 Splunk 연결에서 지원하는 단일 색인과 여러 색인을 모두 사용하는 모든 검색 흐름이 나와 있습니다. 현재 지원되는 로그 결과의 최대 페이로드 크기는 150MB입니다.

단일 색인을 사용하여 검색 만들기

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    이 예에서는 검색을 만듭니다. 통합이 성공하면 SearchJobs 태스크의 connectorOutputPayload 응답 매개변수 값은 다음과 유사합니다.

    {
    "Sid": "1732775755.24612"
    } 
    

검색 결과를 가져오려면 ReadJobResults 작업에서 만들기 작업을 실행합니다. Sid를 기반으로 결과를 필터링하려면 Sid를 작업에 매개변수로 전달합니다.

ReadJobResults 작업을 사용하여 결과 로그 가져오기

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. ReadJobResults 조치를 선택한 다음 완료를 클릭합니다.
  3. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "Sid": "1732775755.24612"
    }
    
  4. 작업이 성공하면 ReadJobResults 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732775755.24612",
    "sid": "1732775755.24612"
    }]
    

여러 색인을 사용하여 검색 만들기

  1. Configure connector task 대화상자에서 Entities를 클릭합니다.
  2. Entity 목록에서 SearchJobs를 선택합니다.
  3. Create 작업을 선택한 후 완료를 클릭합니다.
  4. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    통합이 성공하면 SearchJobs 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    {
    "Sid": "1732776556.24634"
    } 
    

검색 결과를 가져오려면 ReadJobResults 작업에서 만들기 작업을 실행합니다. Sid를 기반으로 결과를 필터링하려면 Sid를 작업에 매개변수로 전달합니다.

ReadJobResults 작업을 사용하는 ResultsLogs

  1. Configure connector task 대화상자에서 Actions를 클릭합니다.
  2. ReadJobResults 조치를 선택한 다음 완료를 클릭합니다.
  3. 데이터 매핑 태스크의 데이터 매퍼 섹션에서 Open Data Mapping Editor를 클릭한 후 Input Value 필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.
    {
    "Sid": "1732776556.24634"
    }
    
  4. 작업이 성공하면 ReadJobResults 태스크의 connectorOutputPayload 응답 매개변수가 다음과 비슷한 값을 갖습니다.

    [{
    "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1727155516",
    "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
    "_serial": "0",
    "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo",
    "_sourcetype": "Demo_Text",
    "_time": "2024-09-24T05:25:16.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "googlecloud-demo",
    "linecount": "3",
    "source": "Splunk_Demo.txt",
    "sourcetype": "Demo_Text",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    },{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    }]
    

    terraform을 사용하여 연결 만들기

    Terraform 리소스를 사용하여 새 연결을 만들 수 있습니다.

    Terraform 구성을 적용하거나 삭제하는 방법은 기본 Terraform 명령어를 참조하세요.

    연결 만들기를 위한 샘플 Terraform 템플릿을 보려면 샘플 템플릿을 참조하세요.

    Terraform을 사용하여 이 연결을 만들 때는 Terraform 구성 파일에서 다음 변수를 설정해야 합니다.

    파라미터 이름 데이터 유형 필수 설명
    세부정보 수준 STRING False 연결의 세부정보 수준은 1에서 5까지입니다. 세부정보 수준이 높을수록 모든 통신 세부정보(요청, 응답, SSL 인증서)가 로깅됩니다.
    proxy_enabled 불리언 False 이 체크박스를 선택하여 연결의 프록시 서버를 구성합니다.
    proxy_auth_scheme ENUM False ProxyServer 프록시에 인증하는 데 사용할 인증 유형입니다. 지원되는 값은 BASIC, DIGEST, NONE입니다.
    proxy_user STRING False ProxyServer 프록시에 인증하는 데 사용할 사용자 이름입니다.
    proxy_password SECRET False ProxyServer 프록시에 인증하는 데 사용할 비밀번호입니다.
    proxy_ssltype ENUM False ProxyServer 프록시에 연결할 때 사용할 SSL 유형입니다. 지원되는 값은 AUTO, ALWAYS, NEVER, TUNNEL입니다.

    통합에서 Splunk 연결 사용

    연결을 만들면 Apigee Integration 및 Application Integration에서 사용할 수 있게 됩니다. 커넥터 태스크를 통해 통합에서 연결을 사용할 수 있습니다.

    • Apigee Integration에서 커넥터 태스크를 만들고 사용하는 방법을 알아보려면 커넥터 태스크를 참조하세요.
    • Application Integration에서 커넥터 태스크를 만들고 사용하는 방법을 이해하려면 커넥터 태스크를 참조하세요.

    Google Cloud 커뮤니티에서 도움 받기

    Google Cloud 커뮤니티에서 Cloud 포럼에 질문을 게시하고 이 커넥터에 대해 토론할 수 있습니다.

    다음 단계