Splunk
Splunk 커넥터를 사용하면 Splunk 데이터베이스에서 삽입, 삭제, 업데이트, 읽기 작업을 수행할 수 있습니다.
시작하기 전에
Splunk 커넥터를 사용하기 전에 다음 태스크를 수행합니다.
- Google Cloud 프로젝트에서:
- 네트워크 연결이 설정되어 있는지 확인합니다. 네트워크 패턴에 대한 자세한 내용은 네트워크 연결을 참조하세요.
- 커넥터를 구성하는 사용자에게 roles/connectors.admin IAM 역할을 부여합니다.
- 커넥터에 사용할 서비스 계정에 다음 IAM 역할을 부여합니다.
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
서비스 계정은 인증을 거쳐야 하며 Google API의 데이터에 액세스할 수 있는 승인을 받은 사람이 아닌 사용자를 나타내는 특별한 유형의 Google 계정입니다. 서비스 계정이 없으면 서비스 계정을 만들어야 합니다. 자세한 내용은 서비스 계정 만들기를 참조하세요.
- 다음 서비스를 사용 설정합니다.
secretmanager.googleapis.com
(Secret Manager API)connectors.googleapis.com
(Connectors API)
서비스 사용 설정 방법은 서비스 사용 설정을 참조하세요.
이러한 서비스나 권한이 이전 프로젝트에서 사용 설정되지 않았으면 커넥터를 구성할 때 서비스나 권한을 사용 설정하라는 메시지가 표시됩니다.
커넥터 구성
커넥터를 구성하려면 데이터 소스(백엔드 시스템)에 대한 연결을 만들어야 합니다. 연결은 데이터 소스와 관련이 있습니다. 즉, 데이터 소스가 많으면 데이터 소스마다 별도의 연결을 만들어야 합니다. 연결을 만들려면 다음 단계를 따르세요.
- Cloud 콘솔에서 Integration Connectors > 연결 페이지로 이동한 다음 Google Cloud 프로젝트를 선택하거나 만듭니다.
- + 새로 만들기를 클릭하여 연결 만들기 페이지를 엽니다.
- 위치 섹션에서 연결 위치를 선택합니다.
- 리전: 드롭다운 목록에서 위치를 선택합니다.
지원되는 모든 리전 목록은 위치를 참조하세요.
- 다음을 클릭합니다.
- 리전: 드롭다운 목록에서 위치를 선택합니다.
- 연결 세부정보 섹션에서 다음을 완료합니다.
- 커넥터: 사용 가능한 커넥터 드롭다운 목록에서 Splunk를 선택합니다.
- 커넥터 버전: 사용 가능한 버전의 드롭다운 목록에서 커넥터 버전을 선택합니다.
- 연결 이름 필드에서 연결 인스턴스의 이름을 입력합니다.
연결 이름은 다음 기준을 충족해야 합니다.
- 연결 이름에 문자, 숫자, 하이픈을 사용할 수 있습니다.
- 문자는 소문자여야 합니다.
- 연결 이름은 문자로 시작하고 문자 또는 숫자로 끝나야 합니다.
- 연결 이름은 49자(영문 기준)를 초과할 수 없습니다.
- 선택적으로 연결 인스턴스에 대한 설명을 입력합니다.
- 필요한 경우 Cloud Logging을 사용 설정한 다음 로그 수준을 선택합니다. 기본적으로 로그 수준은
Error
로 설정됩니다. - 서비스 계정: 필수 역할이 있는 서비스 계정을 선택합니다.
- 필요한 경우 연결 노드 설정을 구성합니다.
- 최소 노드 수: 최소 연결 노드 수를 입력합니다.
- 최대 노드 수: 최대 연결 노드 수를 입력합니다.
노드는 트랜잭션을 처리하는 연결의 단위(또는 복제본)입니다. 연결에 대해 더 많은 트랜잭션을 처리하려면 더 많은 노드가 필요합니다. 이와 반대로 더 적은 트랜잭션을 처리하기 위해서는 더 적은 노드가 필요합니다. 노드가 커넥터 가격 책정에 미치는 영향을 파악하려면 연결 노드 가격 책정을 참조하세요. 값을 입력하지 않으면 기본적으로 최소 노드가 (높은 가용성을 위해) 2로 설정되고 최대 노드는 50으로 설정됩니다.
- 선택적으로 + 라벨 추가를 클릭하여 키/값 쌍의 형식으로 연결에 라벨을 추가합니다.
- 다음을 클릭합니다.
- 대상 섹션에서 연결하려는 원격 호스트(백엔드 시스템)의 세부정보를 입력합니다.
- 대상 유형: 대상 유형을 선택합니다.
- 목록에서 호스트 주소를 선택하여 대상의 호스트 이름 또는 IP 주소를 지정합니다.
- 백엔드 시스템에 비공개 연결을 설정하려면 목록에서 엔드포인트 연결을 선택한 다음 엔드포인트 연결 목록에서 필요한 엔드포인트 연결을 선택합니다.
추가 보안을 사용하여 백엔드 시스템에 공개 연결을 설정하려면 연결의 고정 아웃바운드 IP 주소를 구성한 후 방화벽 규칙을 구성하여 특정 고정 IP 주소만 허용 목록에 추가합니다.
추가 대상을 입력하려면 +대상 추가를 클릭합니다.
- 다음을 클릭합니다.
- 대상 유형: 대상 유형을 선택합니다.
-
인증 섹션에서 인증 세부정보를 입력합니다.
- 인증 유형을 선택하고 관련 세부정보를 입력합니다.
Splunk 연결에서는 다음 인증 유형이 지원됩니다.
- 사용자 이름 및 비밀번호(기본 인증)
- AccessToken
- HTTPEventCollectorToken
- 다음을 클릭합니다.
이러한 인증 유형을 구성하는 방법은 인증 구성을 참조하세요.
- 인증 유형을 선택하고 관련 세부정보를 입력합니다.
- 검토: 연결 및 인증 세부정보를 검토합니다.
- 만들기를 클릭합니다.
인증 구성
사용할 인증을 기반으로 세부정보를 입력합니다.
-
사용자 이름 및 비밀번호
- 사용자 이름: 연결에 사용할 Splunk 사용자 이름입니다.
- 비밀번호: Splunk 사용자 이름과 연결된 비밀번호가 포함된 Secret Manager 보안 비밀입니다.
-
AccessToken -
AccessToken
속성을 사용하여 토큰 기반 인증을 수행하도록 설정합니다. -
HTTPEventCollectorToken -
HTTPEventCollectorToken
속성을 사용하여 토큰 기반 인증을 수행하도록 설정합니다.
연결 구성 샘플
이 섹션에서는 Splunk 연결을 만들 때 구성할 다양한 필드의 샘플 값이 표시됩니다.
HTTP 이벤트 수집기 연결 유형
필드 이름 | 세부정보 |
---|---|
위치 | us-central1 |
커넥터 | Splunk |
커넥터 버전 | 1 |
연결 이름 | splunk-http-event-coll-conn |
Cloud Logging 사용 설정 | 아니요 |
서비스 계정 | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
최소 노드 수 | 2 |
최대 노드 수 | 50 |
SSL 사용 설정 | 예 |
트러스트 저장소 비보안 연결 | 예 |
대상 유형(서버) | 호스트 주소 |
호스트 주소 | 192.0.2.0 |
포트 | PORT |
HTTP Event Collector 토큰 기반 인증 | 예 |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
보안 비밀 버전 | 1 |
HTTP 이벤트 수집기 토큰을 만드는 방법에 관한 자세한 내용은 HTTP 이벤트 수집기 만들기를 참고하세요.
SSL 연결 유형
필드 이름 | 세부정보 |
---|---|
위치 | us-central1 |
커넥터 | Splunk |
커넥터 버전 | 1 |
연결 이름 | splunk-ssl-connection |
Cloud Logging 사용 설정 | 예 |
서비스 계정 | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
세부정보 수준 | 5 |
최소 노드 수 | 2 |
최대 노드 수 | 50 |
SSL 사용 설정 | 예 |
비보안 연결 | 예 |
대상 유형(서버) | 호스트 주소 |
호스트 주소 | https://192.0.2.0 |
포트 | PORT |
사용자 비밀번호 | 예 |
사용자 이름 | 사용자 |
비밀번호 | PASSWORD |
보안 비밀 버전 | 1 |
기본 인증의 경우 사용자 역할 또는 고급 사용자 역할이 있어야 합니다. 고급 사용자를 구성하는 방법에 대한 자세한 내용은 고급 사용자 역할 구성을 참고하세요. Splunk에서 역할 정의에 관한 자세한 내용은 Splunk 플랫폼에서 역할 정의를 참고하세요.
항목, 작업, 조치
모든 Integration Connectors는 연결된 애플리케이션의 객체에 대한 추상화 레이어를 제공합니다. 이 추상화를 통해서만 애플리케이션의 객체에 액세스할 수 있습니다. 추상화는 항목, 작업, 조치로 노출됩니다.
- 항목: 연결된 애플리케이션 또는 서비스에서 항목은 객체 또는 속성 모음으로 간주될 수 있습니다. 항목의 정의는 커넥터마다 다릅니다. 예를 들어 데이터베이스 커넥터에서는 테이블이 항목이고, 파일 서버 커넥터에서는 폴더가 항목이며 메시징 시스템 커넥터에서는 큐가 항목입니다.
그러나 커넥터가 항목을 지원하지 않거나 항목을 포함하지 않을 수 있으며, 이 경우
Entities
목록이 비어 있습니다. - 작업: 작업은 항목에 대해 수행할 수 있는 활동입니다. 항목에서 다음 작업을 수행할 수 있습니다.
사용 가능한 목록에서 항목을 선택하면 항목에 사용 가능한 작업 목록이 생성됩니다. 작업에 대한 자세한 설명은 커넥터 태스크의 항목 작업을 참조하세요. 그러나 커넥터가 항목 작업을 지원하지 않으면 이렇게 지원되지 않는 작업은
Operations
목록에 나열되지 않습니다. - 조치: 커넥터 인터페이스를 통해 통합에 제공되는 첫 번째 클래스 함수입니다. 조치를 사용하면 항목을 변경할 수 있습니다. 조치는 커넥터마다 다릅니다. 일반적으로 조치에는 입력 매개변수와 출력 매개변수가 있습니다. 하지만 커넥터가 조치를 지원하지 않을 수 있으며 이 경우
Actions
목록이 비어 있습니다.
시스템 제한사항
Splunk 커넥터는 노드별로 초당 5개의 트랜잭션을 처리할 수 있으며 이 한도를 초과하는 모든 트랜잭션을 제한합니다. 그러나 이 커넥터가 처리할 수 있는 트랜잭션 수는 Splunk 인스턴스에서 적용하는 제약 조건에 따라 달라집니다. 기본적으로 Integration Connectors는 가용성을 높이기 위해 연결에 2개의 노드를 할당합니다.
Integration Connectors에 적용되는 한도에 대한 자세한 내용은 한도를 참조하세요.
작업
이 섹션에는 커넥터에서 지원하는 작업이 나와 있습니다. 작업을 구성하는 방법은 작업 예시를 참조하세요.
CreateHTTPEvent 작업
이 작업을 통해 HTTP 및 HTTPS 프로토콜을 통해 데이터와 애플리케이션 이벤트를 Splunk 배포로 전송할 수 있습니다.
CreateHTTPEvent 작업의 입력 매개변수
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
EventContent | 문자열 | 예 | 테이블 또는 뷰의 이름입니다. |
ContentType | 문자열 | 아니요 | EventContent 입력에 지정된 콘텐츠의 유형입니다. 지원되는 값은 JSON 및 RAWTEXT 입니다. |
ChannelGUID | 정수 | 아니요 | 이벤트에 사용되는 채널의 GUID입니다. ContentType 이 RAWTEXT 인 경우 이 값을 지정해야 합니다. |
CreateHTTPEvent 작업의 출력 매개변수
이 작업은 생성된 이벤트의 성공 상태를 반환합니다.
CreateIndex 작업
이 작업을 수행하면 색인을 만들 수 있습니다.
CreateIndex 작업의 입력 파라미터
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
MaxMetaEntries | 문자열 | 아니요 | 버킷에 있는 .data 파일의 최대 고유 줄 수를 설정하여 메모리 소비를 줄이는 데 도움이 될 수 있습니다. |
FrozenTimePeriodInSecs | 문자열 | 아니요 | 색인이 생성된 데이터가 고정된 후 경과한 시간(초)입니다. 기본값은 188697600초(6년)입니다. |
HomePath | 문자열 | 아니요 | 색인의 핫 버킷과 웜 버킷이 포함된 절대 경로입니다. |
MinRawFileSyncSecs | 문자열 | 아니요 | 이 매개변수의 정수(또는 disable )를 지정합니다. 이 매개변수는 splunkd가 저널 슬라이스를 압축하는 동안 파일 시스템 동기화를 강제하는 빈도를 설정합니다. |
ProcessTrackerServiceInterval | 문자열 | 아니요 | 큐에 추가된 요청에 대해 새 프로세스를 실행할 수 있는지 확인하기 위해 색인 생성기가 시작한 하위 OS 프로세스의 상태를 초 단위로 지정합니다. 0으로 설정하면 색인 생성기가 1초마다 하위 프로세스 상태를 확인합니다. |
ServiceMetaPeriod | 문자열 | 아니요 | 메타데이터가 디스크에 동기화되는 빈도(초)를 정의합니다. |
MaxHotSpanSecs | 문자열 | 아니요 | 핫 버킷 또는 웜 버킷의 대상 최대 기간(초)의 상한값입니다. |
QuarantinePastSecs | 문자열 | 아니요 | >now 보다 오래된 quarantinePastSecs의 타임스탬프가 있는 이벤트는 격리 버킷으로 이동됩니다. |
ColdToFrozenDir | 문자열 | 아니요 | 정지된 보관 파일의 대상 경로입니다. ColdToFrozenScript 대신 사용하세요. |
ColdPath | 문자열 | 아니요 | 색인의 colddbs가 포함된 절대 경로입니다. 경로는 읽고 쓸 수 있어야 합니다. |
MaxHotIdleSecs | 문자열 | 아니요 | 핫 버킷의 최대 수명(초) |
WarmToColdScript | 문자열 | 아니요 | 데이터를 웜에서 콜드로 이동할 때 실행할 스크립트의 경로입니다. |
ColdToFrozenScript | 문자열 | 아니요 | 보관 파일 스크립트의 경로입니다. |
MaxHotBuckets | 문자열 | 아니요 | 색인당 존재할 수 있는 최대 핫 버킷 수입니다. |
TstatsHomePath | 문자열 | 아니요 | 이 색인의 데이터 모델 가속 TSIDX 데이터를 저장할 위치입니다. 지정된 경우 볼륨 정의에 따라 정의되어야 합니다. 경로는 쓰기 가능해야 합니다. |
RepFactor | 문자열 | 아니요 | 색인 복제 제어. 이 파라미터는 클러스터의 피어 노드에만 적용됩니다.
|
MaxDataSize | 문자열 | 아니요 | 웜으로의 전환이 트리거되기 위해 핫 DB가 도달할 최대 크기(MB)입니다.
auto 또는 auto_high_volume 을 지정하면 Splunk가 이 매개변수를 자동 조정합니다(권장). |
MaxBloomBackfillBucketAge | 문자열 | 아니요 | 유효한 값은 integer[m|s|h|d]입니다. 웜 또는 콜드 버킷이 지정된 기간보다 오래된 경우 블룸 필터를 만들거나 다시 빌드하지 마세요. bloomfilters를 다시 빌드하지 않으려면 0을 지정합니다. |
BlockSignSize | 문자열 | 아니요 | 블록 서명의 블록을 구성하는 이벤트 수를 제어합니다. 0으로 설정하면 이 색인의 블록 서명이 사용 중지됩니다. 권장 값은 100입니다. |
이름 | 문자열 | 예 | 만들려는 색인의 이름 |
MaxTotalDataSizeMB | 문자열 | 아니요 | 색인의 최대 크기(MB)입니다. 색인이 최대 크기보다 커지면 가장 오래된 데이터가 고정됩니다. |
MaxWarmDBCount | 문자열 | 아니요 | 최대 웜 버킷 수입니다. 이 숫자가 초과되면 최근 시간의 값이 가장 낮은 웜 버킷이 콜드로 이동합니다. |
RawChunkSizeBytes | 문자열 | 아니요 | 색인의 원시 데이터 저널에 있는 개별 원시 슬라이스에 대한 압축되지 않은 크기(바이트)를 타겟팅합니다. 0은 유효한 값이 아닙니다. 0이 지정되면 rawChunkSizeBytes가 기본값으로 설정됩니다. |
DataType | 문자열 | 아니요 | 색인 유형을 지정합니다. |
MaxConcurrentOptimizes | 문자열 | 아니요 | 핫 버킷에 대해 실행할 수 있는 동시 최적화 프로세스 수입니다. |
ThrottleCheckPeriod | 문자열 | 아니요 | Splunk가 색인 제한 조건을 확인하는 빈도(초)를 정의합니다. |
SyncMeta | 문자열 | 아니요 | True이면 메타데이터 파일 업데이트 시 파일 설명자가 닫히기 전에 동기화 작업이 호출됩니다. 이 기능은 특히 운영체제 비정상 종료나 머신 장애와 관련하여 메타데이터 파일의 무결성을 향상시킵니다. |
RotatePeriodInSecs | 문자열 | 아니요 | 새 핫 버킷을 만들어야 하는지 확인하는 빈도(초)입니다. 또한 롤링/고정해야 하는 웜/콜드 버킷이 있는지 확인하는 빈도입니다. |
CreateIndex 작업의 출력 파라미터
이 작업은 CreateIndex 작업의 확인 메시지를 반환합니다.
CreateIndex
작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.
CreateSavedSearch 작업
이 작업을 수행하면 검색 내역을 저장할 수 있습니다.
CreateSavedSearch 작업의 입력 파라미터
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
IsVisible | 불리언 | 예 | 저장된 검색 목록에 이 저장된 검색이 표시되는지 여부를 나타냅니다. |
RealTimeSchedule | 불리언 | 예 | 이 값을 1로 설정하면 스케줄러는 현재 시간을 기준으로 다음 예약된 검색 실행 시간을 결정합니다. 이 값을 0으로 설정하면 마지막 검색 실행 시간을 기준으로 결정됩니다. |
검색 | 문자열 | 예 | 저장할 검색어 |
설명 | 문자열 | 아니요 | 저장된 검색어에 대한 설명 |
SchedulePriority | 문자열 | 예 | 특정 검색의 예약 우선순위를 나타냅니다. |
CronSchedule | 문자열 | 예 | 이 검색을 실행할 크론 일정입니다. 예를 들어 */5 * * * * 를 입력하면 검색이 5분마다 실행됩니다. |
이름 | 문자열 | 예 | 검색의 이름 |
UserContext | 문자열 | 예 | 사용자 컨텍스트가 제공되면 servicesNS 노드가 사용(/servicesNS/[UserContext]/search)되고, 그 밖의 경우 기본값은 일반 엔드포인트인 /services 입니다. |
RunOnStartup | 불리언 | 예 | 시작 시 이 검색을 실행할지 여부를 나타냅니다. 시작 시 실행되지 않으면 다음으로 예약된 시간에 검색이 실행됩니다. |
사용 중지됨 | 불리언 | 아니요 | 저장된 검색결과가 사용 중지되었는지 여부를 나타냅니다. |
IsScheduled | 불리언 | 예 | 이 검색을 일정에 따라 실행할지 여부를 나타냅니다. |
CreateSavedSearch 작업의 출력 파라미터
이 작업은 CreateSavedSearch 작업의 확인 메시지를 반환합니다.
CreateSavedSearch
작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.
UpdateSavedSearch 작업
이 작업을 수행하면 저장된 검색결과를 업데이트할 수 있습니다.
UpdateSavedSearch 작업의 입력 파라미터
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
IsVisible | 불리언 | 예 | 저장된 검색 목록에 이 저장된 검색이 표시되는지 여부를 나타냅니다. |
RealTimeSchedule | 불리언 | 예 | 이 값을 1로 설정하면 스케줄러는 현재 시간을 기준으로 다음 예약된 검색 실행 시간을 결정합니다. 이 값을 0으로 설정하면 마지막 검색 실행 시간을 기준으로 결정됩니다. |
검색 | 문자열 | 예 | 저장할 검색어 |
설명 | 문자열 | 아니요 | 저장된 검색어에 대한 설명 |
SchedulePriority | 문자열 | 예 | 특정 검색의 예약 우선순위를 나타냅니다. |
CronSchedule | 문자열 | 예 | 이 검색을 실행할 크론 일정입니다. 예를 들어 */5 * * * *를 입력하면 검색이 5분마다 실행됩니다. |
이름 | 문자열 | 예 | 검색의 이름 |
UserContext | 문자열 | 예 | 사용자 컨텍스트가 제공되면 servicesNS 노드가 사용(/servicesNS/[UserContext]/search)되고, 그 밖의 경우 기본값은 일반 엔드포인트인 /services 입니다. |
RunOnStartup | 불리언 | 예 | 시작 시 이 검색을 실행할지 여부를 나타냅니다. 시작 시 실행되지 않으면 다음으로 예약된 시간에 검색이 실행됩니다. |
사용 중지됨 | 불리언 | 아니요 | 저장된 검색결과가 사용 중지되었는지 여부를 나타냅니다. |
IsScheduled | 불리언 | 예 | 이 검색을 일정에 따라 실행할지 여부를 나타냅니다. |
UpdateSavedSearch 작업의 출력 파라미터
이 작업은 UpdateSavedSearch 작업의 확인 메시지를 반환합니다.
UpdateSavedSearch
작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.
DeleteIndex 작업
이 작업을 수행하면 색인을 삭제할 수 있습니다.
DeleteIndex 작업의 입력 파라미터
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
이름 | 문자열 | 예 | 삭제할 색인의 이름입니다. |
DeleteIndex 작업의 출력 파라미터
이 작업은 DeleteIndex 작업의 확인 메시지를 반환합니다.
DeleteIndex
작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.
UpdateIndex 작업
이 작업을 수행하면 색인을 업데이트할 수 있습니다.
UpdateIndex 작업의 입력 파라미터
매개변수 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
MaxMetaEntries | 문자열 | 아니요 | 버킷에 있는 .data 파일의 최대 고유 줄 수를 설정하여 메모리 소비를 줄이는 데 도움이 될 수 있습니다. |
FrozenTimePeriodInSecs | 문자열 | 아니요 | 색인이 생성된 데이터가 고정된 후 경과한 시간(초)입니다. 기본값은 188697600초(6년)입니다. |
HomePath | 문자열 | 아니요 | 색인의 핫 버킷과 웜 버킷이 포함된 절대 경로입니다. |
MinRawFileSyncSecs | 문자열 | 아니요 | 이 매개변수의 정수(또는 disable )를 지정합니다. 이 매개변수는 splunkd가 저널 슬라이스를 압축하는 동안 파일 시스템 동기화를 강제하는 빈도를 설정합니다. |
ProcessTrackerServiceInterval | 문자열 | 아니요 | 큐에 추가된 요청에 대해 새 프로세스를 실행할 수 있는지 확인하기 위해 색인 생성기가 시작한 하위 OS 프로세스의 상태를 초 단위로 지정합니다. 0으로 설정하면 색인 생성기가 1초마다 하위 프로세스 상태를 확인합니다. |
ServiceMetaPeriod | 문자열 | 아니요 | 메타데이터가 디스크에 동기화되는 빈도(초)를 정의합니다. |
MaxHotSpanSecs | 문자열 | 아니요 | 핫 버킷 또는 웜 버킷의 대상 최대 기간(초)의 상한값입니다. |
QuarantinePastSecs | 문자열 | 아니요 | now 보다 오래된 quarantinePastSecs의 타임스탬프가 있는 이벤트는 격리 버킷으로 이동됩니다. |
ColdToFrozenDir | 문자열 | 아니요 | 정지된 보관 파일의 대상 경로입니다. ColdToFrozenScript 대신 사용하세요. |
ColdPath | 문자열 | 아니요 | 색인의 colddbs가 포함된 절대 경로입니다. 경로는 읽고 쓸 수 있어야 합니다. |
MaxHotIdleSecs | 문자열 | 아니요 | 핫 버킷의 최대 수명(초)입니다. |
WarmToColdScript | 문자열 | 아니요 | 데이터를 웜에서 콜드로 이동할 때 실행할 스크립트의 경로입니다. |
ColdToFrozenScript | 문자열 | 아니요 | 보관 파일 스크립트의 경로입니다. |
MaxHotBuckets | 문자열 | 아니요 | 색인당 존재할 수 있는 최대 핫 버킷 수입니다. |
TstatsHomePath | 문자열 | 아니요 | 이 색인의 데이터 모델 가속 TSIDX 데이터를 저장할 위치입니다. 지정된 경우 볼륨 정의에 따라 정의되어야 합니다. 경로는 쓰기 가능해야 합니다. |
RepFactor | 문자열 | 아니요 | 색인 복제 제어. 이 파라미터는 클러스터의 피어 노드에만 적용됩니다.
|
MaxDataSize | 문자열 | 아니요 | 웜으로의 전환이 트리거되기 위해 핫 DB가 도달할 최대 크기(MB)입니다.
auto 또는 auto_high_volume 을 지정하면 Splunk가 이 매개변수를 자동 조정합니다(권장). |
MaxBloomBackfillBucketAge | 문자열 | 아니요 | 유효한 값은 integer[m|s|h|d]입니다. 웜 또는 콜드 버킷이 지정된 기간보다 오래된 경우 블룸 필터를 만들거나 다시 빌드하지 마세요. bloomfilters를 다시 빌드하지 않으려면 0을 지정합니다. |
BlockSignSize | 문자열 | 아니요 | 블록 서명의 블록을 구성하는 이벤트 수를 제어합니다. 이 값을 0으로 설정하면 이 색인의 블록 서명이 사용 중지됩니다. 권장 값은 100입니다. |
이름 | 문자열 | 예 | 만들려는 색인의 이름 |
MaxTotalDataSizeMB | 문자열 | 예 | 색인의 최대 크기(MB)입니다. 색인이 최대 크기보다 커지면 가장 오래된 데이터가 고정됩니다. |
MaxWarmDBCount | 문자열 | 아니요 | 최대 웜 버킷 수입니다. 이 숫자가 초과되면 최근 시간의 값이 가장 낮은 웜 버킷이 콜드로 이동합니다. |
RawChunkSizeBytes | 문자열 | 아니요 | 색인의 원시 데이터 저널에 있는 개별 원시 슬라이스에 대한 압축되지 않은 크기(바이트)를 타겟팅합니다. 0은 유효한 값이 아닙니다. 0이 지정되면 rawChunkSizeBytes가 기본값으로 설정됩니다. |
DataType | 문자열 | 아니요 | 색인 유형을 지정합니다. |
MaxConcurrentOptimizes | 문자열 | 아니요 | 핫 버킷에 대해 실행할 수 있는 동시 최적화 프로세스 수입니다. |
ThrottleCheckPeriod | 문자열 | 아니요 | Splunk가 색인 제한 조건을 확인하는 빈도(초)를 정의합니다. |
SyncMeta | 문자열 | 아니요 | True이면 메타데이터 파일 업데이트 시 파일 설명자가 닫히기 전에 동기화 작업이 호출됩니다. 이 기능은 특히 운영체제 비정상 종료나 머신 장애와 관련하여 메타데이터 파일의 무결성을 향상시킵니다. |
RotatePeriodInSecs | 문자열 | 아니요 | 새 핫 버킷을 만들어야 하는지 확인하는 빈도(초)입니다. 또한 롤링하거나 고정해야 하는 웜 또는 콜드 버킷이 있는지 확인하는 빈도입니다. |
UpdateIndex 작업의 출력 파라미터
이 작업은 UpdateIndex 작업의 확인 메시지를 반환합니다.
UpdateIndex
작업을 구성하는 방법의 예시는 작업 예시를 참조하세요.
작업 예시
예시 - HTTP 이벤트 만들기
이 예시에서는 HTTP 이벤트를 만듭니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.CreateHTTPEvent
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
작업이 성공하면 CreateHTTPEvent
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "Success": "Success" }]
예시 - 색인 만들기
이 예시에서는 색인을 만듭니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.CreateIndex
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Name": "http_testing" }
작업이 성공하면 CreateIndex
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
예시 - 저장된 검색 만들기
이 예시에서는 저장된 검색결과를 만듭니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.CreateSavedSearch
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
작업이 성공하면 CreateSavedSearch
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "Success": true, "Message": null }]
예시 - 저장된 검색 업데이트
이 예시에서는 저장된 검색결과를 업데이트합니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.UpdateSavedSearch
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
작업이 성공하면 UpdateSavedSearch
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "Success": true, "Message": null }]
예시 - 색인 삭제
이 예시에서는 색인을 삭제합니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.DeleteIndex
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Name": "g_http_testing" }
작업이 성공하면 DeleteIndex
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
예시 - 색인 업데이트
이 예시에서는 색인을 업데이트합니다.
Configure connector task
대화상자에서Actions
를 클릭합니다.UpdateIndex
조치를 선택한 다음 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
작업이 성공하면 UpdateIndex
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
항목 작업 예시
이 섹션에서는 이 커넥터에서 일부 항목 작업을 수행하는 방법을 보여줍니다.
예시 - 모든 레코드 나열
이 예시에서는 SearchJobs
항목의 모든 레코드를 나열합니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.List
작업을 선택한 후 완료를 클릭합니다.- 원하는 경우 커넥터 태스크의 태스크 입력 섹션에서 필터 절을 지정하여 결과 집합을 필터링할 수 있습니다. 필터 절 값을 항상 작은따옴표(')로 묶어서 지정합니다.
예시 - 항목에서 레코드 가져오기
이 예시에서는 SearchJobs
항목에서 지정된 ID가 있는 레코드를 가져옵니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Get
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서 EntityId를 클릭한 후 기본값 필드에
1698309163.1300
을 입력합니다.여기서
1698309163.1300
은SearchJobs
항목의 고유 레코드 ID입니다.
예시 - 항목에 레코드 만들기
이 예시에서는 SearchJobs
항목에 레코드를 만듭니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
통합이 성공하면
SearchJobs
태스크의connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.{ "Sid": "1699336785.1919" }
예시 - 항목에 레코드 만들기
이 예시에서는 DataModels
항목에 레코드를 만듭니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서DataModels
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
통합이 완료되면 커넥터 태스크의
connectorOutputPayload
필드에 다음과 유사한 값이 포함됩니다.[{ "Id": "Test1" }]
예시 - 항목에서 레코드 삭제
이 예시에서는 DataModels
항목에서 지정된 ID가 있는 레코드를 삭제합니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서DataModels
를 선택합니다.Delete
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서 entityId를 클릭한 후 기본값 필드에
Test1
을 입력합니다.
예시 - 항목의 레코드 업데이트
이 예시에서는 DataModels
항목의 레코드를 업데이트합니다.
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서DataModels
를 선택합니다.Update
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서
connectorInputPayload
를 클릭한 후Default Value
필드에 다음과 유사한 값을 입력합니다.{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- entityId를 클릭한 후 기본값 필드에
/servicesNS/nobody/search/datamodel/model/Testing
을 입력합니다.통합이 완료되면 커넥터 태스크의
connectorOutputPayload
필드에 다음과 유사한 값이 포함됩니다.[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
예시 - 색인을 사용한 검색 흐름
이 섹션에는 단일 색인과 여러 색인을 사용하는 모든 검색 흐름이 나열되어 있습니다.
단일 색인을 사용하여 검색 만들기
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
통합이 성공하면
SearchJobs
태스크의connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.{ "Sid": "1726051471.76" }
검색어에 사용된 색인 이름을 사용하여 목록 작업
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서Index Name
를 선택합니다.List
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서 filterClause(예: Sid= '1726051471.76')를 설정할 수 있습니다.
통합이 성공하면 Index Name
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
여러 색인을 사용하여 검색 만들기
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
통합이 성공하면
SearchJobs
태스크의connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.{ "Sid": "1727261971.4007" }
검색어에 사용된 색인 이름을 사용하여 목록 작업
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서Index Name
이름을 선택합니다.List
작업을 선택한 후 완료를 클릭합니다.- 커넥터 태스크의 태스크 입력 섹션에서 filterClause(예: Sid= '1727261971.4007')를 설정할 수 있습니다.
통합이 성공하면 Index
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
예 - ReadJobResults를 사용한 검색 흐름
이 섹션에는 Splunk 연결에서 지원하는 단일 색인과 여러 색인을 모두 사용하는 모든 검색 흐름이 나와 있습니다. 현재 지원되는 로그 결과의 최대 페이로드 크기는 150MB입니다.
단일 색인을 사용하여 검색 만들기
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
이 예에서는 검색을 만듭니다. 통합이 성공하면
SearchJobs
태스크의connectorOutputPayload
응답 매개변수 값은 다음과 유사합니다.{ "Sid": "1732775755.24612" }
검색 결과를 가져오려면 ReadJobResults 작업에서 만들기 작업을 실행합니다. Sid를 기반으로 결과를 필터링하려면 Sid를 작업에 매개변수로 전달합니다.
ReadJobResults 작업을 사용하여 결과 로그 가져오기
Configure connector task
대화상자에서Actions
를 클릭합니다.ReadJobResults
조치를 선택한 다음 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "Sid": "1732775755.24612" }
작업이 성공하면
ReadJobResults
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
여러 색인을 사용하여 검색 만들기
Configure connector task
대화상자에서Entities
를 클릭합니다.Entity
목록에서SearchJobs
를 선택합니다.Create
작업을 선택한 후 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
통합이 성공하면
SearchJobs
태스크의connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.{ "Sid": "1732776556.24634" }
검색 결과를 가져오려면 ReadJobResults 작업에서 만들기 작업을 실행합니다. Sid를 기반으로 결과를 필터링하려면 Sid를 작업에 매개변수로 전달합니다.
ReadJobResults 작업을 사용하는 ResultsLogs
Configure connector task
대화상자에서Actions
를 클릭합니다.ReadJobResults
조치를 선택한 다음 완료를 클릭합니다.- 데이터 매핑 태스크의 데이터 매퍼 섹션에서
Open Data Mapping Editor
를 클릭한 후Input Value
필드에 다음과 유사한 값을 입력하고 EntityId/ConnectorInputPayload를 로컬 변수로 선택합니다.{ "Sid": "1732776556.24634" }
- Apigee Integration에서 커넥터 태스크를 만들고 사용하는 방법을 알아보려면 커넥터 태스크를 참조하세요.
- Application Integration에서 커넥터 태스크를 만들고 사용하는 방법을 이해하려면 커넥터 태스크를 참조하세요.
- 연결 일시중지 및 재개 방법 알아보기
- 커넥터 사용량 모니터링 방법 알아보기
- 커넥터 로그 확인 방법 알아보기
작업이 성공하면 ReadJobResults
태스크의 connectorOutputPayload
응답 매개변수가 다음과 비슷한 값을 갖습니다.
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
terraform을 사용하여 연결 만들기
Terraform 리소스를 사용하여 새 연결을 만들 수 있습니다.Terraform 구성을 적용하거나 삭제하는 방법은 기본 Terraform 명령어를 참조하세요.
연결 만들기를 위한 샘플 Terraform 템플릿을 보려면 샘플 템플릿을 참조하세요.
Terraform을 사용하여 이 연결을 만들 때는 Terraform 구성 파일에서 다음 변수를 설정해야 합니다.
파라미터 이름 | 데이터 유형 | 필수 | 설명 |
---|---|---|---|
세부정보 수준 | STRING | False | 연결의 세부정보 수준은 1에서 5까지입니다. 세부정보 수준이 높을수록 모든 통신 세부정보(요청, 응답, SSL 인증서)가 로깅됩니다. |
proxy_enabled | 불리언 | False | 이 체크박스를 선택하여 연결의 프록시 서버를 구성합니다. |
proxy_auth_scheme | ENUM | False | ProxyServer 프록시에 인증하는 데 사용할 인증 유형입니다. 지원되는 값은 BASIC, DIGEST, NONE입니다. |
proxy_user | STRING | False | ProxyServer 프록시에 인증하는 데 사용할 사용자 이름입니다. |
proxy_password | SECRET | False | ProxyServer 프록시에 인증하는 데 사용할 비밀번호입니다. |
proxy_ssltype | ENUM | False | ProxyServer 프록시에 연결할 때 사용할 SSL 유형입니다. 지원되는 값은 AUTO, ALWAYS, NEVER, TUNNEL입니다. |
통합에서 Splunk 연결 사용
연결을 만들면 Apigee Integration 및 Application Integration에서 사용할 수 있게 됩니다. 커넥터 태스크를 통해 통합에서 연결을 사용할 수 있습니다.