Splunk
Splunk 連接器可讓您對 Splunk 資料庫執行插入、刪除、更新和讀取作業。
事前準備
使用 Splunk 連接器前,請先完成下列工作:
- 在 Google Cloud 專案中:
- 確認已設定網路連線。如要瞭解網路模式,請參閱「網路連線」。
- 將 roles/connectors.admin IAM 角色授予設定連線器的使用者。
- 將下列 IAM 角色授予要用於連接器的服務帳戶:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
服務帳戶是特殊的 Google 帳戶類型,主要用於代表需要驗證且必須取得授權才能存取 Google API 資料的非人類使用者。如果您沒有服務帳戶,請建立服務帳戶。詳情請參閱「建立服務帳戶」。
- 啟用下列服務:
secretmanager.googleapis.com
(Secret Manager API)connectors.googleapis.com
(Connectors API)
如要瞭解如何啟用服務,請參閱「啟用服務」。
如果專案先前未啟用這些服務或權限,系統會在設定連結器時提示您啟用。
設定連接器
連線專屬於資料來源。也就是說,如果您有多個資料來源,則必須為每個資料來源建立個別的連線。如要建立連線,請按照下列步驟操作:
- 在 Cloud 控制台中,前往「Integration Connectors」>「Connections」頁面,然後選取或建立 Google Cloud 專案。
- 按一下「+ 建立新連線」,開啟「建立連線」頁面。
- 在「位置」部分中,選擇連線位置。
- 區域:從下拉式清單中選取位置。
如需所有支援的地區清單,請參閱「位置」一文。
- 點按「下一步」。
- 區域:從下拉式清單中選取位置。
- 在「連線詳細資料」部分,完成下列步驟:
- 連接器:從可用連接器的下拉式清單中選取「Splunk」。
- 連接器版本:從可用版本的下拉式清單中選取連接器版本。
- 在「連線名稱」欄位中,輸入連線執行個體的名稱。
連線名稱必須符合下列條件:
- 連線名稱可使用英文字母、數字或連字號。
- 字母必須為小寫。
- 連線名稱開頭須為英文字母,結尾則須為英文字母或數字。
- 連結名稱不得超過 49 個字元。
- 視需要輸入連線執行個體的「Description」(說明)。
- 或者,可啟用 Cloud Logging,然後選取記錄層級。記錄層級預設為
Error
。 - 服務帳戶:選取具備必要角色的服務帳戶。
- 視需要設定「連線節點設定」:
- 節點數量下限:輸入連線節點數量下限。
- 節點數量上限:輸入連線節點數量上限。
節點是用來處理交易的連線單位 (或備用資源)。連線處理的交易量越多,就需要越多節點;反之,處理的交易量越少,需要的節點就越少。如要瞭解節點對連接器定價的影響,請參閱「 連線節點定價」。如未輸入任何值,系統預設會將節點下限設為 2 (提高可用性),節點上限則設為 50。
- 選用:按一下「+ 新增標籤」,以鍵/值組合的形式為連線新增標籤。
- 點按「下一步」。
- 在「目的地」部分,輸入要連線的遠端主機 (後端系統) 詳細資料。
- 目的地類型:選取目的地類型。
- 如要指定目的地主機名稱或 IP 位址,請選取「主機地址」,然後在「主機 1」欄位中輸入地址。
- 如要建立私人連線,請選取「Endpoint attachment」(端點連結),然後從「Endpoint Attachment」(端點連結) 清單中選擇所需連結。
如要建立與後端系統的公開連線,並加強安全性,建議為連線設定靜態輸出 IP 位址,然後設定防火牆規則,只允許特定靜態 IP 位址。
如要輸入其他目的地,請按一下「+新增目的地」。
- 點按「下一步」。
- 目的地類型:選取目的地類型。
-
在「Authentication」(驗證) 部分中,輸入驗證詳細資料。
- 選取「驗證類型」並輸入相關詳細資料。
Splunk 連線支援下列驗證類型:
- 使用者名稱和密碼 (基本驗證)
- AccessToken
- HTTPEventCollectorToken
- 點按「下一步」。
如要瞭解如何設定這些驗證類型,請參閱「設定驗證」。
- 選取「驗證類型」並輸入相關詳細資料。
- 檢查:檢查連線和驗證詳細資料。
- 點選「建立」。
設定驗證機制
根據要使用的驗證方式輸入詳細資料。
-
使用者名稱和密碼
- 使用者名稱:用於連線的 Splunk 使用者名稱。
- 密碼:Secret Manager 密鑰,內含與 Splunk 使用者名稱相關聯的密碼。
-
AccessToken - 設定此屬性,即可使用
AccessToken
屬性執行權杖型驗證。 -
HTTPEventCollectorToken - 設定此屬性,使用
HTTPEventCollectorToken
屬性執行以權杖為基礎的驗證。
連線設定範例
本節列出建立 Splunk 連線時設定各個欄位的範例值。
HTTP 事件收集器連線類型
欄位名稱 | 詳細資料 |
---|---|
位置 | us-central1 |
連接器 | Splunk |
連接器版本 | 1 |
連線名稱 | splunk-http-event-coll-conn |
啟用 Cloud Logging | 否 |
服務帳戶 | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
節點數量下限 | 2 |
節點數量上限 | 50 |
啟用 SSL | 是 |
信任存放區不安全連線 | 是 |
目的地類型(伺服器) | 主機位址 |
主機位址 | 192.0.2.0 |
通訊埠 | PORT |
以 HTTP 事件收集器權杖為基礎的驗證 | 是 |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
密鑰版本 | 1 |
如要瞭解如何建立 HTTP 事件收集器權杖,請參閱「建立 HTTP 事件收集器」一文。
SSL 連線類型
欄位名稱 | 詳細資料 |
---|---|
位置 | us-central1 |
連接器 | Splunk |
連接器版本 | 1 |
連線名稱 | splunk-ssl-connection |
啟用 Cloud Logging | 是 |
服務帳戶 | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
詳細程度 | 5 |
節點數量下限 | 2 |
節點數量上限 | 50 |
啟用 SSL | 是 |
不安全連線 | 是 |
目的地類型(伺服器) | 主機位址 |
主機位址 | https://192.0.2.0 |
通訊埠 | PORT |
使用者密碼 | 是 |
使用者名稱 | 使用者 |
密碼 | 密碼 |
密鑰版本 | 1 |
如要使用基本驗證,您必須具備使用者角色或進階使用者角色。如要瞭解如何設定超級使用者,請參閱「設定超級使用者角色」。如要瞭解如何在 Splunk 中定義角色,請參閱「在 Splunk 平台上定義角色」。
實體、作業和動作
所有整合連接器都會為所連應用程式的物件提供抽象層。您只能透過這個抽象化程序存取應用程式的物件。抽象化會以實體、作業和動作的形式呈現。
- 實體: 實體可以視為已連結應用程式或服務中的物件,或是屬性集合。實體的定義因連接器而異。舉例來說,在資料庫連接器中,資料表是實體;在檔案伺服器連接器中,資料夾是實體;在訊息系統連接器中,佇列是實體。
不過,連接器可能不支援或沒有任何實體,在這種情況下,
Entities
清單會是空白。 - 作業: 作業是指您可以在實體上執行的活動。您可以對實體執行下列任一操作:
從可用清單中選取實體,系統會產生該實體可用的作業清單。如需作業的詳細說明,請參閱 Connectors 工作的實體作業。 不過,如果連接器不支援任何實體作業,系統就不會在
Operations
清單中列出這些不支援的作業。 - 動作: 動作是透過連接器介面提供給整合的第一類函式。動作可讓您變更一或多個實體,且因連接器而異。一般來說,動作會有一些輸入參數和輸出參數。不過,連接器可能不支援任何動作,此時
Actions
清單會是空白。
系統限制
Splunk 連接器每秒可處理 5 筆交易,每個節點也是如此,超出此限制的交易都會遭到節流。不過,這個連接器可處理的交易數量也取決於 Splunk 執行個體施加的限制。根據預設,Integration Connectors 會為連線分配 2 個節點 (以提高可用性)。
如要瞭解 Integration Connectors 適用的限制,請參閱「限制」一文。
動作
本節列出連接器支援的操作。如要瞭解如何設定動作,請參閱動作範例。
CreateHTTPEvent 動作
這項動作可讓您透過 HTTP 和 HTTPS 通訊協定,將資料和應用程式事件傳送至 Splunk 部署作業。
CreateHTTPEvent 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
EventContent | 字串 | 是 | 資料表或檢視表的名稱。 |
ContentType | 字串 | 否 | 為 EventContent 輸入內容指定的內容類型。支援的值為 JSON 和 RAWTEXT 。 |
ChannelGUID | 整數 | 否 | 活動所用頻道的 GUID。如果 ContentType 為 RAWTEXT ,則必須指定此值。 |
CreateHTTPEvent 動作的輸出參數
這項動作會傳回所建立事件的成功狀態。
CreateIndex 動作
這項動作可讓您建立索引。
CreateIndex 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
MaxMetaEntries | 字串 | 否 | 設定 bucket 中 .data 檔案的不重複行數上限,有助於減少記憶體用量。 |
FrozenTimePeriodInSecs | 字串 | 否 | 索引資料在幾秒後會移至凍結狀態。預設值為 188697600 (6 年)。 |
HomePath | 字串 | 否 | 包含索引的熱儲存區和暖儲存區的絕對路徑。 |
MinRawFileSyncSecs | 字串 | 否 | 為這個參數指定整數 (或 disable )。這個參數會設定 splunkd 強制執行檔案系統同步的頻率,同時壓縮日誌切片。 |
ProcessTrackerServiceInterval | 字串 | 否 | 指定索引器檢查所啟動子項 OS 程序狀態的頻率 (以秒為單位),判斷是否可為佇列中的要求啟動新程序。如果設為 0,索引器會每秒檢查子項程序狀態。 |
ServiceMetaPeriod | 字串 | 否 | 定義中繼資料同步至磁碟的頻率 (以秒為單位)。 |
MaxHotSpanSecs | 字串 | 否 | 熱或溫暖儲存空間目標最大時間範圍的上限 (以秒為單位)。 |
QuarantinePastSecs | 字串 | 否 | 如果事件的時間戳記 quarantinePastSecs 早於 >now ,就會放入隔離區儲存空間。 |
ColdToFrozenDir | 字串 | 否 | 凍結封存檔的目的地路徑。可做為 ColdToFrozenScript 的替代方案。 |
ColdPath | 字串 | 否 | 包含索引 colddb 的絕對路徑。路徑必須可讀取及寫入。 |
MaxHotIdleSecs | 字串 | 否 | 熱儲存區的生命週期上限 (以秒為單位) |
WarmToColdScript | 字串 | 否 | 將資料從溫層移至冷層時要執行的指令碼路徑。 |
ColdToFrozenScript | 字串 | 否 | 封存指令碼的路徑。 |
MaxHotBuckets | 字串 | 否 | 每個索引可擁有的熱儲存區數量上限。 |
TstatsHomePath | 字串 | 否 | 儲存這個索引的資料模型加速 TSIDX 資料的位置。 如果指定,則必須以磁碟區定義的形式定義。路徑必須可寫入 |
RepFactor | 字串 | 否 | 控制索引複製作業。這個參數僅適用於叢集中的對等節點。
|
MaxDataSize | 字串 | 否 | 觸發暖資料庫轉移前,熱資料庫可達到的最大大小 (以 MB 為單位)。
指定 auto 或 auto_high_volume 會導致 Splunk 自動調整此參數 (建議)。 |
MaxBloomBackfillBucketAge | 字串 | 否 | 有效值為:integer[m|s|h|d] (如果暖或冷儲存區的年齡超過指定年齡,請勿建立或重建其 Bloom 篩選器)。指定 0 代表一律不重建 Bloom 篩選器。 |
BlockSignSize | 字串 | 否 | 控制區塊簽章的區塊包含多少事件。如果設為 0,這個索引會停用區塊簽署功能。建議值為 100。 |
名稱 | 字串 | 是 | 要建立的索引名稱 |
MaxTotalDataSizeMB | 字串 | 否 | 索引大小上限 (MB)。如果索引超過大小上限,系統會凍結最舊的資料。 |
MaxWarmDBCount | 字串 | 否 | 暖儲存空間的數量上限。如果超過這個數字,系統會將最新時間值最低的暖儲存空間移至冷儲存空間。 |
RawChunkSizeBytes | 字串 | 否 | 索引原始資料記錄檔中個別原始切片的目標未壓縮大小 (以位元組為單位)。0 不是有效值。如果指定 0,rawChunkSizeBytes 會設為預設值。 |
DataType | 字串 | 否 | 指定索引類型 |
MaxConcurrentOptimizes | 字串 | 否 | 可針對熱門值區執行的並行最佳化程序數量。 |
ThrottleCheckPeriod | 字串 | 否 | 定義 Splunk 檢查索引節流條件的頻率 (以秒為單位)。 |
SyncMeta | 字串 | 否 | 如果為 true,系統會在更新中繼資料檔案時,先呼叫同步作業,再關閉檔案描述元。這項功能可提升中繼資料檔案的完整性,尤其是在作業系統當機或機器故障時。 |
RotatePeriodInSecs | 字串 | 否 | 檢查是否需要建立新熱門 bucket 的頻率 (以秒為單位)。此外,也請檢查是否有應推出/凍結的暖/冷水桶。 |
CreateIndex 動作的輸出參數
這項操作會傳回 CreateIndex 動作的確認訊息。
如要瞭解如何設定 CreateIndex
動作,請參閱「動作範例」。
CreateSavedSearch 動作
這項操作可讓你儲存搜尋記錄
CreateSavedSearch 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
IsVisible | 布林值 | 是 | 指出這個已儲存的搜尋是否顯示在可見的已儲存搜尋清單中。 |
RealTimeSchedule | 布林值 | 是 | 如果這個值設為 1,排程器會根據目前時間,決定下一次排定搜尋的執行時間。如果這個值設為 0,系統會根據上次執行搜尋的時間決定。 |
搜尋 | 字串 | 是 | 要儲存的搜尋查詢 |
說明 | 字串 | 否 | 已儲存搜尋的說明 |
SchedulePriority | 字串 | 是 | 指出特定搜尋的排程優先順序 |
CronSchedule | 字串 | 是 | 執行這項搜尋的 cron 排程。舉例來說,*/5 * * * * 會導致搜尋每 5 分鐘執行一次。 |
名稱 | 字串 | 是 | 搜尋名稱 |
UserContext | 字串 | 是 | 如果提供使用者情境,系統會使用 servicesNS 節點 (/servicesNS/[UserContext]/search),否則會預設為一般端點 /services 。 |
RunOnStartup | 布林值 | 是 | 指出這項搜尋是否在啟動時執行。如果未在啟動時執行,搜尋作業會在下一個排定時間執行。 |
已停用 | 布林值 | 否 | 指出這項已儲存的搜尋是否已停用。 |
IsScheduled | 布林值 | 是 | 指出這項搜尋是否要依時間表執行。 |
CreateSavedSearch 動作的輸出參數
這項動作會傳回 CreateSavedSearch 動作的確認訊息。
如要瞭解如何設定 CreateSavedSearch
動作,請參閱「動作範例」。
UpdateSavedSearch 動作
這項動作可讓你更新已儲存的搜尋。
UpdateSavedSearch 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
IsVisible | 布林值 | 是 | 指出這個已儲存的搜尋是否顯示在可見的已儲存搜尋清單中。 |
RealTimeSchedule | 布林值 | 是 | 如果這個值設為 1,排程器會根據目前時間,判斷下一次排定的搜尋執行時間。如果這個值設為 0,系統會根據上次執行搜尋的時間決定。 |
搜尋 | 字串 | 是 | 要儲存的搜尋查詢 |
說明 | 字串 | 否 | 已儲存搜尋的說明 |
SchedulePriority | 字串 | 是 | 指出特定搜尋的排程優先順序 |
CronSchedule | 字串 | 是 | 執行這項搜尋的 cron 排程。舉例來說,*/5 * * * * 會導致搜尋每 5 分鐘執行一次。 |
名稱 | 字串 | 是 | 搜尋名稱 |
UserContext | 字串 | 是 | 如果提供使用者情境,系統會使用 servicesNS 節點 (/servicesNS/[UserContext]/search),否則會預設為一般端點 /services 。 |
RunOnStartup | 布林值 | 是 | 指出這項搜尋是否在啟動時執行。如果未在啟動時執行,搜尋作業會在下一個排定時間執行。 |
已停用 | 布林值 | 否 | 指出這項已儲存的搜尋是否已停用。 |
IsScheduled | 布林值 | 是 | 指出這項搜尋是否要依時間表執行。 |
UpdateSavedSearch 動作的輸出參數
這項動作會傳回 UpdateSavedSearch 動作的確認訊息。
如要瞭解如何設定 UpdateSavedSearch
動作,請參閱「動作範例」。
DeleteIndex 動作
這項操作可刪除索引。
DeleteIndex 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
名稱 | 字串 | 是 | 要刪除的索引名稱。 |
DeleteIndex 動作的輸出參數
這項動作會傳回 DeleteIndex 動作的確認訊息
如要瞭解如何設定 DeleteIndex
動作,請參閱「動作範例」。
UpdateIndex 動作
這項動作可讓您更新索引。
UpdateIndex 動作的輸入參數
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
MaxMetaEntries | 字串 | 否 | 設定 bucket 中 .data 檔案的不重複行數上限,有助於減少記憶體用量。 |
FrozenTimePeriodInSecs | 字串 | 否 | 索引資料在幾秒後會移至凍結狀態。預設值為 188697600 (6 年)。 |
HomePath | 字串 | 否 | 包含索引的熱儲存區和暖儲存區的絕對路徑。 |
MinRawFileSyncSecs | 字串 | 否 | 為這個參數指定整數 (或 disable )。這個參數會設定 splunkd 強制執行檔案系統同步的頻率,同時壓縮日誌切片。 |
ProcessTrackerServiceInterval | 字串 | 否 | 指定索引器檢查所啟動子項 OS 程序狀態的頻率 (以秒為單位),判斷是否可為已加入佇列的請求啟動新程序。如果設為 0,索引器會每秒檢查子項程序狀態。 |
ServiceMetaPeriod | 字串 | 否 | 定義中繼資料同步至磁碟的頻率 (以秒為單位)。 |
MaxHotSpanSecs | 字串 | 否 | 熱或溫暖儲存空間目標最大時間範圍的上限 (以秒為單位)。 |
QuarantinePastSecs | 字串 | 否 | 如果事件的時間戳記 quarantinePastSecs 早於 now ,就會放入隔離區儲存空間。 |
ColdToFrozenDir | 字串 | 否 | 凍結封存檔的目的地路徑。可做為 ColdToFrozenScript 的替代方案。 |
ColdPath | 字串 | 否 | 包含索引 colddb 的絕對路徑。路徑必須可讀取及寫入。 |
MaxHotIdleSecs | 字串 | 否 | 熱門值區的生命週期上限 (以秒為單位)。 |
WarmToColdScript | 字串 | 否 | 將資料從溫層移至冷層時要執行的指令碼路徑。 |
ColdToFrozenScript | 字串 | 否 | 封存指令碼的路徑。 |
MaxHotBuckets | 字串 | 否 | 每個索引可擁有的熱儲存區數量上限。 |
TstatsHomePath | 字串 | 否 | 儲存這個索引的資料模型加速 TSIDX 資料的位置。如果指定了這個值,就必須以磁碟區定義的形式定義。路徑必須可寫入 |
RepFactor | 字串 | 否 | 控制索引複製作業。這個參數僅適用於叢集中的對等節點。
|
MaxDataSize | 字串 | 否 | 觸發暖資料庫轉移前,熱資料庫可達到的最大大小 (以 MB 為單位)。
指定 auto 或 auto_high_volume 會導致 Splunk 自動調整此參數 (建議)。 |
MaxBloomBackfillBucketAge | 字串 | 否 | 有效值為:integer[m|s|h|d] (如果暖或冷水桶的年齡超過指定年齡,請勿建立或重建其 Bloom 篩選器)。指定 0 代表一律不重建 Bloom 篩選器。 |
BlockSignSize | 字串 | 否 | 控制區塊簽章的區塊包含多少事件。如果設為 0,這個索引會停用簽署封鎖功能。建議值為 100。 |
名稱 | 字串 | 是 | 要建立的索引名稱 |
MaxTotalDataSizeMB | 字串 | 是 | 索引大小上限 (MB)。如果索引超過大小上限,系統會凍結最舊的資料。 |
MaxWarmDBCount | 字串 | 否 | 暖儲存空間的數量上限。如果超過這個數字,系統會將最新時間值最低的暖儲存空間移至冷儲存空間。 |
RawChunkSizeBytes | 字串 | 否 | 索引原始資料記錄檔中個別原始切片的目標未壓縮大小 (以位元組為單位)。 0 不是有效值。如果指定 0,rawChunkSizeBytes 會設為預設值。 |
DataType | 字串 | 否 | 指定索引類型 |
MaxConcurrentOptimizes | 字串 | 否 | 可針對熱門值區執行的並行最佳化程序數量。 |
ThrottleCheckPeriod | 字串 | 否 | 定義 Splunk 檢查索引節流條件的頻率 (以秒為單位)。 |
SyncMeta | 字串 | 否 | 如果為 true,系統會在更新中繼資料檔案時,先呼叫同步作業,再關閉檔案描述元。這項功能可提升中繼資料檔案的完整性,尤其是在作業系統當機或機器故障時。 |
RotatePeriodInSecs | 字串 | 否 | 檢查是否需要建立新熱門 bucket 的頻率 (以秒為單位)。此外,也請說明檢查頻率,判斷是否有任何應捲動或凍結的熱或冷儲存空間。 |
UpdateIndex 動作的輸出參數
這項操作會傳回 UpdateIndex 動作的確認訊息。
如要瞭解如何設定 UpdateIndex
動作,請參閱「動作範例」。
動作範例
範例 - 建立 HTTP 事件
這個範例會建立 HTTP 事件。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
CreateHTTPEvent
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
如果動作成功,CreateHTTPEvent
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "Success": "Success" }]
範例 - 建立索引
這個範例會建立索引。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
CreateIndex
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Name": "http_testing" }
如果動作成功,CreateIndex
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
範例 - 建立已儲存的搜尋查詢
這個範例會建立已儲存的搜尋。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
CreateSavedSearch
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
如果動作成功,CreateSavedSearch
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "Success": true, "Message": null }]
範例 - 更新已儲存的搜尋
這個範例會更新已儲存的搜尋。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
UpdateSavedSearch
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
如果動作成功,UpdateSavedSearch
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "Success": true, "Message": null }]
範例 - 刪除索引
這個範例會刪除索引。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
DeleteIndex
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Name": "g_http_testing" }
如果動作成功,DeleteIndex
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
範例 - 更新索引
這個範例會更新索引。
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
UpdateIndex
動作,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
如果動作成功,UpdateIndex
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
實體作業範例
本節說明如何使用這個連接器執行部分實體作業。
範例 - 列出所有記錄
這個範例會列出 SearchJobs
實體中的所有記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
List
」作業,然後按一下「完成」。 - (選用) 在「連結器」工作的「工作輸入」部分,您可以指定篩選子句,篩選結果集。 請一律在單引號 (') 內指定篩選子句值。
範例 - 從實體取得記錄
這個範例會從 SearchJobs
實體取得具有指定 ID 的記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Get
」作業,然後按一下「完成」。 - 在「連線器」工作的「工作輸入」部分,按一下「EntityId」,然後在「預設值」欄位中輸入
1698309163.1300
。其中
1698309163.1300
是SearchJobs
實體中的專屬記錄 ID。
範例 - 在實體中建立記錄
這個範例會在 SearchJobs
實體中建立記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
如果整合成功,
SearchJobs
工作的connectorOutputPayload
回應參數值會類似以下內容:{ "Sid": "1699336785.1919" }
範例 - 在實體中建立記錄
這個範例會在 DataModels
實體中建立記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取DataModels
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
如果整合成功,連接器工作的
connectorOutputPayload
欄位會包含類似下列內容的值:[{ "Id": "Test1" }]
範例 - 從實體刪除記錄
這個範例會刪除 DataModels
實體中具有指定 ID 的記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取DataModels
。 - 選取「
Delete
」作業,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下「entityId」,然後在「Default Value」(預設值) 欄位中輸入
Test1
。
範例 - 更新實體中的記錄
這個範例會更新 DataModels
實體中的記錄。
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取DataModels
。 - 選取「
Update
」作業,然後按一下「完成」。 - 在「Connectors」(連結器) 任務的「Task Input」(任務輸入內容) 區段中,按一下
connectorInputPayload
,然後在Default Value
欄位中輸入類似下列的值:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- 按一下「entityId」,然後在「Default Value」欄位中輸入
/servicesNS/nobody/search/datamodel/model/Testing
。如果整合成功,連接器工作的
connectorOutputPayload
欄位會包含類似下列內容的值:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
範例 - 使用索引的搜尋流程
本節列出使用單一索引和多個索引的所有搜尋流程。
使用單一索引建立搜尋
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
如果整合成功,
SearchJobs
工作的connectorOutputPayload
回應參數值會類似以下內容:{ "Sid": "1726051471.76" }
使用搜尋查詢中使用的索引名稱列出作業
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取Index Name
。 - 選取「
List
」作業,然後按一下「完成」。 - 在「連線器」工作的「工作輸入」部分,您可以設定 filterClause,例如 Sid= '1726051471.76'。
如果整合成功,Index Name
工作的 connectorOutputPayload
回應參數值會類似以下內容:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
使用多個索引建立搜尋
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
如果整合成功,
SearchJobs
工作的connectorOutputPayload
回應參數值會類似以下內容:{ "Sid": "1727261971.4007" }
使用搜尋查詢中使用的索引名稱列出作業
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取「名稱」Index Name
。 - 選取「
List
」作業,然後按一下「完成」。 - 在「連線器」工作的「工作輸入」部分,您可以設定 filterClause,例如 Sid= '1727261971.4007'。
如果整合成功,Index
工作的 connectorOutputPayload
回應參數值會類似以下內容:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
範例 - 使用 ReadJobResults 的搜尋流程
本節列出所有搜尋流程,這些流程會使用 Splunk 連線支援的單一索引和多個索引。目前支援的記錄結果酬載大小上限為 150 MB。
建立單一索引的搜尋
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
這個範例會建立搜尋作業。如果整合成功,
SearchJobs
工作connectorOutputPayload
回應參數的值會類似以下內容:{ "Sid": "1732775755.24612" }
如要取得搜尋結果,請對 ReadJobResults 動作執行建立作業。如要確保系統根據 Sid 篩選結果,請將 Sid 做為參數傳遞至動作。
使用 ReadJobResults 動作取得結果記錄
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
ReadJobResults
動作,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "Sid": "1732775755.24612" }
如果動作成功,
ReadJobResults
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
建立包含多個索引的搜尋
- 在「
Configure connector task
」對話方塊中,按一下Entities
。 - 從
Entity
清單中選取SearchJobs
。 - 選取「
Create
」作業,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
如果整合成功,
SearchJobs
工作的connectorOutputPayload
回應參數值會類似以下內容:{ "Sid": "1732776556.24634" }
如要取得搜尋結果,請對 ReadJobResults 動作執行建立作業。如要確保系統根據 Sid 篩選結果,請將 Sid 做為參數傳遞至動作。
使用 ReadJobResults 動作的 ResultsLogs
- 在「
Configure connector task
」對話方塊中,按一下Actions
。 - 選取
ReadJobResults
動作,然後按一下「完成」。 - 在「資料對應」工作的「資料對應器」部分,按一下
Open Data Mapping Editor
,然後在Input Value
欄位中輸入類似下列的值,並選擇 EntityId/ConnectorInputPayload 做為本機變數。{ "Sid": "1732776556.24634" }
- 如要瞭解如何在 Apigee Integration 中建立及使用「連線器」工作,請參閱「連線器工作」。
- 如要瞭解如何在 Application Integration 中建立及使用「連線器」工作,請參閱「連線器工作」。
如果動作成功,ReadJobResults
工作項目的 connectorOutputPayload
回應參數會包含類似下列內容的值:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
使用 Terraform 建立連線
您可以使用 Terraform 資源建立新連線。
如要瞭解如何套用或移除 Terraform 設定,請參閱「基本 Terraform 指令」。
如要查看用於建立連線的 Terraform 範本範例,請參閱範本範例。
使用 Terraform 建立這項連線時,您必須在 Terraform 設定檔中設定下列變數:
參數名稱 | 資料類型 | 必填 | 說明 |
---|---|---|---|
詳細程度 | STRING | 否 | 連線的詳細程度,範圍為 1 到 5。詳細程度越高,記錄的通訊詳細資料就越多 (要求、回應和 SSL 憑證)。 |
proxy_enabled | BOOLEAN | 否 | 選取這個核取方塊,即可為連線設定 Proxy 伺服器。 |
proxy_auth_scheme | ENUM | 否 | 用於向 ProxyServer Proxy 驗證的驗證類型。支援的值包括:BASIC、DIGEST、NONE |
proxy_user | STRING | 否 | 用於向 ProxyServer Proxy 驗證的使用者名稱。 |
proxy_password | SECRET | 否 | 用於向 ProxyServer 代理程式驗證的密碼。 |
proxy_ssltype | ENUM | 否 | 連線至 ProxyServer Proxy 時要使用的 SSL 類型,支援的值包括:AUTO、ALWAYS、NEVER、TUNNEL |
在整合中使用的 Splunk 連線
建立連線後,Apigee Integration 和 Application Integration 都會提供該連線。您可以在整合中透過「連接器」工作使用連線。