Splunk
Konektor Splunk memungkinkan Anda melakukan operasi penyisipan, penghapusan, pembaruan, dan pembacaan pada database Splunk.
Sebelum memulai
Sebelum menggunakan konektor Splunk, lakukan tugas berikut:
- Di project Google Cloud Anda:
- Pastikan konektivitas jaringan telah disiapkan. Untuk mengetahui informasi tentang pola jaringan, lihat Konektivitas jaringan.
- Berikan peran IAM roles/connectors.admin kepada pengguna yang mengonfigurasi konektor.
- Berikan peran IAM berikut ke akun layanan yang ingin Anda gunakan untuk konektor:
roles/secretmanager.viewer
roles/secretmanager.secretAccessor
Akun layanan adalah jenis Akun Google khusus yang dimaksudkan untuk mewakili pengguna non-manusia yang perlu diautentikasi dan diberi otorisasi untuk mengakses data di Google API. Jika Anda tidak memiliki akun layanan, Anda harus membuat akun layanan. Untuk mengetahui informasi selengkapnya, lihat Membuat akun layanan.
- Aktifkan layanan berikut:
secretmanager.googleapis.com
(Secret Manager API)connectors.googleapis.com
(Connectors API)
Untuk memahami cara mengaktifkan layanan, lihat Mengaktifkan layanan.
Jika layanan atau izin ini belum diaktifkan untuk project Anda sebelumnya, Anda akan diminta untuk mengaktifkannya saat mengonfigurasi konektor.
Mengonfigurasi konektor
Koneksi khusus untuk sumber data. Artinya, jika Anda memiliki banyak sumber data, Anda harus membuat koneksi terpisah untuk setiap sumber data. Untuk membuat koneksi, lakukan hal berikut:
- Di Konsol Cloud, buka halaman Integration Connectors > Connections lalu pilih atau buat project Google Cloud.
- Klik + BUAT BARU untuk membuka halaman Buat Koneksi.
- Di bagian Location, pilih lokasi untuk koneksi.
- Wilayah: Pilih lokasi dari menu drop-down.
Untuk mengetahui daftar semua region yang didukung, lihat Lokasi.
- Klik NEXT.
- Wilayah: Pilih lokasi dari menu drop-down.
- Di bagian Detail Koneksi, selesaikan langkah-langkah berikut:
- Konektor: Pilih Splunk dari daftar drop-down Konektor yang tersedia.
- Versi konektor: Pilih versi Konektor dari daftar drop-down versi yang tersedia.
- Di kolom Connection Name, masukkan nama untuk instance Koneksi.
Nama koneksi harus memenuhi kriteria berikut:
- Nama koneksi dapat menggunakan huruf, angka, atau tanda hubung.
- Huruf harus berupa huruf kecil.
- Nama koneksi harus diawali dengan huruf dan diakhiri dengan huruf atau angka.
- Nama koneksi tidak boleh melebihi 49 karakter.
- Secara opsional, masukkan Deskripsi untuk instance koneksi.
- Secara opsional, aktifkan Cloud Logging,
lalu pilih level log. Secara default, level log ditetapkan ke
Error
. - Akun Layanan: Pilih akun layanan yang memiliki peran yang diperlukan.
- Jika perlu, konfigurasikan Setelan node koneksi:
- Jumlah minimum node: Masukkan jumlah minimum node koneksi.
- Jumlah node maksimum: Masukkan jumlah maksimum node koneksi.
Node adalah unit (atau replika) koneksi yang memproses transaksi. Jumlah node yang diperlukan untuk memproses lebih banyak transaksi untuk suatu koneksi akan bertambah dan sebaliknya, jumlah node yang diperlukan untuk memproses lebih sedikit transaksi akan berkurang. Untuk memahami pengaruh node terhadap harga konektor, lihat Harga untuk node koneksi. Jika Anda tidak memasukkan nilai apa pun, secara default node minimum ditetapkan ke 2 (untuk ketersediaan yang lebih baik) dan node maksimum ditetapkan ke 50.
- Secara opsional, klik + TAMBAHKAN LABEL untuk menambahkan label ke Koneksi dalam bentuk pasangan kunci/nilai.
- Klik NEXT.
- Di bagian Destinations, masukkan detail host jarak jauh (sistem backend) yang ingin Anda hubungkan.
- Jenis Tujuan: Pilih Jenis Tujuan.
- Untuk menentukan nama host atau alamat IP tujuan, pilih Alamat host dan masukkan alamat di kolom Host 1.
- Untuk membuat koneksi pribadi, pilih Endpoint attachment dan pilih lampiran yang diperlukan dari daftar Endpoint Attachment.
Jika ingin membuat koneksi publik ke sistem backend dengan keamanan tambahan, Anda dapat mempertimbangkan mengonfigurasi alamat IP keluar statis untuk koneksi Anda, lalu mengonfigurasi aturan firewall untuk hanya mengizinkan alamat IP statis tertentu.
Untuk memasukkan tujuan tambahan, klik +TAMBAHKAN TUJUAN.
- Klik NEXT.
- Jenis Tujuan: Pilih Jenis Tujuan.
-
Di bagian Authentication, masukkan detail autentikasi.
- Pilih Jenis autentikasi dan masukkan detail yang relevan.
Jenis autentikasi berikut didukung oleh koneksi Splunk:
- Nama pengguna dan sandi (Autentikasi dasar)
- AccessToken
- HTTPEventCollectorToken
- Klik NEXT.
Untuk memahami cara mengonfigurasi jenis autentikasi ini, lihat Mengonfigurasi autentikasi.
- Pilih Jenis autentikasi dan masukkan detail yang relevan.
- Tinjau: Tinjau detail koneksi dan autentikasi Anda.
- Klik Buat.
Mengonfigurasi autentikasi
Masukkan detail berdasarkan autentikasi yang ingin Anda gunakan.
-
Nama pengguna dan sandi
- Nama pengguna: Nama pengguna Splunk yang akan digunakan untuk koneksi.
- Sandi: Secret Manager Secret yang berisi sandi yang terkait dengan nama pengguna Splunk.
-
AccessToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan
properti
AccessToken
. -
HTTPEventCollectorToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan
properti
HTTPEventCollectorToken
.
Contoh konfigurasi koneksi
Bagian ini mencantumkan nilai contoh untuk berbagai kolom yang Anda konfigurasi saat membuat koneksi Splunk.
Jenis koneksi HTTP Event Collector
Nama kolom | Detail |
---|---|
Lokasi | us-central1 |
Konektor | Splunk |
Versi konektor | 1 |
Nama Koneksi | splunk-http-event-coll-conn |
Mengaktifkan Cloud Logging | Tidak |
Akun Layanan | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Jumlah minimum node | 2 |
Jumlah maksimum node | 50 |
Aktifkan SSL | Ya |
Koneksi Tidak Aman Trust Store | Ya |
Jenis Tujuan(Server) | Alamat host |
Alamat host | 192.0.2.0 |
Port | PORT |
Autentikasi berbasis Token HTTP Event Collector | Ya |
HTTPEventCollectorToken | HTTPEVENTCOLLECTOR_TOKEN |
Versi rahasia | 1 |
Untuk mengetahui informasi tentang cara membuat token HTTP event collector, lihat Membuat HTTP event collector.
Jenis koneksi SSL
Nama kolom | Detail |
---|---|
Lokasi | us-central1 |
Konektor | Splunk |
Versi konektor | 1 |
Nama Koneksi | splunk-ssl-connection |
Mengaktifkan Cloud Logging | Ya |
Akun Layanan | SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com |
Tingkat kejelasan | 5 |
Jumlah minimum node | 2 |
Jumlah maksimum node | 50 |
Aktifkan SSL | Ya |
Koneksi Tidak Aman | Ya |
Jenis Tujuan(Server) | Alamat host |
Alamat host | https://192.0.2.0 |
Port | PORT |
Sandi Pengguna | Ya |
Nama Pengguna | PENGGUNA |
Sandi | PASSWORD |
Versi rahasia | 1 |
Untuk autentikasi dasar, Anda harus memiliki peran pengguna atau peran pengguna super. Untuk mengetahui informasi tentang cara mengonfigurasi pengguna super, lihat Mengonfigurasi peran pengguna super. Untuk mengetahui informasi tentang cara menentukan peran di Splunk, lihat Menentukan Peran di Platform Splunk.
Entitas, operasi, dan tindakan
Semua Konektor Integrasi menyediakan lapisan abstraksi untuk objek aplikasi yang terhubung. Anda hanya dapat mengakses objek aplikasi melalui abstraksi ini. Abstraksi ini ditampilkan kepada Anda sebagai entitas, operasi, dan tindakan.
- Entitas: Entitas dapat dianggap sebagai objek, atau kumpulan properti, dalam aplikasi atau layanan yang terhubung. Definisi entitas berbeda dari konektor ke
konektor. Misalnya, di konektor database, tabel adalah entitas, di konektor server file, folder adalah entitas, dan di konektor sistem pesan, antrean adalah entitas.
Namun, ada kemungkinan konektor tidak mendukung atau tidak memiliki entity apa pun, sehingga daftar
Entities
akan kosong. - Operasi: Operasi adalah aktivitas yang dapat Anda lakukan pada entity. Anda dapat melakukan
salah satu operasi berikut pada entitas:
Memilih entitas dari daftar yang tersedia akan menghasilkan daftar operasi yang tersedia untuk entitas tersebut. Untuk deskripsi mendetail tentang operasi, lihat operasi entitas tugas Konektor. Namun, jika konektor tidak mendukung operasi entitas apa pun, operasi yang tidak didukung tersebut tidak tercantum dalam daftar
Operations
. - Tindakan: Tindakan adalah fungsi kelas pertama yang tersedia untuk integrasi melalui antarmuka konektor. Tindakan memungkinkan Anda membuat perubahan pada satu atau beberapa entitas, dan
berbeda-beda dari konektor ke konektor. Biasanya, tindakan akan memiliki beberapa parameter input, dan parameter output. Namun, ada kemungkinan
konektor tidak mendukung tindakan apa pun, sehingga daftar
Actions
akan kosong.
Batasan sistem
Konektor Splunk dapat memproses 5 transaksi per detik, per node, dan membatasi transaksi apa pun di luar batas ini. Namun, jumlah transaksi yang dapat diproses oleh konektor ini juga bergantung pada batasan yang diterapkan oleh instance Splunk. Secara default, Integration Connectors mengalokasikan 2 node (untuk ketersediaan yang lebih baik) untuk koneksi.
Untuk mengetahui informasi tentang batas yang berlaku untuk Integration Connectors, lihat Batas.
Tindakan
Bagian ini mencantumkan tindakan yang didukung oleh konektor. Untuk memahami cara mengonfigurasi tindakan, lihat Contoh tindakan.
Tindakan CreateHTTPEvent
Tindakan ini memungkinkan Anda mengirim data dan peristiwa aplikasi ke deployment Splunk melalui protokol HTTP dan HTTPS.
Parameter input tindakan CreateHTTPEvent
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
EventContent | String | Ya | Nama tabel atau tampilan. |
ContentType | String | Tidak | Jenis konten yang ditentukan untuk input EventContent . Nilai yang didukung adalah JSON dan RAWTEXT . |
ChannelGUID | Bilangan bulat | Tidak | GUID saluran yang digunakan untuk acara. Anda harus menentukan nilai ini
jika ContentType adalah RAWTEXT . |
Parameter output tindakan CreateHTTPEvent
Tindakan ini menampilkan status keberhasilan acara yang dibuat.
Tindakan CreateIndex
Tindakan ini memungkinkan Anda membuat indeks.
Parameter input tindakan CreateIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
MaxMetaEntries | String | Tidak | Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi penggunaan memori. |
FrozenTimePeriodInSecs | String | Tidak | Jumlah detik setelah data yang diindeks di-roll ke status dibekukan. Setelan defaultnya adalah 188697600 (6 tahun). |
HomePath | String | Tidak | Jalur absolut yang berisi bucket panas dan hangat untuk indeks. |
MinRawFileSyncSecs | String | Tidak | Tentukan bilangan bulat (atau disable ) untuk parameter ini. Parameter ini menetapkan
seberapa sering splunkd memaksa sinkronisasi sistem file saat memadatkan slice jurnal. |
ProcessTrackerServiceInterval | String | Tidak | Menentukan, dalam hitungan detik, seberapa sering pengindeks memeriksa status proses OS turunan yang diluncurkannya untuk melihat apakah pengindeks dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika disetel ke 0, pengindeks akan memeriksa status proses turunan setiap detik. |
ServiceMetaPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) metadata disinkronkan ke disk. |
MaxHotSpanSecs | String | Tidak | Batas atas rentang waktu maksimum target (dalam detik) bucket aktif atau hangat. |
QuarantinePastSecs | String | Tidak | Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari >now akan dimasukkan ke bucket karantina. |
ColdToFrozenDir | String | Tidak | Jalur tujuan untuk arsip yang dibekukan. Gunakan sebagai alternatif untuk ColdToFrozenScript. |
ColdPath | String | Tidak | Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis. |
MaxHotIdleSecs | String | Tidak | Masa aktif maksimum bucket aktif, dalam detik |
WarmToColdScript | String | Tidak | Jalur ke skrip yang akan dijalankan saat memindahkan data dari hangat ke dingin. |
ColdToFrozenScript | String | Tidak | Jalur ke skrip pengarsipan. |
MaxHotBuckets | String | Tidak | Jumlah maksimum bucket aktif yang dapat ada per indeks. |
TstatsHomePath | String | Tidak | Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, harus ditentukan dalam hal definisi volume. Jalur harus dapat ditulis |
RepFactor | String | Tidak | Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer di cluster.
|
MaxDataSize | String | Tidak | Ukuran maksimum dalam MB yang harus dicapai DB aktif sebelum peralihan ke hangat dipicu.
Menentukan auto atau auto_high_volume menyebabkan Splunk
menyetel parameter ini secara otomatis (direkomendasikan). |
MaxBloomBackfillBucketAge | String | Tidak | Nilai yang valid adalah: integer[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau bangun kembali bloomfilter-nya. Tentukan 0 agar tidak pernah membangun ulang filter Bloom. |
BlockSignSize | String | Tidak | Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blok dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100. |
Nama | String | Ya | Nama indeks yang akan dibuat |
MaxTotalDataSizeMB | String | Tidak | Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan. |
MaxWarmDBCount | String | Tidak | Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin. |
RawChunkSizeBytes | String | Tidak | Menargetkan ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default. |
DataType | String | Tidak | Menentukan jenis indeks |
MaxConcurrentOptimizes | String | Tidak | Jumlah proses pengoptimalan serentak yang dapat dijalankan terhadap bucket aktif. |
ThrottleCheckPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi pembatasan indeks. |
SyncMeta | String | Tidak | Jika benar (true), operasi sinkronisasi dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait dengan error sistem operasi atau kegagalan mesin. |
RotatePeriodInSecs | String | Tidak | Seberapa sering (dalam detik) harus memeriksa apakah bucket aktif baru perlu dibuat. Selain itu, seberapa sering harus memeriksa apakah ada bucket hangat/dingin yang harus di-roll/dibekukan. |
Parameter output tindakan CreateIndex
Tindakan ini menampilkan pesan konfirmasi tindakan CreateIndex.
Untuk contoh cara mengonfigurasi tindakan CreateIndex
,
lihat Contoh tindakan.
Tindakan CreateSavedSearch
Tindakan ini memungkinkan Anda menyimpan penelusuran Anda
Parameter input tindakan CreateSavedSearch
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
IsVisible | Boolean | Ya | Menunjukkan apakah penelusuran tersimpan ini muncul dalam daftar penelusuran tersimpan yang terlihat. |
RealTimeSchedule | Boolean | Ya | Jika nilai ini disetel ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini disetel ke 0, nilai tersebut ditentukan berdasarkan waktu eksekusi penelusuran terakhir. |
Telusuri | String | Ya | Kueri penelusuran yang akan disimpan |
Deskripsi | String | Tidak | Deskripsi penelusuran tersimpan ini |
SchedulePriority | String | Ya | Menunjukkan prioritas penjadwalan penelusuran tertentu |
CronSchedule | String | Ya | Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * *
menyebabkan penelusuran dieksekusi setiap 5 menit. |
Nama | String | Ya | Nama untuk penelusuran |
UserContext | String | Ya | Jika konteks pengguna diberikan, node servicesNS akan digunakan
(/servicesNS/[UserContext]/search), jika tidak, endpoint default akan digunakan, /services . |
RunOnStartup | Boolean | Ya | Menunjukkan apakah penelusuran ini berjalan saat browser dimulai. Jika tidak berjalan saat startup, penelusuran akan berjalan pada waktu terjadwal berikutnya. |
Nonaktif | Boolean | Tidak | Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan. |
IsScheduled | Boolean | Ya | Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal. |
Parameter output tindakan CreateSavedSearch
Tindakan ini menampilkan pesan konfirmasi tindakan CreateSavedSearch.
Untuk contoh cara mengonfigurasi tindakan CreateSavedSearch
,
lihat Contoh tindakan.
Tindakan UpdateSavedSearch
Tindakan ini memungkinkan Anda memperbarui penelusuran tersimpan.
Parameter input tindakan UpdateSavedSearch
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
IsVisible | Boolean | Ya | Menunjukkan apakah penelusuran tersimpan ini muncul dalam daftar penelusuran tersimpan yang terlihat. |
RealTimeSchedule | Boolean | Ya | Jika nilai ini disetel ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini disetel ke 0, nilai ini ditentukan berdasarkan waktu eksekusi penelusuran terakhir. |
Telusuri | String | Ya | Kueri penelusuran yang akan disimpan |
Deskripsi | String | Tidak | Deskripsi penelusuran tersimpan ini |
SchedulePriority | String | Ya | Menunjukkan prioritas penjadwalan penelusuran tertentu |
CronSchedule | String | Ya | Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * * menyebabkan penelusuran dieksekusi setiap 5 menit. |
Nama | String | Ya | Nama untuk penelusuran |
UserContext | String | Ya | Jika konteks pengguna diberikan, node servicesNS akan digunakan (/servicesNS/[UserContext]/search),
jika tidak, node tersebut akan ditetapkan secara default ke endpoint umum, /services . |
RunOnStartup | Boolean | Ya | Menunjukkan apakah penelusuran ini berjalan saat browser dimulai. Jika tidak berjalan saat startup, penelusuran akan berjalan pada waktu terjadwal berikutnya. |
Nonaktif | Boolean | Tidak | Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan. |
IsScheduled | Boolean | Ya | Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal. |
Parameter output tindakan UpdateSavedSearch
Tindakan ini menampilkan pesan konfirmasi tindakan UpdateSavedSearch.
Untuk contoh cara mengonfigurasi tindakan UpdateSavedSearch
,
lihat Contoh tindakan.
Tindakan DeleteIndex
Tindakan ini memungkinkan Anda menghapus indeks.
Parameter input tindakan DeleteIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
Nama | String | Ya | Nama indeks yang akan dihapus. |
Parameter output tindakan DeleteIndex
Tindakan ini menampilkan pesan konfirmasi tindakan DeleteIndex
Untuk contoh cara mengonfigurasi tindakan DeleteIndex
,
lihat Contoh tindakan.
Tindakan UpdateIndex
Tindakan ini memungkinkan Anda memperbarui indeks.
Parameter input tindakan UpdateIndex
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
MaxMetaEntries | String | Tidak | Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi penggunaan memori. |
FrozenTimePeriodInSecs | String | Tidak | Jumlah detik setelah data yang diindeks di-roll ke status dibekukan. Setelan defaultnya adalah 188697600 (6 tahun). |
HomePath | String | Tidak | Jalur absolut yang berisi bucket panas dan hangat untuk indeks. |
MinRawFileSyncSecs | String | Tidak | Tentukan bilangan bulat (atau disable ) untuk parameter ini. Parameter ini menetapkan
seberapa sering splunkd memaksa sinkronisasi sistem file saat memadatkan slice jurnal. |
ProcessTrackerServiceInterval | String | Tidak | Menentukan, dalam hitungan detik, seberapa sering pengindeks memeriksa status proses OS turunan yang diluncurkannya untuk melihat apakah pengindeks dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika disetel ke 0, pengindeks memeriksa status proses turunan setiap detik. |
ServiceMetaPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) metadata disinkronkan ke disk. |
MaxHotSpanSecs | String | Tidak | Batas atas rentang waktu maksimum target (dalam detik) bucket aktif atau hangat. |
QuarantinePastSecs | String | Tidak | Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari now akan dimasukkan ke bucket karantina. |
ColdToFrozenDir | String | Tidak | Jalur tujuan untuk arsip yang dibekukan. Gunakan sebagai alternatif untuk ColdToFrozenScript. |
ColdPath | String | Tidak | Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis. |
MaxHotIdleSecs | String | Tidak | Masa aktif maksimum bucket aktif, dalam detik. |
WarmToColdScript | String | Tidak | Jalur ke skrip yang akan dijalankan saat memindahkan data dari hangat ke dingin. |
ColdToFrozenScript | String | Tidak | Jalur ke skrip pengarsipan. |
MaxHotBuckets | String | Tidak | Jumlah maksimum bucket aktif yang dapat ada per indeks. |
TstatsHomePath | String | Tidak | Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, parameter ini harus ditentukan dalam hal definisi volume. Jalur harus dapat ditulis |
RepFactor | String | Tidak | Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer di cluster.
|
MaxDataSize | String | Tidak | Ukuran maksimum dalam MB yang harus dicapai DB aktif sebelum peralihan ke hangat dipicu.
Menentukan auto atau auto_high_volume akan menyebabkan Splunk menyetel parameter ini secara otomatis (direkomendasikan). |
MaxBloomBackfillBucketAge | String | Tidak | Nilai yang valid adalah: integer[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau bangun kembali bloomfilter-nya. Tentukan 0 agar tidak pernah membangun ulang filter Bloom. |
BlockSignSize | String | Tidak | Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blokir akan dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100. |
Nama | String | Ya | Nama indeks yang akan dibuat |
MaxTotalDataSizeMB | String | Ya | Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan. |
MaxWarmDBCount | String | Tidak | Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin. |
RawChunkSizeBytes | String | Tidak | Ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default. |
DataType | String | Tidak | Menentukan jenis indeks |
MaxConcurrentOptimizes | String | Tidak | Jumlah proses pengoptimalan serentak yang dapat dijalankan terhadap bucket aktif. |
ThrottleCheckPeriod | String | Tidak | Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi pembatasan indeks. |
SyncMeta | String | Tidak | Jika benar (true), operasi sinkronisasi dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait dengan error sistem operasi atau kegagalan mesin. |
RotatePeriodInSecs | String | Tidak | Seberapa sering (dalam detik) harus memeriksa apakah bucket aktif baru perlu dibuat. Selain itu, seberapa sering harus memeriksa apakah ada bucket hangat atau dingin yang harus di-roll atau dibekukan. |
Parameter output tindakan UpdateIndex
Tindakan ini menampilkan pesan konfirmasi tindakan UpdateIndex.
Untuk contoh cara mengonfigurasi tindakan UpdateIndex
,
lihat Contoh tindakan.
Contoh tindakan
Contoh - Membuat peristiwa HTTP
Contoh ini membuat peristiwa HTTP.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateHTTPEvent
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "EventContent": "Testing Task", "ContentType": "RAWTEXT", "ChannelGUID": "ContentType=RAWTEXT" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas CreateHTTPEvent
akan memiliki nilai yang mirip dengan berikut ini:
[{ "Success": "Success" }]
Contoh - Membuat indeks
Contoh ini membuat indeks.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "http_testing" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas CreateIndex
akan memiliki nilai yang mirip dengan berikut ini:
[{ "AssureUTF8": null, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": null, "ColdPath": null, "FrozenTimePeriodInSecs": null, "HomePath": null, "HomePathExpanded": null, "IndexThreads": null, "IsInternal": null, "MaxConcurrentOptimizes": null, "MaxDataSize": null, "MaxHotBuckets": null, "SuppressBannerList": null, "Sync": null, "SyncMeta": null, "ThawedPath": null, "ThawedPathExpanded": null, "TstatsHomePath": null, "WarmToColdScript": null, }]
Contoh - Membuat penelusuran tersimpan
Contoh ini membuat penelusuran tersimpan.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
CreateSavedSearch
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "test_created_g", "Search": "index=\"http_testing\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest", "UserContext": "nobody" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas CreateSavedSearch
akan memiliki nilai yang mirip dengan berikut ini:
[{ "Success": true, "Message": null }]
Contoh - Memperbarui penelusuran tersimpan
Contoh ini memperbarui penelusuran tersimpan.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
UpdateSavedSearch
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "test_created_g", "Search": "index=\"december_test_data\"", "CronSchedule": "*/1 * * * *", "IsVisible": true, "RealTimeSchedule": true, "RunOnStartup": true, "IsScheduled": true, "SchedulePriority": "highest" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas UpdateSavedSearch
akan memiliki nilai yang mirip dengan berikut ini:
[{ "Success": true, "Message": null }]
Contoh - Menghapus indeks
Contoh ini menghapus indeks.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
DeleteIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Name": "g_http_testing" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas DeleteIndex
akan memiliki nilai yang mirip dengan berikut ini:
[{ "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Contoh - Memperbarui indeks
Contoh ini memperbarui indeks.
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
UpdateIndex
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "MaxTotalDataSizeMB": "400000", "Name": "g_http_testing" }
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas UpdateIndex
akan memiliki nilai yang mirip dengan berikut ini:
[{ "AssureUTF8": false, "BlockSignSize": null, "BlockSignatureDatabase": null, "BucketRebuildMemoryHint": "auto", "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb", "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb", "ColdToFrozenDir": "", "ColdToFrozenScript": "", "CurrentDBSizeMB": 1.0, "DefaultDatabase": "main", "EnableOnlineBucketRepair": true, "EnableRealtimeSearch": true, "FrozenTimePeriodInSecs": 1.886976E8, "HomePath": "$SPLUNK_DB\\g_http_testing\\db", "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db", "IndexThreads": "auto", "IsInternal": false, "LastInitTime": "2024-01-08 05:15:28.0", "MaxBloomBackfillBucketAge": "30d", "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb", "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb", "ThrottleCheckPeriod": 15.0, "TotalEventCount": 0.0, "TsidxDedupPostingsListMaxTermsLimit": 8388608.0, "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary", "WarmToColdScript": "", "Success": true, "ErrorCode": null, "ErrorMessage": null }]
Contoh operasi entity
Bagian ini menunjukkan cara melakukan beberapa operasi entitas di konektor ini.
Contoh - Mencantumkan semua catatan
Contoh ini mencantumkan semua data dalam entitas SearchJobs
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Secara opsional, di bagian Input Tugas pada tugas Konektor, Anda dapat memfilter kumpulan hasil dengan menentukan klausa filter. Selalu tentukan nilai klausa filter dalam tanda kutip tunggal (').
Contoh - Mendapatkan rekaman dari entity
Contoh ini mendapatkan data dengan ID yang ditentukan dari entitas SearchJobs
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Get
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik EntityId, lalu masukkan
1698309163.1300
di kolom Default Value.Di sini,
1698309163.1300
adalah ID data unik dalam entitasSearchJobs
.
Contoh - Membuat rekaman dalam entitas
Contoh ini membuat data dalam entitas SearchJobs
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1699336785.1919" }
Contoh - Membuat rekaman dalam entitas
Contoh ini membuat data dalam entitas DataModels
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Id": "Test1", "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\", \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\", \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false, \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\" ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
Jika integrasi berhasil, kolom
connectorOutputPayload
tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:[{ "Id": "Test1" }]
Contoh - Menghapus data dari entity
Contoh ini menghapus data dengan ID yang ditentukan di entitas DataModels
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Delete
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik entityId, lalu masukkan
Test1
di kolom Default Value.
Contoh - Memperbarui data dalam entity
Contoh ini memperbarui data dalam entitas DataModels
.
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
DataModels
dari daftarEntity
. - Pilih operasi
Update
, lalu klik Selesai. - Di bagian Task Input pada tugas Connectors, klik
connectorInputPayload
, lalu masukkan nilai yang mirip dengan berikut di kolomDefault Value
:{ "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\", \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60, \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false, \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3, \"allow_skew\":\"0\",\"schedule_priority\":\"default\", \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0, \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}" }
- Klik entityId, lalu masukkan
/servicesNS/nobody/search/datamodel/model/Testing
di kolom Default Value.Jika integrasi berhasil, kolom
connectorOutputPayload
tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:[{ "Id": "/servicesNS/nobody/search/datamodel/model/Testing" }]
Contoh - Alur penelusuran menggunakan indeks
Bagian ini mencantumkan semua alur penelusuran menggunakan satu indeks dan beberapa indeks.
Membuat penelusuran menggunakan satu Indeks
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1726051471.76" }
Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
Index Name
dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Bagian Input Tugas pada tugas Konektor, Anda dapat menetapkan filterClause, seperti Sid= '1726051471.76'.
Jika integrasi berhasil, parameter
respons connectorOutputPayload
tugas Index Name
akan memiliki nilai yang mirip dengan berikut:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1726051471.76" }]
Membuat penelusuran menggunakan beberapa Indeks
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1727261971.4007" }
Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih Nama
Index Name
dari daftarEntity
. - Pilih operasi
List
, lalu klik Selesai. - Task Input pada tugas Connectors, Anda dapat menetapkan filterClause, seperti Sid= '1727261971.4007'.
Jika integrasi berhasil, parameter
respons connectorOutputPayload
tugas Index
akan memiliki nilai yang mirip dengan berikut:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.727155516E9, "_kv": null, "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": 0.0, "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24 05:25:16.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": 3.0, "punct": null, "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }, { "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "00:04:00", "_eventtype_color": null, "_indextime": 1.720702012E9, "_kv": null, "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": 1.0, "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11 12:46:52.0", "eventtype": null, "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": 4.0, "punct": null, "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "splunk_server_group": null, "timestamp": null, "JobId": "1727261971.4007" }]
Contoh - Alur penelusuran menggunakan ReadJobResults
Bagian ini mencantumkan semua alur penelusuran yang menggunakan indeks tunggal dan beberapa indeks yang didukung oleh koneksi Splunk. Mulai sekarang,ukuran payload maksimum untuk hasil log yang didukung adalah 150 MB.
Membuat penelusuran dengan indeks tunggal
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") " }
Contoh ini membuat penelusuran. Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut ini:{ "Sid": "1732775755.24612" }
Untuk mendapatkan hasil penelusuran, lakukan operasi pembuatan pada tindakan ReadJobResults. Untuk memastikan bahwa hasil difilter berdasarkan Sid, teruskan Sid sebagai parameter ke tindakan.
Mendapatkan log hasil menggunakan tindakan ReadJobResults
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
ReadJobResults
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "Sid": "1732775755.24612" }
Jika tindakan berhasil, parameter
respons
connectorOutputPayload
tugas ReadJobResults
akan memiliki nilai yang mirip dengan berikut ini:
[{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732775755.24612", "sid": "1732775755.24612" }]
Membuat penelusuran dengan beberapa indeks
- Dalam dialog
Configure connector task
, klikEntities
. - Pilih
SearchJobs
dari daftarEntity
. - Pilih operasi
Create
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\" OR sourcetype=\"Demo_Text\")" }
Jika integrasi berhasil, parameter respons
connectorOutputPayload
tugasSearchJobs
akan memiliki nilai yang mirip dengan berikut:{ "Sid": "1732776556.24634" }
Untuk mendapatkan hasil penelusuran, lakukan operasi pembuatan pada tindakan ReadJobResults. Untuk memastikan bahwa hasil difilter berdasarkan Sid, teruskan Sid sebagai parameter ke tindakan.
ResultsLogs menggunakan Tindakan ReadJobResults
- Dalam dialog
Configure connector task
, klikActions
. - Pilih tindakan
ReadJobResults
, lalu klik Selesai. - Di bagian Pemeta Data pada tugas Pemetaan Data, klik
Open Data Mapping Editor
, lalu masukkan nilai yang mirip dengan berikut di kolomInput Value
dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.{ "Sid": "1732776556.24634" }
- Untuk memahami cara membuat dan menggunakan tugas Konektor di Apigee Integration, lihat Tugas konektor.
- Untuk memahami cara membuat dan menggunakan tugas Konektor di Integrasi Aplikasi, lihat Tugas konektor.
- Pahami cara menangguhkan dan melanjutkan koneksi.
- Pahami cara memantau penggunaan konektor.
- Pahami cara melihat log konektor.
Jika tindakan berhasil, parameter
respons connectorOutputPayload
tugas ReadJobResults
akan memiliki nilai yang mirip dengan berikut ini:
[{ "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1727155516", "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team", "_serial": "0", "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo", "_sourcetype": "Demo_Text", "_time": "2024-09-24T05:25:16.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "googlecloud-demo", "linecount": "3", "source": "Splunk_Demo.txt", "sourcetype": "Demo_Text", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" },{ "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF", "_cd": "0:4", "_indextime": "1720702012", "_raw": "hi How r yo\nplease\nfind \nmy notes", "_serial": "1", "_si": "googlecloud-bcone-splunk-vm\nhttp_testing", "_sourcetype": "googlecloud-testing", "_time": "2024-07-11T12:46:52.000+00:00", "host": "googlecloud-bcone-splunk-vm", "index": "http_testing", "linecount": "4", "source": "Testing.txt", "sourcetype": "googlecloud-testing", "splunk_server": "googlecloud-bcone-splunk-vm", "jobid": "1732776556.24634", "sid": "1732776556.24634" }]
Membuat koneksi menggunakan Terraform
Anda dapat menggunakan resource Terraform untuk membuat koneksi baru.
Untuk mempelajari cara menerapkan atau menghapus konfigurasi Terraform, lihat Perintah dasar Terraform.
Untuk melihat contoh template terraform untuk pembuatan koneksi, lihat contoh template.
Saat membuat koneksi ini menggunakan Terraform, Anda harus menetapkan variabel berikut dalam file konfigurasi Terraform:
Nama parameter | Jenis data | Wajib | Deskripsi |
---|---|---|---|
panjang | STRING | Salah | Tingkat kejelasan untuk koneksi, bervariasi dari 1-5. Tingkat kejelasan yang lebih tinggi akan mencatat semua detail komunikasi (permintaan,respons & sertifikat SSL). |
proxy_enabled | BOOLEAN | Salah | Centang kotak ini untuk mengonfigurasi server proxy untuk koneksi. |
proxy_auth_scheme | ENUM | Salah | Jenis autentikasi yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer. Nilai yang didukung adalah: BASIC, DIGEST, NONE |
proxy_user | STRING | Salah | Nama pengguna yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer. |
proxy_password | SECRET | Salah | Sandi yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer. |
proxy_ssltype | ENUM | Salah | Jenis SSL yang akan digunakan saat terhubung ke proxy ProxyServer. Nilai yang didukung adalah: AUTO, ALWAYS, NEVER, TUNNEL |
Menggunakan koneksi Splunk dalam integrasi
Setelah Anda membuat koneksi, koneksi tersebut akan tersedia di Apigee Integration dan Application Integration. Anda dapat menggunakan koneksi dalam integrasi melalui tugas Konektor.