Splunk

Konektor Splunk memungkinkan Anda melakukan operasi penyisipan, penghapusan, pembaruan, dan pembacaan pada database Splunk.

Sebelum memulai

Sebelum menggunakan konektor Splunk, lakukan tugas berikut:

  • Di project Google Cloud Anda:
    • Pastikan konektivitas jaringan telah disiapkan. Untuk mengetahui informasi tentang pola jaringan, lihat Konektivitas jaringan.
    • Berikan peran IAM roles/connectors.admin kepada pengguna yang mengonfigurasi konektor.
    • Berikan peran IAM berikut ke akun layanan yang ingin Anda gunakan untuk konektor:
      • roles/secretmanager.viewer
      • roles/secretmanager.secretAccessor

      Akun layanan adalah jenis Akun Google khusus yang dimaksudkan untuk mewakili pengguna non-manusia yang perlu diautentikasi dan diberi otorisasi untuk mengakses data di Google API. Jika Anda tidak memiliki akun layanan, Anda harus membuat akun layanan. Untuk mengetahui informasi selengkapnya, lihat Membuat akun layanan.

    • Aktifkan layanan berikut:
      • secretmanager.googleapis.com (Secret Manager API)
      • connectors.googleapis.com (Connectors API)

      Untuk memahami cara mengaktifkan layanan, lihat Mengaktifkan layanan.

    Jika layanan atau izin ini belum diaktifkan untuk project Anda sebelumnya, Anda akan diminta untuk mengaktifkannya saat mengonfigurasi konektor.

Mengonfigurasi konektor

Koneksi khusus untuk sumber data. Artinya, jika Anda memiliki banyak sumber data, Anda harus membuat koneksi terpisah untuk setiap sumber data. Untuk membuat koneksi, lakukan hal berikut:

  1. Di Konsol Cloud, buka halaman Integration Connectors > Connections lalu pilih atau buat project Google Cloud.

    Buka halaman Koneksi

  2. Klik + BUAT BARU untuk membuka halaman Buat Koneksi.
  3. Di bagian Location, pilih lokasi untuk koneksi.
    1. Wilayah: Pilih lokasi dari menu drop-down.

      Untuk mengetahui daftar semua region yang didukung, lihat Lokasi.

    2. Klik NEXT.
  4. Di bagian Detail Koneksi, selesaikan langkah-langkah berikut:
    1. Konektor: Pilih Splunk dari daftar drop-down Konektor yang tersedia.
    2. Versi konektor: Pilih versi Konektor dari daftar drop-down versi yang tersedia.
    3. Di kolom Connection Name, masukkan nama untuk instance Koneksi.

      Nama koneksi harus memenuhi kriteria berikut:

      • Nama koneksi dapat menggunakan huruf, angka, atau tanda hubung.
      • Huruf harus berupa huruf kecil.
      • Nama koneksi harus diawali dengan huruf dan diakhiri dengan huruf atau angka.
      • Nama koneksi tidak boleh melebihi 49 karakter.
    4. Secara opsional, masukkan Deskripsi untuk instance koneksi.
    5. Secara opsional, aktifkan Cloud Logging, lalu pilih level log. Secara default, level log ditetapkan ke Error.
    6. Akun Layanan: Pilih akun layanan yang memiliki peran yang diperlukan.
    7. Jika perlu, konfigurasikan Setelan node koneksi:

      • Jumlah minimum node: Masukkan jumlah minimum node koneksi.
      • Jumlah node maksimum: Masukkan jumlah maksimum node koneksi.

      Node adalah unit (atau replika) koneksi yang memproses transaksi. Jumlah node yang diperlukan untuk memproses lebih banyak transaksi untuk suatu koneksi akan bertambah dan sebaliknya, jumlah node yang diperlukan untuk memproses lebih sedikit transaksi akan berkurang. Untuk memahami pengaruh node terhadap harga konektor, lihat Harga untuk node koneksi. Jika Anda tidak memasukkan nilai apa pun, secara default node minimum ditetapkan ke 2 (untuk ketersediaan yang lebih baik) dan node maksimum ditetapkan ke 50.

    8. Secara opsional, klik + TAMBAHKAN LABEL untuk menambahkan label ke Koneksi dalam bentuk pasangan kunci/nilai.
    9. Klik NEXT.
  5. Di bagian Destinations, masukkan detail host jarak jauh (sistem backend) yang ingin Anda hubungkan.
    1. Jenis Tujuan: Pilih Jenis Tujuan.
      • Untuk menentukan nama host atau alamat IP tujuan, pilih Alamat host dan masukkan alamat di kolom Host 1.
      • Untuk membuat koneksi pribadi, pilih Endpoint attachment dan pilih lampiran yang diperlukan dari daftar Endpoint Attachment.

      Jika ingin membuat koneksi publik ke sistem backend dengan keamanan tambahan, Anda dapat mempertimbangkan mengonfigurasi alamat IP keluar statis untuk koneksi Anda, lalu mengonfigurasi aturan firewall untuk hanya mengizinkan alamat IP statis tertentu.

      Untuk memasukkan tujuan tambahan, klik +TAMBAHKAN TUJUAN.

    2. Klik NEXT.
  6. Di bagian Authentication, masukkan detail autentikasi.
    1. Pilih Jenis autentikasi dan masukkan detail yang relevan.

      Jenis autentikasi berikut didukung oleh koneksi Splunk:

      • Nama pengguna dan sandi (Autentikasi dasar)
      • AccessToken
      • HTTPEventCollectorToken
    2. Untuk memahami cara mengonfigurasi jenis autentikasi ini, lihat Mengonfigurasi autentikasi.

    3. Klik NEXT.
  7. Tinjau: Tinjau detail koneksi dan autentikasi Anda.
  8. Klik Buat.

Mengonfigurasi autentikasi

Masukkan detail berdasarkan autentikasi yang ingin Anda gunakan.

  • Nama pengguna dan sandi
    • Nama pengguna: Nama pengguna Splunk yang akan digunakan untuk koneksi.
    • Sandi: Secret Manager Secret yang berisi sandi yang terkait dengan nama pengguna Splunk.
  • AccessToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan properti AccessToken.
  • HTTPEventCollectorToken - Tetapkan ini untuk melakukan autentikasi berbasis token menggunakan properti HTTPEventCollectorToken.

Contoh konfigurasi koneksi

Bagian ini mencantumkan nilai contoh untuk berbagai kolom yang Anda konfigurasi saat membuat koneksi Splunk.

Jenis koneksi HTTP Event Collector

Nama kolom Detail
Lokasi us-central1
Konektor Splunk
Versi konektor 1
Nama Koneksi splunk-http-event-coll-conn
Mengaktifkan Cloud Logging Tidak
Akun Layanan SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Jumlah minimum node 2
Jumlah maksimum node 50
Aktifkan SSL Ya
Koneksi Tidak Aman Trust Store Ya
Jenis Tujuan(Server) Alamat host
Alamat host 192.0.2.0
Port PORT
Autentikasi berbasis Token HTTP Event Collector Ya
HTTPEventCollectorToken HTTPEVENTCOLLECTOR_TOKEN
Versi rahasia 1

Untuk mengetahui informasi tentang cara membuat token HTTP event collector, lihat Membuat HTTP event collector.

Jenis koneksi SSL

Nama kolom Detail
Lokasi us-central1
Konektor Splunk
Versi konektor 1
Nama Koneksi splunk-ssl-connection
Mengaktifkan Cloud Logging Ya
Akun Layanan SERVICE_ACCOUNT_NAME@PROJECT_ID.iam.gserviceaccount.com
Tingkat kejelasan 5
Jumlah minimum node 2
Jumlah maksimum node 50
Aktifkan SSL Ya
Koneksi Tidak Aman Ya
Jenis Tujuan(Server) Alamat host
Alamat host https://192.0.2.0
Port PORT
Sandi Pengguna Ya
Nama Pengguna PENGGUNA
Sandi PASSWORD
Versi rahasia 1

Untuk autentikasi dasar, Anda harus memiliki peran pengguna atau peran pengguna super. Untuk mengetahui informasi tentang cara mengonfigurasi pengguna super, lihat Mengonfigurasi peran pengguna super. Untuk mengetahui informasi tentang cara menentukan peran di Splunk, lihat Menentukan Peran di Platform Splunk.

Entitas, operasi, dan tindakan

Semua Konektor Integrasi menyediakan lapisan abstraksi untuk objek aplikasi yang terhubung. Anda hanya dapat mengakses objek aplikasi melalui abstraksi ini. Abstraksi ini ditampilkan kepada Anda sebagai entitas, operasi, dan tindakan.

  • Entitas: Entitas dapat dianggap sebagai objek, atau kumpulan properti, dalam aplikasi atau layanan yang terhubung. Definisi entitas berbeda dari konektor ke konektor. Misalnya, di konektor database, tabel adalah entitas, di konektor server file, folder adalah entitas, dan di konektor sistem pesan, antrean adalah entitas.

    Namun, ada kemungkinan konektor tidak mendukung atau tidak memiliki entity apa pun, sehingga daftar Entities akan kosong.

  • Operasi: Operasi adalah aktivitas yang dapat Anda lakukan pada entity. Anda dapat melakukan salah satu operasi berikut pada entitas:

    Memilih entitas dari daftar yang tersedia akan menghasilkan daftar operasi yang tersedia untuk entitas tersebut. Untuk deskripsi mendetail tentang operasi, lihat operasi entitas tugas Konektor. Namun, jika konektor tidak mendukung operasi entitas apa pun, operasi yang tidak didukung tersebut tidak tercantum dalam daftar Operations.

  • Tindakan: Tindakan adalah fungsi kelas pertama yang tersedia untuk integrasi melalui antarmuka konektor. Tindakan memungkinkan Anda membuat perubahan pada satu atau beberapa entitas, dan berbeda-beda dari konektor ke konektor. Biasanya, tindakan akan memiliki beberapa parameter input, dan parameter output. Namun, ada kemungkinan konektor tidak mendukung tindakan apa pun, sehingga daftar Actions akan kosong.

Batasan sistem

Konektor Splunk dapat memproses 5 transaksi per detik, per node, dan membatasi transaksi apa pun di luar batas ini. Namun, jumlah transaksi yang dapat diproses oleh konektor ini juga bergantung pada batasan yang diterapkan oleh instance Splunk. Secara default, Integration Connectors mengalokasikan 2 node (untuk ketersediaan yang lebih baik) untuk koneksi.

Untuk mengetahui informasi tentang batas yang berlaku untuk Integration Connectors, lihat Batas.

Tindakan

Bagian ini mencantumkan tindakan yang didukung oleh konektor. Untuk memahami cara mengonfigurasi tindakan, lihat Contoh tindakan.

Tindakan CreateHTTPEvent

Tindakan ini memungkinkan Anda mengirim data dan peristiwa aplikasi ke deployment Splunk melalui protokol HTTP dan HTTPS.

Parameter input tindakan CreateHTTPEvent

Nama parameter Jenis data Wajib Deskripsi
EventContent String Ya Nama tabel atau tampilan.
ContentType String Tidak Jenis konten yang ditentukan untuk input EventContent. Nilai yang didukung adalah JSON dan RAWTEXT.
ChannelGUID Bilangan bulat Tidak GUID saluran yang digunakan untuk acara. Anda harus menentukan nilai ini jika ContentType adalah RAWTEXT.

Parameter output tindakan CreateHTTPEvent

Tindakan ini menampilkan status keberhasilan acara yang dibuat.

Tindakan CreateIndex

Tindakan ini memungkinkan Anda membuat indeks.

Parameter input tindakan CreateIndex

Nama parameter Jenis data Wajib Deskripsi
MaxMetaEntries String Tidak Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi penggunaan memori.
FrozenTimePeriodInSecs String Tidak Jumlah detik setelah data yang diindeks di-roll ke status dibekukan. Setelan defaultnya adalah 188697600 (6 tahun).
HomePath String Tidak Jalur absolut yang berisi bucket panas dan hangat untuk indeks.
MinRawFileSyncSecs String Tidak Tentukan bilangan bulat (atau disable) untuk parameter ini. Parameter ini menetapkan seberapa sering splunkd memaksa sinkronisasi sistem file saat memadatkan slice jurnal.
ProcessTrackerServiceInterval String Tidak Menentukan, dalam hitungan detik, seberapa sering pengindeks memeriksa status proses OS turunan yang diluncurkannya untuk melihat apakah pengindeks dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika disetel ke 0, pengindeks akan memeriksa status proses turunan setiap detik.
ServiceMetaPeriod String Tidak Menentukan seberapa sering (dalam detik) metadata disinkronkan ke disk.
MaxHotSpanSecs String Tidak Batas atas rentang waktu maksimum target (dalam detik) bucket aktif atau hangat.
QuarantinePastSecs String Tidak Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari >now akan dimasukkan ke bucket karantina.
ColdToFrozenDir String Tidak Jalur tujuan untuk arsip yang dibekukan. Gunakan sebagai alternatif untuk ColdToFrozenScript.
ColdPath String Tidak Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis.
MaxHotIdleSecs String Tidak Masa aktif maksimum bucket aktif, dalam detik
WarmToColdScript String Tidak Jalur ke skrip yang akan dijalankan saat memindahkan data dari hangat ke dingin.
ColdToFrozenScript String Tidak Jalur ke skrip pengarsipan.
MaxHotBuckets String Tidak Jumlah maksimum bucket aktif yang dapat ada per indeks.
TstatsHomePath String Tidak Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, harus ditentukan dalam hal definisi volume. Jalur harus dapat ditulis
RepFactor String Tidak Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer di cluster.
  • auto - Menggunakan nilai konfigurasi replikasi indeks master.
  • 0 - Menonaktifkan replikasi untuk indeks ini.
MaxDataSize String Tidak Ukuran maksimum dalam MB yang harus dicapai DB aktif sebelum peralihan ke hangat dipicu. Menentukan auto atau auto_high_volume menyebabkan Splunk menyetel parameter ini secara otomatis (direkomendasikan).
MaxBloomBackfillBucketAge String Tidak Nilai yang valid adalah: integer[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau bangun kembali bloomfilter-nya. Tentukan 0 agar tidak pernah membangun ulang filter Bloom.
BlockSignSize String Tidak Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blok dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100.
Nama String Ya Nama indeks yang akan dibuat
MaxTotalDataSizeMB String Tidak Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan.
MaxWarmDBCount String Tidak Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin.
RawChunkSizeBytes String Tidak Menargetkan ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default.
DataType String Tidak Menentukan jenis indeks
MaxConcurrentOptimizes String Tidak Jumlah proses pengoptimalan serentak yang dapat dijalankan terhadap bucket aktif.
ThrottleCheckPeriod String Tidak Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi pembatasan indeks.
SyncMeta String Tidak Jika benar (true), operasi sinkronisasi dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait dengan error sistem operasi atau kegagalan mesin.
RotatePeriodInSecs String Tidak Seberapa sering (dalam detik) harus memeriksa apakah bucket aktif baru perlu dibuat. Selain itu, seberapa sering harus memeriksa apakah ada bucket hangat/dingin yang harus di-roll/dibekukan.

Parameter output tindakan CreateIndex

Tindakan ini menampilkan pesan konfirmasi tindakan CreateIndex.

Untuk contoh cara mengonfigurasi tindakan CreateIndex, lihat Contoh tindakan.

Tindakan CreateSavedSearch

Tindakan ini memungkinkan Anda menyimpan penelusuran Anda

Parameter input tindakan CreateSavedSearch

Nama parameter Jenis data Wajib Deskripsi
IsVisible Boolean Ya Menunjukkan apakah penelusuran tersimpan ini muncul dalam daftar penelusuran tersimpan yang terlihat.
RealTimeSchedule Boolean Ya Jika nilai ini disetel ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini disetel ke 0, nilai tersebut ditentukan berdasarkan waktu eksekusi penelusuran terakhir.
Telusuri String Ya Kueri penelusuran yang akan disimpan
Deskripsi String Tidak Deskripsi penelusuran tersimpan ini
SchedulePriority String Ya Menunjukkan prioritas penjadwalan penelusuran tertentu
CronSchedule String Ya Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * * menyebabkan penelusuran dieksekusi setiap 5 menit.
Nama String Ya Nama untuk penelusuran
UserContext String Ya Jika konteks pengguna diberikan, node servicesNS akan digunakan (/servicesNS/[UserContext]/search), jika tidak, endpoint default akan digunakan, /services.
RunOnStartup Boolean Ya Menunjukkan apakah penelusuran ini berjalan saat browser dimulai. Jika tidak berjalan saat startup, penelusuran akan berjalan pada waktu terjadwal berikutnya.
Nonaktif Boolean Tidak Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan.
IsScheduled Boolean Ya Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal.

Parameter output tindakan CreateSavedSearch

Tindakan ini menampilkan pesan konfirmasi tindakan CreateSavedSearch.

Untuk contoh cara mengonfigurasi tindakan CreateSavedSearch, lihat Contoh tindakan.

Tindakan UpdateSavedSearch

Tindakan ini memungkinkan Anda memperbarui penelusuran tersimpan.

Parameter input tindakan UpdateSavedSearch

Nama parameter Jenis data Wajib Deskripsi
IsVisible Boolean Ya Menunjukkan apakah penelusuran tersimpan ini muncul dalam daftar penelusuran tersimpan yang terlihat.
RealTimeSchedule Boolean Ya Jika nilai ini disetel ke 1, penjadwal akan mendasarkan penentuan waktu eksekusi penelusuran terjadwal berikutnya pada waktu saat ini. Jika nilai ini disetel ke 0, nilai ini ditentukan berdasarkan waktu eksekusi penelusuran terakhir.
Telusuri String Ya Kueri penelusuran yang akan disimpan
Deskripsi String Tidak Deskripsi penelusuran tersimpan ini
SchedulePriority String Ya Menunjukkan prioritas penjadwalan penelusuran tertentu
CronSchedule String Ya Jadwal cron untuk menjalankan penelusuran ini. Misalnya, */5 * * * * menyebabkan penelusuran dieksekusi setiap 5 menit.
Nama String Ya Nama untuk penelusuran
UserContext String Ya Jika konteks pengguna diberikan, node servicesNS akan digunakan (/servicesNS/[UserContext]/search), jika tidak, node tersebut akan ditetapkan secara default ke endpoint umum, /services.
RunOnStartup Boolean Ya Menunjukkan apakah penelusuran ini berjalan saat browser dimulai. Jika tidak berjalan saat startup, penelusuran akan berjalan pada waktu terjadwal berikutnya.
Nonaktif Boolean Tidak Menunjukkan apakah penelusuran tersimpan ini dinonaktifkan.
IsScheduled Boolean Ya Menunjukkan apakah penelusuran ini akan dijalankan sesuai jadwal.

Parameter output tindakan UpdateSavedSearch

Tindakan ini menampilkan pesan konfirmasi tindakan UpdateSavedSearch.

Untuk contoh cara mengonfigurasi tindakan UpdateSavedSearch, lihat Contoh tindakan.

Tindakan DeleteIndex

Tindakan ini memungkinkan Anda menghapus indeks.

Parameter input tindakan DeleteIndex

Nama parameter Jenis data Wajib Deskripsi
Nama String Ya Nama indeks yang akan dihapus.

Parameter output tindakan DeleteIndex

Tindakan ini menampilkan pesan konfirmasi tindakan DeleteIndex

Untuk contoh cara mengonfigurasi tindakan DeleteIndex, lihat Contoh tindakan.

Tindakan UpdateIndex

Tindakan ini memungkinkan Anda memperbarui indeks.

Parameter input tindakan UpdateIndex

Nama parameter Jenis data Wajib Deskripsi
MaxMetaEntries String Tidak Menetapkan jumlah maksimum baris unik dalam file .data di bucket, yang dapat membantu mengurangi penggunaan memori.
FrozenTimePeriodInSecs String Tidak Jumlah detik setelah data yang diindeks di-roll ke status dibekukan. Setelan defaultnya adalah 188697600 (6 tahun).
HomePath String Tidak Jalur absolut yang berisi bucket panas dan hangat untuk indeks.
MinRawFileSyncSecs String Tidak Tentukan bilangan bulat (atau disable) untuk parameter ini. Parameter ini menetapkan seberapa sering splunkd memaksa sinkronisasi sistem file saat memadatkan slice jurnal.
ProcessTrackerServiceInterval String Tidak Menentukan, dalam hitungan detik, seberapa sering pengindeks memeriksa status proses OS turunan yang diluncurkannya untuk melihat apakah pengindeks dapat meluncurkan proses baru untuk permintaan yang diantrekan. Jika disetel ke 0, pengindeks memeriksa status proses turunan setiap detik.
ServiceMetaPeriod String Tidak Menentukan seberapa sering (dalam detik) metadata disinkronkan ke disk.
MaxHotSpanSecs String Tidak Batas atas rentang waktu maksimum target (dalam detik) bucket aktif atau hangat.
QuarantinePastSecs String Tidak Peristiwa dengan stempel waktu quarantinePastSecs yang lebih lama dari now akan dimasukkan ke bucket karantina.
ColdToFrozenDir String Tidak Jalur tujuan untuk arsip yang dibekukan. Gunakan sebagai alternatif untuk ColdToFrozenScript.
ColdPath String Tidak Jalur absolut yang berisi colddb untuk indeks. Jalur harus dapat dibaca dan ditulis.
MaxHotIdleSecs String Tidak Masa aktif maksimum bucket aktif, dalam detik.
WarmToColdScript String Tidak Jalur ke skrip yang akan dijalankan saat memindahkan data dari hangat ke dingin.
ColdToFrozenScript String Tidak Jalur ke skrip pengarsipan.
MaxHotBuckets String Tidak Jumlah maksimum bucket aktif yang dapat ada per indeks.
TstatsHomePath String Tidak Lokasi untuk menyimpan data TSIDX akselerasi model data untuk indeks ini. Jika ditentukan, parameter ini harus ditentukan dalam hal definisi volume. Jalur harus dapat ditulis
RepFactor String Tidak Kontrol replikasi indeks. Parameter ini hanya berlaku untuk node peer di cluster.
  • auto - Menggunakan nilai konfigurasi replikasi indeks master.
  • 0 - Menonaktifkan replikasi untuk indeks ini.
MaxDataSize String Tidak Ukuran maksimum dalam MB yang harus dicapai DB aktif sebelum peralihan ke hangat dipicu. Menentukan auto atau auto_high_volume akan menyebabkan Splunk menyetel parameter ini secara otomatis (direkomendasikan).
MaxBloomBackfillBucketAge String Tidak Nilai yang valid adalah: integer[m|s|h|d] jika bucket hangat atau dingin lebih lama dari usia yang ditentukan, jangan buat atau bangun kembali bloomfilter-nya. Tentukan 0 agar tidak pernah membangun ulang filter Bloom.
BlockSignSize String Tidak Mengontrol jumlah peristiwa yang membentuk blok untuk tanda tangan blok. Jika disetel ke 0, penandatanganan blokir akan dinonaktifkan untuk indeks ini. Nilai yang direkomendasikan adalah 100.
Nama String Ya Nama indeks yang akan dibuat
MaxTotalDataSizeMB String Ya Ukuran maksimum indeks (dalam MB). Jika indeks tumbuh lebih besar dari ukuran maksimum, data terlama akan dibekukan.
MaxWarmDBCount String Tidak Jumlah maksimum bucket hangat. Jika jumlah ini terlampaui, bucket hangat dengan nilai terendah untuk waktu terbarunya akan dipindahkan ke dingin.
RawChunkSizeBytes String Tidak Ukuran yang tidak dikompresi dalam byte untuk setiap slice mentah dalam jurnal rawdata indeks. 0 bukan nilai yang valid. Jika 0 ditentukan, rawChunkSizeBytes akan ditetapkan ke nilai default.
DataType String Tidak Menentukan jenis indeks
MaxConcurrentOptimizes String Tidak Jumlah proses pengoptimalan serentak yang dapat dijalankan terhadap bucket aktif.
ThrottleCheckPeriod String Tidak Menentukan seberapa sering (dalam detik) Splunk memeriksa kondisi pembatasan indeks.
SyncMeta String Tidak Jika benar (true), operasi sinkronisasi dipanggil sebelum deskriptor file ditutup pada update file metadata. Fungsi ini meningkatkan integritas file metadata, terutama terkait dengan error sistem operasi atau kegagalan mesin.
RotatePeriodInSecs String Tidak Seberapa sering (dalam detik) harus memeriksa apakah bucket aktif baru perlu dibuat. Selain itu, seberapa sering harus memeriksa apakah ada bucket hangat atau dingin yang harus di-roll atau dibekukan.

Parameter output tindakan UpdateIndex

Tindakan ini menampilkan pesan konfirmasi tindakan UpdateIndex.

Untuk contoh cara mengonfigurasi tindakan UpdateIndex, lihat Contoh tindakan.

Contoh tindakan

Contoh - Membuat peristiwa HTTP

Contoh ini membuat peristiwa HTTP.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan CreateHTTPEvent, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "EventContent": "Testing Task",
    "ContentType": "RAWTEXT",
    "ChannelGUID": "ContentType=RAWTEXT"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas CreateHTTPEvent akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Success": "Success"
    }] 
    

Contoh - Membuat indeks

Contoh ini membuat indeks.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan CreateIndex, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Name": "http_testing"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas CreateIndex akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "AssureUTF8": null,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": null,
    "ColdPath": null,
    "FrozenTimePeriodInSecs": null,
    "HomePath": null,
    "HomePathExpanded": null,
    "IndexThreads": null,
    "IsInternal": null,
    "MaxConcurrentOptimizes": null,
    "MaxDataSize": null,
    "MaxHotBuckets": null,
    "SuppressBannerList": null,
    "Sync": null,
    "SyncMeta": null,
    "ThawedPath": null,
    "ThawedPathExpanded": null,
    "TstatsHomePath": null,
    "WarmToColdScript": null,
    }]

Contoh ini membuat penelusuran tersimpan.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan CreateSavedSearch, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Name": "test_created_g",
    "Search": "index=\"http_testing\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest",
    "UserContext": "nobody"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas CreateSavedSearch akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Success": true,
    "Message": null
    }]

Contoh ini memperbarui penelusuran tersimpan.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan UpdateSavedSearch, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Name": "test_created_g",
    "Search": "index=\"december_test_data\"",
    "CronSchedule": "*/1 * * * *",
    "IsVisible": true,
    "RealTimeSchedule": true,
    "RunOnStartup": true,
    "IsScheduled": true,
    "SchedulePriority": "highest"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas UpdateSavedSearch akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Success": true,
    "Message": null
    }]

Contoh - Menghapus indeks

Contoh ini menghapus indeks.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan DeleteIndex, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Name": "g_http_testing"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas DeleteIndex akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Contoh - Memperbarui indeks

Contoh ini memperbarui indeks.

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan UpdateIndex, lalu klik Selesai.
  3. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "MaxTotalDataSizeMB": "400000",
    "Name": "g_http_testing"
    }
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas UpdateIndex akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "AssureUTF8": false,
    "BlockSignSize": null,
    "BlockSignatureDatabase": null,
    "BucketRebuildMemoryHint": "auto",
    "ColdPath": "$SPLUNK_DB\\g_http_testing\\colddb",
    "ColdPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\colddb",
    "ColdToFrozenDir": "",
    "ColdToFrozenScript": "",
    "CurrentDBSizeMB": 1.0,
    "DefaultDatabase": "main",
    "EnableOnlineBucketRepair": true,
    "EnableRealtimeSearch": true,
    "FrozenTimePeriodInSecs": 1.886976E8,
    "HomePath": "$SPLUNK_DB\\g_http_testing\\db",
    "HomePathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\db",
    "IndexThreads": "auto",
    "IsInternal": false,
    "LastInitTime": "2024-01-08 05:15:28.0",
    "MaxBloomBackfillBucketAge": "30d",
    "ThawedPath": "$SPLUNK_DB\\g_http_testing\\thaweddb",
    "ThawedPathExpanded": "C:\\Program Files\\Splunk\\var\\lib\\splunk\\g_http_testing\\thaweddb",
    "ThrottleCheckPeriod": 15.0,
    "TotalEventCount": 0.0,
    "TsidxDedupPostingsListMaxTermsLimit": 8388608.0,
    "TstatsHomePath": "volume:_splunk_summaries\\$_index_name\\datamodel_summary",
    "WarmToColdScript": "",
    "Success": true,
    "ErrorCode": null,
    "ErrorMessage": null
    }]

Contoh operasi entity

Bagian ini menunjukkan cara melakukan beberapa operasi entitas di konektor ini.

Contoh - Mencantumkan semua catatan

Contoh ini mencantumkan semua data dalam entitas SearchJobs.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi List, lalu klik Selesai.
  4. Secara opsional, di bagian Input Tugas pada tugas Konektor, Anda dapat memfilter kumpulan hasil dengan menentukan klausa filter. Selalu tentukan nilai klausa filter dalam tanda kutip tunggal (').

Contoh - Mendapatkan rekaman dari entity

Contoh ini mendapatkan data dengan ID yang ditentukan dari entitas SearchJobs.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Get, lalu klik Selesai.
  4. Di bagian Task Input pada tugas Connectors, klik EntityId, lalu masukkan 1698309163.1300 di kolom Default Value.

    Di sini, 1698309163.1300 adalah ID data unik dalam entitas SearchJobs.

Contoh - Membuat rekaman dalam entitas

Contoh ini membuat data dalam entitas SearchJobs.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    { 
    "EventSearch": "search (index=\"antivirus_logs\") sourcetype=access_combined | rex  \"(?\\d{1,3}\\.\\d{1,3}\\.\\d{1,3}\\.\\d{1,3})\" | iplocation IP_address| table IP_address, City, Country" 
    } 
    

    Jika integrasi berhasil, parameter respons connectorOutputPayload tugas SearchJobs akan memiliki nilai yang mirip dengan berikut:

    {
    "Sid": "1699336785.1919"
    } 
    

Contoh - Membuat rekaman dalam entitas

Contoh ini membuat data dalam entitas DataModels.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih DataModels dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Id": "Test1",
    "Acceleration": "{\"enabled\":false,\"earliest_time\":\"\",
    \"max_time\":3600,\"backfill_time\":\"\",\"source_guid\":\"\",
    \"manual_rebuilds\":false,\"poll_buckets_until_maxtime\":false,
    \"max_concurrent\":3,\"allow_skew\":\"0\",\"schedule_priority\":\"default\"
    ,\"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }

    Jika integrasi berhasil, kolom connectorOutputPayload tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Id": "Test1"
    }]

Contoh - Menghapus data dari entity

Contoh ini menghapus data dengan ID yang ditentukan di entitas DataModels.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih DataModels dari daftar Entity.
  3. Pilih operasi Delete, lalu klik Selesai.
  4. Di bagian Task Input pada tugas Connectors, klik entityId, lalu masukkan Test1 di kolom Default Value.

Contoh - Memperbarui data dalam entity

Contoh ini memperbarui data dalam entitas DataModels.

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih DataModels dari daftar Entity.
  3. Pilih operasi Update, lalu klik Selesai.
  4. Di bagian Task Input pada tugas Connectors, klik connectorInputPayload, lalu masukkan nilai yang mirip dengan berikut di kolom Default Value:
    {
    "Acceleration": "{\"enabled\":true,\"earliest_time\":\"-3mon\",
    \"cron_schedule\":\"*/5 * * * *\",\"max_time\":60,
    \"backfill_time\":\"\",\"source_guid\":\"\",\"manual_rebuilds\":false,
    \"poll_buckets_until_maxtime\":false,\"max_concurrent\":3,
    \"allow_skew\":\"0\",\"schedule_priority\":\"default\",
    \"allow_old_summaries\":false,\"hunk.file_format\":\"\",\"hunk.dfs_block_size\":0,
    \"hunk.compression_codec\":\"\",\"workload_pool\":\"\"}"
    }
  5. Klik entityId, lalu masukkan /servicesNS/nobody/search/datamodel/model/Testing di kolom Default Value.

    Jika integrasi berhasil, kolom connectorOutputPayload tugas konektor Anda akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "Id": "/servicesNS/nobody/search/datamodel/model/Testing"
    }]

Contoh - Alur penelusuran menggunakan indeks

Bagian ini mencantumkan semua alur penelusuran menggunakan satu indeks dan beberapa indeks.

Membuat penelusuran menggunakan satu Indeks

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Jika integrasi berhasil, parameter respons connectorOutputPayload tugas SearchJobs akan memiliki nilai yang mirip dengan berikut:

    {
    "Sid": "1726051471.76"
    } 
    

Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih Index Name dari daftar Entity.
  3. Pilih operasi List, lalu klik Selesai.
  4. Bagian Input Tugas pada tugas Konektor, Anda dapat menetapkan filterClause, seperti Sid= '1726051471.76'.

  5. Jika integrasi berhasil, parameter respons connectorOutputPayload tugas Index Name akan memiliki nilai yang mirip dengan berikut:

    [{
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1726051471.76"
    }]
    

Membuat penelusuran menggunakan beberapa Indeks

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Jika integrasi berhasil, parameter respons connectorOutputPayload tugas SearchJobs akan memiliki nilai yang mirip dengan berikut:

    {
    "Sid": "1727261971.4007"
    } 
    

Operasi daftar menggunakan Nama Indeks yang digunakan dalam Kueri Penelusuran

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih Nama Index Name dari daftar Entity.
  3. Pilih operasi List, lalu klik Selesai.
  4. Task Input pada tugas Connectors, Anda dapat menetapkan filterClause, seperti Sid= '1727261971.4007'.

  5. Jika integrasi berhasil, parameter respons connectorOutputPayload tugas Index akan memiliki nilai yang mirip dengan berikut:

     [{
      "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.727155516E9,
      "_kv": null,
      "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
      "_serial": 0.0,
      "_si": "googlecloud-bcone-splunk-vm\ngooglecloud-demo",
      "_sourcetype": "Demo_Text",
      "_time": "2024-09-24 05:25:16.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "googlecloud-demo",
      "linecount": 3.0,
      "punct": null,
      "source": "Splunk_Demo.txt",
      "sourcetype": "Demo_Text",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }, {
      "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
      "_cd": "00:04:00",
      "_eventtype_color": null,
      "_indextime": 1.720702012E9,
      "_kv": null,
      "_raw": "hi How r yo\nplease\nfind \nmy notes",
      "_serial": 1.0,
      "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
      "_sourcetype": "googlecloud-testing",
      "_time": "2024-07-11 12:46:52.0",
      "eventtype": null,
      "host": "googlecloud-bcone-splunk-vm",
      "index": "http_testing",
      "linecount": 4.0,
      "punct": null,
      "source": "Testing.txt",
      "sourcetype": "googlecloud-testing",
      "splunk_server": "googlecloud-bcone-splunk-vm",
      "splunk_server_group": null,
      "timestamp": null,
      "JobId": "1727261971.4007"
    }]
    

Contoh - Alur penelusuran menggunakan ReadJobResults

Bagian ini mencantumkan semua alur penelusuran yang menggunakan indeks tunggal dan beberapa indeks yang didukung oleh koneksi Splunk. Mulai sekarang,ukuran payload maksimum untuk hasil log yang didukung adalah 150 MB.

Membuat penelusuran dengan indeks tunggal

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "EventSearch": "search (index=\"http_testing\" sourcetype=\"googlecloud-testing\") "
    }
    

    Contoh ini membuat penelusuran. Jika integrasi berhasil, parameter respons connectorOutputPayload tugas SearchJobs akan memiliki nilai yang mirip dengan berikut ini:

    {
    "Sid": "1732775755.24612"
    } 
    

Untuk mendapatkan hasil penelusuran, lakukan operasi pembuatan pada tindakan ReadJobResults. Untuk memastikan bahwa hasil difilter berdasarkan Sid, teruskan Sid sebagai parameter ke tindakan.

Mendapatkan log hasil menggunakan tindakan ReadJobResults

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan ReadJobResults, lalu klik Selesai.
  3. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "Sid": "1732775755.24612"
    }
    
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas ReadJobResults akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732775755.24612",
    "sid": "1732775755.24612"
    }]
    

Membuat penelusuran dengan beberapa indeks

  1. Dalam dialog Configure connector task, klik Entities.
  2. Pilih SearchJobs dari daftar Entity.
  3. Pilih operasi Create, lalu klik Selesai.
  4. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "EventSearch": "search (index=\"http_testing\" OR index= \"googlecloud-demo\" sourcetype=\"googlecloud-testing\"  OR sourcetype=\"Demo_Text\")"
    }
    

    Jika integrasi berhasil, parameter respons connectorOutputPayload tugas SearchJobs akan memiliki nilai yang mirip dengan berikut:

    {
    "Sid": "1732776556.24634"
    } 
    

Untuk mendapatkan hasil penelusuran, lakukan operasi pembuatan pada tindakan ReadJobResults. Untuk memastikan bahwa hasil difilter berdasarkan Sid, teruskan Sid sebagai parameter ke tindakan.

ResultsLogs menggunakan Tindakan ReadJobResults

  1. Dalam dialog Configure connector task, klik Actions.
  2. Pilih tindakan ReadJobResults, lalu klik Selesai.
  3. Di bagian Pemeta Data pada tugas Pemetaan Data, klik Open Data Mapping Editor, lalu masukkan nilai yang mirip dengan berikut di kolom Input Value dan pilih EntityId/ConnectorInputPayload sebagai Variabel lokal.
    {
    "Sid": "1732776556.24634"
    }
    
  4. Jika tindakan berhasil, parameter respons connectorOutputPayload tugas ReadJobResults akan memiliki nilai yang mirip dengan berikut ini:

    [{
    "_bkt": "googlecloud-demo~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1727155516",
    "_raw": "Hi team\nwe have a demo please plan accordingly\nwith Google team",
    "_serial": "0",
    "_si": "googlecloud-bcone-splunk-vm\googlecloud-demo",
    "_sourcetype": "Demo_Text",
    "_time": "2024-09-24T05:25:16.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "googlecloud-demo",
    "linecount": "3",
    "source": "Splunk_Demo.txt",
    "sourcetype": "Demo_Text",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    },{
    "_bkt": "http_testing~0~D043151E-5A2D-4FAB-8647-4D5DA2F288AF",
    "_cd": "0:4",
    "_indextime": "1720702012",
    "_raw": "hi How r yo\nplease\nfind \nmy notes",
    "_serial": "1",
    "_si": "googlecloud-bcone-splunk-vm\nhttp_testing",
    "_sourcetype": "googlecloud-testing",
    "_time": "2024-07-11T12:46:52.000+00:00",
    "host": "googlecloud-bcone-splunk-vm",
    "index": "http_testing",
    "linecount": "4",
    "source": "Testing.txt",
    "sourcetype": "googlecloud-testing",
    "splunk_server": "googlecloud-bcone-splunk-vm",
    "jobid": "1732776556.24634",
    "sid": "1732776556.24634"
    }]
    

    Membuat koneksi menggunakan Terraform

    Anda dapat menggunakan resource Terraform untuk membuat koneksi baru.

    Untuk mempelajari cara menerapkan atau menghapus konfigurasi Terraform, lihat Perintah dasar Terraform.

    Untuk melihat contoh template terraform untuk pembuatan koneksi, lihat contoh template.

    Saat membuat koneksi ini menggunakan Terraform, Anda harus menetapkan variabel berikut dalam file konfigurasi Terraform:

    Nama parameter Jenis data Wajib Deskripsi
    panjang STRING Salah Tingkat kejelasan untuk koneksi, bervariasi dari 1-5. Tingkat kejelasan yang lebih tinggi akan mencatat semua detail komunikasi (permintaan,respons & sertifikat SSL).
    proxy_enabled BOOLEAN Salah Centang kotak ini untuk mengonfigurasi server proxy untuk koneksi.
    proxy_auth_scheme ENUM Salah Jenis autentikasi yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer. Nilai yang didukung adalah: BASIC, DIGEST, NONE
    proxy_user STRING Salah Nama pengguna yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer.
    proxy_password SECRET Salah Sandi yang akan digunakan untuk melakukan autentikasi ke proxy ProxyServer.
    proxy_ssltype ENUM Salah Jenis SSL yang akan digunakan saat terhubung ke proxy ProxyServer. Nilai yang didukung adalah: AUTO, ALWAYS, NEVER, TUNNEL

    Menggunakan koneksi Splunk dalam integrasi

    Setelah Anda membuat koneksi, koneksi tersebut akan tersedia di Apigee Integration dan Application Integration. Anda dapat menggunakan koneksi dalam integrasi melalui tugas Konektor.

    • Untuk memahami cara membuat dan menggunakan tugas Konektor di Apigee Integration, lihat Tugas konektor.
    • Untuk memahami cara membuat dan menggunakan tugas Konektor di Integrasi Aplikasi, lihat Tugas konektor.

    Mendapatkan bantuan dari komunitas Google Cloud

    Anda dapat memposting pertanyaan dan mendiskusikan konektor ini di komunitas Google Cloud di Forum Cloud.

    Langkah berikutnya