Template Pub/Sub ke Cloud Storage Text adalah pipeline streaming yang membaca data dari topik Pub/Sub dan menyimpannya sebagai rangkaian file Cloud Storage dalam format teks. Template ini dapat digunakan sebagai cara cepat untuk menyimpan data di Pub/Sub untuk penggunaan di masa mendatang. Secara default, template ini akan membuat file baru setiap 5 menit.
Persyaratan pipeline
- Topik Pub/Sub harus ada sebelum eksekusi.
- Pesan yang dipublikasikan ke topik harus dalam format teks.
- Pesan yang dipublikasikan ke topik tidak boleh berisi baris baru. Perhatikan bahwa setiap pesan Pub/Sub disimpan sebagai satu baris di file output.
Parameter template
Parameter yang diperlukan
- outputDirectory: Awalan jalur dan nama file untuk menulis file output. Contoh,
gs://bucket-name/path/
. Nilai ini harus diakhiri dengan garis miring. - outputFilenamePrefix: Awalan yang akan ditempatkan pada setiap file berwindow. Contoh,
output-
. Defaultnya adalah: output.
Parameter opsional
- inputTopic: Topik Pub/Sub untuk membaca input. Nama topik harus dalam format
projects/<PROJECT_ID>/topics/<TOPIC_NAME>
. - userTempLocation: Direktori yang disediakan pengguna untuk menyimpan file sementara. Harus diakhiri dengan garis miring.
- outputFilenameSuffix: Suffix yang akan ditempatkan pada setiap file berwindow. Biasanya ekstensi file seperti
.txt
atau.csv
. Nilai defaultnya adalah kosong. - outputShardTemplate: Template shard menentukan bagian dinamis dari setiap file berwindow. Secara default, pipeline menggunakan satu shard untuk output ke sistem file dalam setiap jendela. Oleh karena itu, semua output data akan masuk ke satu file per jendela.
outputShardTemplate
secara default adalahto W-P-SS-of-NN
, denganW
adalah rentang tanggal jendela,P
adalah info panel,S
adalah nomor shard, danN
adalah jumlah shard. Jika ada satu file, bagianSS-of-NN
darioutputShardTemplate
adalah00-of-01
. - yearPattern: Pola untuk memformat tahun. Harus salah satu atau beberapa dari
y
atauY
. Huruf besar/kecil tidak memengaruhi tahun. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/
). Setelan defaultnya adalahYYYY
. - monthPattern: Pola untuk memformat bulan. Harus berupa satu atau beberapa karakter
M
. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/
). Setelan defaultnya adalahMM
. - dayPattern: Pola untuk memformat hari. Harus salah satu atau beberapa dari
d
untuk hari dalam bulan atauD
untuk hari dalam tahun. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/
). Setelan defaultnya adalahdd
. - hourPattern: Pola untuk memformat jam. Harus berupa satu atau beberapa karakter
H
. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/
). Setelan defaultnya adalahHH
. - minutePattern: Pola untuk memformat menit. Harus berupa satu atau beberapa karakter
m
. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/
). Setelan defaultnya adalahmm
.
Menjalankan template
Konsol
- Buka halaman Dataflow Create job from template. Buka Membuat tugas dari template
- Di kolom Nama tugas, masukkan nama tugas yang unik.
- Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region
default-nya adalah
us-central1
.Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.
- Dari menu drop-down Template Dataflow, pilih the Pub/Sub to Text Files on Cloud Storage template.
- Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
- Opsional: Untuk beralih dari pemrosesan tepat satu kali ke mode streaming minimal satu kali, pilih Minimal Satu Kali.
- Klik Run job.
gcloud
Di shell atau terminal Anda, jalankan template:
gcloud dataflow jobs run JOB_NAME \ --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_PubSub_to_GCS_Text \ --region REGION_NAME \ --staging-location STAGING_LOCATION \ --parameters \ inputTopic=projects/PROJECT_ID/topics/TOPIC_NAME,\ outputDirectory=gs://BUCKET_NAME/output/,\ outputFilenamePrefix=output-,\ outputFilenameSuffix=.txt
Ganti kode berikut:
JOB_NAME
: nama tugas unik pilihan AndaREGION_NAME
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan versi template terbaru, yang tersedia di folder induk tanpa tanggal di bucket— gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat di folder induk yang diberi tanggal di bucket— gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: lokasi untuk menyiapkan file lokal (misalnya,gs://your-bucket/staging
)TOPIC_NAME
: nama topik Pub/Sub AndaBUCKET_NAME
: nama bucket Cloud Storage Anda
API
Untuk menjalankan template menggunakan REST API, kirim permintaan HTTP POST. Untuk mengetahui informasi selengkapnya tentang
API dan cakupan otorisasinya, lihat
projects.templates.launch
.
POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_PubSub_to_GCS_Text { "jobName": "JOB_NAME", "environment": { "ipConfiguration": "WORKER_IP_UNSPECIFIED", "additionalExperiments": [] }, "parameters": { "inputTopic": "projects/PROJECT_ID/topics/TOPIC_NAME" "outputDirectory": "gs://BUCKET_NAME/output/", "outputFilenamePrefix": "output-", "outputFilenameSuffix": ".txt", } }
Ganti kode berikut:
PROJECT_ID
: ID Google Cloud project tempat Anda ingin menjalankan tugas DataflowJOB_NAME
: nama tugas unik pilihan AndaLOCATION
: region tempat Anda ingin men-deploy tugas Dataflow—misalnya,us-central1
VERSION
: versi template yang ingin Anda gunakanAnda dapat menggunakan nilai berikut:
latest
untuk menggunakan versi template terbaru, yang tersedia di folder induk tanpa tanggal di bucket— gs://dataflow-templates-REGION_NAME/latest/- nama versi, seperti
2023-09-12-00_RC00
, untuk menggunakan versi template tertentu, yang dapat ditemukan bertingkat di folder induk yang diberi tanggal di bucket— gs://dataflow-templates-REGION_NAME/
STAGING_LOCATION
: lokasi untuk menyiapkan file lokal (misalnya,gs://your-bucket/staging
)TOPIC_NAME
: nama topik Pub/Sub AndaBUCKET_NAME
: nama bucket Cloud Storage Anda
Langkah berikutnya
- Pelajari template Dataflow.
- Lihat daftar template yang disediakan Google.