Template Pub/Sub ke File Avro di Cloud Storage

Template Pub/Sub to Avro files on Cloud Storage adalah pipeline streaming yang membaca data dari topik Pub/Sub dan menulis file Avro ke dalam bucket Cloud Storage yang ditentukan.

Persyaratan pipeline

  • Topik Pub/Sub input harus ada sebelum eksekusi pipeline.

Parameter template

Parameter yang diperlukan

  • inputTopic: Topik Pub/Sub yang akan dijadikan langganan untuk penggunaan pesan. Nama topik harus dalam format projects/<PROJECT_ID>/topics/<TOPIC_NAME>.
  • outputDirectory: Direktori output tempat file Avro output diarsipkan. Harus berisi / di bagian akhir. Misalnya: gs://example-bucket/example-directory/
  • avroTempDirectory: Direktori untuk file Avro sementara. Harus berisi / di bagian akhir. Misalnya: gs://example-bucket/example-directory/

Parameter opsional

  • outputFilenamePrefix: Awalan nama file output untuk file Avro. Defaultnya adalah: output.
  • outputFilenameSuffix: Suffix nama file output untuk file Avro. Nilai defaultnya adalah kosong.
  • outputShardTemplate: Template shard menentukan bagian dinamis dari setiap file berwindow. Secara default, pipeline menggunakan satu shard untuk output ke sistem file dalam setiap jendela. Oleh karena itu, semua output data akan masuk ke satu file per jendela. outputShardTemplate secara default adalah to W-P-SS-of-NN, dengan W adalah rentang tanggal jendela, P adalah info panel, S adalah nomor shard, dan N adalah jumlah shard. Jika ada satu file, bagian SS-of-NN dari outputShardTemplate adalah 00-of-01.
  • yearPattern: Pola untuk memformat tahun. Harus salah satu atau beberapa dari y atau Y. Huruf besar/kecil tidak memengaruhi tahun. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/). Setelan defaultnya adalah YYYY.
  • monthPattern: Pola untuk memformat bulan. Harus berupa satu atau beberapa karakter M. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/). Setelan defaultnya adalah MM.
  • dayPattern: Pola untuk memformat hari. Harus salah satu atau beberapa dari d untuk hari dalam bulan atau D untuk hari dalam tahun. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/). Setelan defaultnya adalah dd.
  • hourPattern: Pola untuk memformat jam. Harus berupa satu atau beberapa karakter H. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/). Setelan defaultnya adalah HH.
  • minutePattern: Pola untuk memformat menit. Harus berupa satu atau beberapa karakter m. Secara opsional, sertakan pola dengan karakter yang bukan alfanumerik atau karakter direktori (/). Setelan defaultnya adalah mm.

Menjalankan template

Konsol

  1. Buka halaman Dataflow Create job from template.
  2. Buka Membuat tugas dari template
  3. Di kolom Nama tugas, masukkan nama tugas yang unik.
  4. Opsional: Untuk Endpoint regional, pilih nilai dari menu drop-down. Region default-nya adalah us-central1.

    Untuk mengetahui daftar region tempat Anda dapat menjalankan tugas Dataflow, lihat Lokasi Dataflow.

  5. Dari menu drop-down Template Dataflow, pilih the Pub/Sub to Avro Files on Cloud Storage template.
  6. Di kolom parameter yang disediakan, masukkan nilai parameter Anda.
  7. Klik Run job.

gcloud

Di shell atau terminal Anda, jalankan template:

gcloud dataflow jobs run JOB_NAME \
    --gcs-location gs://dataflow-templates-REGION_NAME/VERSION/Cloud_PubSub_to_Avro \
    --region REGION_NAME \
    --staging-location STAGING_LOCATION \
    --parameters \
inputTopic=projects/PROJECT_ID/topics/TOPIC_NAME,\
outputDirectory=gs://BUCKET_NAME/output/,\
outputFilenamePrefix=FILENAME_PREFIX,\
outputFilenameSuffix=FILENAME_SUFFIX,\
outputShardTemplate=SHARD_TEMPLATE,\
avroTempDirectory=gs://BUCKET_NAME/temp/

Ganti kode berikut:

  • JOB_NAME: nama tugas unik pilihan Anda
  • REGION_NAME: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • STAGING_LOCATION: lokasi untuk menyiapkan file lokal (misalnya, gs://your-bucket/staging)
  • TOPIC_NAME: nama topik Pub/Sub
  • BUCKET_NAME: nama bucket Cloud Storage Anda
  • FILENAME_PREFIX: awalan nama file output pilihan
  • FILENAME_SUFFIX: akhiran nama file output pilihan
  • SHARD_TEMPLATE: template shard output pilihan

API

Untuk menjalankan template menggunakan REST API, kirim permintaan HTTP POST. Untuk mengetahui informasi selengkapnya tentang API dan cakupan otorisasinya, lihat projects.templates.launch.

POST https://dataflow.googleapis.com/v1b3/projects/PROJECT_ID/locations/LOCATION/templates:launch?gcsPath=gs://dataflow-templates-LOCATION/VERSION/Cloud_PubSub_to_Avro
{
   "jobName": "JOB_NAME",
   "environment": {
       "ipConfiguration": "WORKER_IP_UNSPECIFIED",
       "additionalExperiments": []
    },
   "parameters": {
       "inputTopic": "projects/PROJECT_ID/topics/TOPIC_NAME",
       "outputDirectory": "gs://BUCKET_NAME/output/",
       "avroTempDirectory": "gs://BUCKET_NAME/temp/",
       "outputFilenamePrefix": "FILENAME_PREFIX",
       "outputFilenameSuffix": "FILENAME_SUFFIX",
       "outputShardTemplate": "SHARD_TEMPLATE"
   }
}

Ganti kode berikut:

  • PROJECT_ID: ID Google Cloud project tempat Anda ingin menjalankan tugas Dataflow
  • JOB_NAME: nama tugas unik pilihan Anda
  • LOCATION: region tempat Anda ingin men-deploy tugas Dataflow—misalnya, us-central1
  • VERSION: versi template yang ingin Anda gunakan

    Anda dapat menggunakan nilai berikut:

  • STAGING_LOCATION: lokasi untuk menyiapkan file lokal (misalnya, gs://your-bucket/staging)
  • TOPIC_NAME: nama topik Pub/Sub
  • BUCKET_NAME: nama bucket Cloud Storage Anda
  • FILENAME_PREFIX: awalan nama file output pilihan
  • FILENAME_SUFFIX: akhiran nama file output pilihan
  • SHARD_TEMPLATE: template shard output pilihan

Langkah berikutnya