Ringkasan UI pembuat tugas

Builder tugas adalah UI visual untuk mem-build dan menjalankan pipeline Dataflow di konsol Google Cloud, tanpa perlu menulis kode.

Gambar berikut menampilkan detail dari UI pembuat tugas. Pada gambar ini, pengguna membuat pipeline untuk membaca dari Pub/Sub ke BigQuery:

Screenshot UI pembuat tugas

Ringkasan

Builder tugas mendukung pembacaan dan penulisan jenis data berikut:

  • Pesan Pub/Sub
  • Data tabel BigQuery
  • File CSV, file JSON, dan file teks di Cloud Storage
  • Data tabel PostgreSQL, MySQL, Oracle, dan SQL Server

Alat ini mendukung transformasi pipeline, termasuk filter, peta, SQL, pengelompokan menurut, join, dan eksplosi (pengembangan array).

Dengan pembuat tugas, Anda dapat:

  • Streaming dari Pub/Sub ke BigQuery dengan transformasi dan agregasi berbingkai
  • Menulis data dari Cloud Storage ke BigQuery
  • Menggunakan penanganan error untuk memfilter data yang salah (antrean surat tidak terkirim)
  • Memanipulasi atau menggabungkan data menggunakan SQL dengan transformasi SQL
  • Menambahkan, mengubah, atau menghapus kolom dari data dengan transformasi pemetaan
  • Menjadwalkan tugas batch berulang

Builder tugas juga dapat menyimpan pipeline sebagai file Apache Beam YAML dan memuat definisi pipeline dari file YAML Beam. Dengan menggunakan fitur ini, Anda dapat mendesain pipeline di pembuat tugas, lalu menyimpan file YAML di Cloud Storage atau repositori kontrol sumber untuk digunakan kembali. Definisi tugas YAML juga dapat digunakan untuk meluncurkan tugas menggunakan gcloud CLI.

Pertimbangkan pembuat tugas untuk kasus penggunaan berikut:

  • Anda ingin membuat pipeline dengan cepat tanpa menulis kode.
  • Anda ingin menyimpan pipeline ke YAML untuk digunakan kembali.
  • Pipeline Anda dapat dinyatakan menggunakan sumber, sink, dan transformasi yang didukung.
  • Tidak ada template yang disediakan Google yang cocok dengan kasus penggunaan Anda.

Menjalankan tugas contoh

Contoh Word Count adalah pipeline batch yang membaca teks dari Cloud Storage, membuat token baris teks menjadi kata individual, dan menjalankan penghitungan frekuensi pada setiap kata.

Jika bucket Cloud Storage berada di luar perimeter layanan Anda, buat aturan keluar yang mengizinkan akses ke bucket.

Untuk menjalankan pipeline Penghitungan Kata, ikuti langkah-langkah berikut:

  1. Buka halaman Jobs di konsol Google Cloud.

    Buka Tugas

  2. Klik Create job from template.

  3. Di panel samping, klik Pembuat tugas.

  4. Klik Muat blueprint.

  5. Klik Jumlah Kata. Builder tugas diisi dengan representasi grafik pipeline.

    Untuk setiap langkah pipeline, pembuat tugas menampilkan kartu yang menentukan parameter konfigurasi untuk langkah tersebut. Misalnya, langkah pertama membaca file teks dari Cloud Storage. Lokasi data sumber telah diisi sebelumnya di kotak Text location.

Screenshot pembuat tugas

  1. Temukan kartu yang berjudul Sink baru. Anda mungkin perlu men-scroll.

  2. Di kotak Text location, masukkan awalan jalur lokasi Cloud Storage untuk file teks output.

  3. Klik Run job. Builder tugas membuat tugas Dataflow, lalu membuka grafik tugas. Saat tugas dimulai, grafik tugas akan menampilkan representasi grafis pipeline. Representasi grafik ini mirip dengan yang ditampilkan di pembuat tugas. Saat setiap langkah pipeline berjalan, status akan diperbarui di grafik tugas.

Panel Info tugas menampilkan status keseluruhan tugas. Jika tugas berhasil selesai, kolom Status tugas akan diperbarui menjadi Succeeded.

Langkah berikutnya