Membuat aplikasi analisis tingkat keterisian dengan perkiraan BigQuery


Vertex AI Vision adalah platform berteknologi AI yang dapat Anda gunakan untuk menyerap, menganalisis, dan menyimpan data video . Dengan Vertex AI Vision, Anda dapat membangun dan men-deploy aplikasi AI. Anda dapat membuat solusi Vertex AI Vision end-to-end dengan memanfaatkan integrasi Vertex AI Vision dengan komponen produk lainnya.

Untuk mulai menerapkan solusi menggunakan platform Vertex AI Vision, tinjau konsep dan komponen Vertex AI Vision berikut:

  • Streaming: Merepresentasikan lapisan streaming video dari solusi Anda. Sumber streaming dapat berupa video live (misalnya, kamera IP) atau file video (misalnya, file MP4).

  • Aplikasi: Aktifkan koneksi antara streaming dan prosesor AI untuk melakukan operasi machine learning pada video. Misalnya, Anda dapat menghubungkan aliran kamera ke model AI yang menghitung orang yang lewat di depannya.

  • Tujuan output aplikasi: Kirim data yang dianalisis ke tujuan penyimpanan (Media Warehouse Vertex AI Vision atau BigQuery) atau terima data live. Menyimpan ke Media Warehouse Vertex AI Vision memungkinkan Anda menelusuri output analisis dan metadata dari pemroses AI yang digunakan pada data dari streaming yang di-ingest. Menyimpan ke BigQuery memungkinkan Anda menggunakan kemampuan analisis offline produk. Jika menerima output aplikasi secara langsung, Anda dapat menggunakan insight untuk langsung menginformasikan keputusan bisnis. Untuk mengetahui informasi selengkapnya, lihat Ringkasan: Menghubungkan output aplikasi ke tujuan data.

Tujuan

Tutorial ini menunjukkan kepada Anda cara melakukan hal berikut:

  • Buat set data dan tabel BigQuery.
  • Buat aplikasi analisis tingkat keterisian Vertex AI Vision yang terhubung ke BigQuery.
  • Buat instance VM Compute Engine dan siapkan lingkungannya.
  • Streaming video dari instance VM ke aplikasi.
  • Gunakan output aplikasi yang disimpan untuk membuat model perkiraan dengan BigQuery ML.

Biaya

Dalam dokumen ini, Anda akan menggunakan komponen Google Cloudyang dapat ditagih berikut:

Untuk membuat perkiraan biaya berdasarkan proyeksi penggunaan Anda, gunakan kalkulator harga.

Pengguna Google Cloud baru mungkin memenuhi syarat untuk mendapatkan uji coba gratis.

Setelah menyelesaikan tugas yang dijelaskan dalam dokumen ini, Anda dapat menghindari penagihan berkelanjutan dengan menghapus resource yang Anda buat. Untuk mengetahui informasi selengkapnya, lihat Pembersihan.

Sebelum memulai

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. Enable the BigQuery, Compute Engine and Vision AI APIs.

    Enable the APIs

  5. Create a service account:

    1. In the Google Cloud console, go to the Create service account page.

      Go to Create service account
    2. Select your project.
    3. In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.

      In the Service account description field, enter a description. For example, Service account for quickstart.

    4. Click Create and continue.
    5. Grant the following roles to the service account: Vision AI > Vision AI Editor, Compute Engine > Compute Instance Admin (beta), BigQuery > BigQuery Data Owner, Storage > Storage Object Viewer.

      To grant a role, find the Select a role list, then select the role.

      To grant additional roles, click Add another role and add each additional role.

    6. Click Continue.
    7. Click Done to finish creating the service account.

      Do not close your browser window. You will use it in the next step.

  6. Create a service account key:

    1. In the Google Cloud console, click the email address for the service account that you created.
    2. Click Keys.
    3. Click Add key, and then click Create new key.
    4. Click Create. A JSON key file is downloaded to your computer.
    5. Click Close.
  7. Install the Google Cloud CLI.

  8. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  9. To initialize the gcloud CLI, run the following command:

    gcloud init
  10. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  11. Make sure that billing is enabled for your Google Cloud project.

  12. Enable the BigQuery, Compute Engine and Vision AI APIs.

    Enable the APIs

  13. Create a service account:

    1. In the Google Cloud console, go to the Create service account page.

      Go to Create service account
    2. Select your project.
    3. In the Service account name field, enter a name. The Google Cloud console fills in the Service account ID field based on this name.

      In the Service account description field, enter a description. For example, Service account for quickstart.

    4. Click Create and continue.
    5. Grant the following roles to the service account: Vision AI > Vision AI Editor, Compute Engine > Compute Instance Admin (beta), BigQuery > BigQuery Data Owner, Storage > Storage Object Viewer.

      To grant a role, find the Select a role list, then select the role.

      To grant additional roles, click Add another role and add each additional role.

    6. Click Continue.
    7. Click Done to finish creating the service account.

      Do not close your browser window. You will use it in the next step.

  14. Create a service account key:

    1. In the Google Cloud console, click the email address for the service account that you created.
    2. Click Keys.
    3. Click Add key, and then click Create new key.
    4. Click Create. A JSON key file is downloaded to your computer.
    5. Click Close.
  15. Install the Google Cloud CLI.

  16. If you're using an external identity provider (IdP), you must first sign in to the gcloud CLI with your federated identity.

  17. To initialize the gcloud CLI, run the following command:

    gcloud init
  18. Peran hanya diperlukan jika Anda menyalin file video contoh dari bucket Cloud Storage.

Menyiapkan BigQuery untuk menerima data

Agar dapat menerima data dan membuat prediksi dari data aplikasi analisis Anda, Anda harus membuat set data dan tabel BigQuery yang cocok dengan informasi yang diproses.

Membuat set data

Sebelum dapat membuat tabel BigQuery, Anda harus membuat set data terlebih dahulu untuk menerima informasi yang dianalisis dari aplikasi Anda.

Konsol

  1. Buka halaman BigQuery di konsol Google Cloud .

    Buka halaman BigQuery

  2. Di panel Explorer, pilih project tempat Anda ingin membuat set data.

  3. Luaskan opsi Actions, lalu klik Create dataset.

  4. Di halaman Create dataset:

    • Untuk Dataset ID, masukkan occupancy_dataset.
    • Untuk Data location, pilih lokasi geografis untuk set data. Setelah set data dibuat, lokasi tidak dapat diubah.

    • Untuk Default table expiration, pilih salah satu opsi berikut:

      • Tidak Pernah: (Default) Tabel yang dibuat dalam set data tidak akan pernah dihapus secara otomatis. Anda harus menghapusnya secara manual.
      • Jumlah hari setelah pembuatan tabel: Nilai ini menentukan kapan tabel yang baru dibuat dalam set data akan dihapus. Nilai ini diterapkan jika Anda tidak menetapkan akhir masa berlaku tabel saat tabel dibuat.

    • Klik Create dataset.

Membuat tabel BigQuery

Konsol

  1. Di Google Cloud konsol, buka halaman BigQuery.

    Buka BigQuery

  2. Di panel Explorer, luaskan project Anda, lalu pilih set data occupancy_dataset.
  3. Di bagian Dataset info, klik Create table.
  4. Di panel Create table, tentukan detail berikut:
    1. Di bagian Source, pilih Empty table dalam daftar Create table from.
    2. Di bagian Tujuan, tentukan detail berikut:
      1. Pastikan occupancy_dataset ditentukan di kolom Set data.
      2. Di kolom Tabel, masukkan occupancy_dataset_table.
      3. Pastikan kolom Table type disetel ke Native table.
    3. Di bagian Schema, masukkan definisi skema. Anda dapat memasukkan informasi skema secara manual dengan melakukan hal berikut:
      • Klik Edit as text dan tempelkan skema array JSON berikut. Saat menggunakan array JSON, Anda menghasilkan skema menggunakan proses yang sama seperti membuat file skema JSON.
        [
            {
              "name": "ingestion_time",
              "type": "TIMESTAMP",
              "mode": "REQUIRED"
            },
            {
              "name": "application",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "instance",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "node",
              "type": "STRING",
              "mode": "REQUIRED"
            },
            {
              "name": "annotation",
              "type": "STRING"
            }
        ]
    4. Klik Create table.

Membuat aplikasi penghitungan tingkat keterisian

Setelah menyiapkan set data dan tabel BigQuery, Anda dapat membuat aplikasi yang memproses data yang dikirim ke resource BigQuery ini.

Buat aplikasi kosong

Sebelum dapat mengisi grafik aplikasi, Anda harus membuat aplikasi kosong terlebih dahulu.

Konsol

Buat aplikasi di konsol Google Cloud .

  1. Buka tab Aplikasi di dasbor Vertex AI Vision.

    Buka tab Aplikasi

  2. Klik tombol Create.

  3. Masukkan occupancy-bq-app sebagai nama aplikasi dan pilih wilayah Anda.

  4. Klik Buat.

Menambahkan node komponen aplikasi

Setelah membuat aplikasi kosong, Anda dapat menambahkan tiga node ke grafik aplikasi:

  1. Node penyerapan: Resource streaming yang menyerap data yang dikirim dari instance VM Compute Engine yang Anda buat.
  2. Node pemrosesan: Model analisis hunian yang bertindak berdasarkan data yang dimasukkan.
  3. Node BigQuery: Node konektor yang memungkinkan aplikasi Anda menyimpan metadata ke tabel BigQuery.

Konsol

Tambahkan node komponen ke aplikasi Anda di konsol.

  1. Buka tab Aplikasi di dasbor Vertex AI Vision.

    Buka tab Aplikasi

  2. Di baris occupancy-bq-app, pilih Lihat grafik. Tindakan ini akan membawa Anda ke visualisasi grafik pipeline pemrosesan.

Menambahkan node penyerapan data

  1. Untuk menambahkan node aliran input, pilih opsi Streams di bagian Connectors pada menu samping.

  2. Di bagian Sumber pada menu Stream yang terbuka, pilih Tambahkan stream.

  3. Di menu Add streams, pilih Register new streams, lalu tambahkan occupancy-bq-stream sebagai nama stream.

  4. Untuk menambahkan aliran ke grafik aplikasi, klik Tambahkan aliran.

Menambahkan node pemrosesan data

  1. Untuk menambahkan node model jumlah hunian, pilih opsi analisis hunian di bagian Model khusus pada menu samping.

  2. Biarkan pilihan default Orang dan Kendaraan.

Menambahkan node BigQuery

  1. Untuk menambahkan node tujuan output (penyimpanan), pilih opsi BigQuery di bagian Connectors pada menu samping.

  2. Di menu BigQuery, telusuri occupancy_dataset_table, lalu pilih tabel Anda.

  3. Di bagian Simpan metadata dari:, pilih Aliran dan Analisis hunian.

Men-deploy aplikasi untuk digunakan

Setelah Anda membuat aplikasi end-to-end dengan semua komponen yang diperlukan, langkah terakhir untuk menggunakan aplikasi adalah men-deploy-nya.

Konsol

  1. Buka tab Aplikasi di dasbor Vertex AI Vision.

    Buka tab Aplikasi

  2. Pilih Lihat grafik di samping aplikasi occupancy-bq-app dalam daftar.

  3. Dari halaman pembuat grafik aplikasi, klik tombol Deploy.

  4. Pada dialog konfirmasi berikutnya, pilih Deploy.

    Operasi deployment mungkin memerlukan waktu beberapa menit hingga selesai. Setelah deployment selesai, tanda centang hijau akan muncul di samping node.

Menyiapkan komputer jarak jauh untuk melakukan streaming video

Setelah aplikasi penghitung hunian yang di-deploy siap menerima, memproses, dan menyimpan data streaming ke tabel BigQuery, Anda harus benar-benar melakukan streaming data video ke aplikasi.

Dalam tutorial ini, Anda akan membuat instance VM Compute Engine yang menghosting video, dan mengirim data video streaming tersebut dari VM.

Membuat VM Linux

Langkah pertama dalam mengirim video dari instance VM Compute Engine adalah membuat instance VM.

Konsol

  1. Di konsol, buka halaman VM instances.

    Buka instance VM

  2. Pilih project Anda, lalu klik Continue.

  3. Klik Create instance.

  4. Tentukan Name untuk VM Anda. Untuk informasi selengkapnya, lihat Konvensi penamaan resource.

  5. Opsional: Ubah Zone untuk VM ini. Compute Engine mengacak daftar zone di dalam setiap region untuk mendorong penggunaan di beberapa zone.

  6. Terima opsi default yang tersisa. Untuk mengetahui informasi selengkapnya tentang opsi ini, lihat Membuat dan memulai VM.

  7. Untuk membuat dan memulai VM, klik Create.

Menyiapkan lingkungan VM

Setelah VM dimulai, Anda dapat menggunakan konsol untuk membuat koneksi SSH di browser. Setelah membuat koneksi ini, Anda dapat mendownload alat command line vaictl untuk menyerap video ke dalam aplikasi Anda.

Konsol

Buat koneksi SSH ke VM Anda

  1. Di konsol, buka halaman VM instances.

    Buka instance VM

  2. Di bagian Connect pada baris instance yang Anda buat, klik SSH. Tindakan ini akan membuka koneksi SSH di jendela browser baru.

    Opsi SSH di UI

Download alat command line vaictl

  1. Di jendela SSH-in-browser, download alat command line Vertex AI Vision (vaictl) menggunakan perintah berikut:

    wget https://github.com/google/visionai/releases/download/v0.0.5/visionai_0.0-5_amd64.deb
    
  2. Instal alat command line dengan menjalankan perintah berikut:

    sudo apt install ./visionai_0.0-5_amd64.deb
    
  3. Anda dapat menguji penginstalan dengan menjalankan perintah berikut:

    vaictl --help
    

Menyerap file video ke dalam aplikasi Anda

Setelah menyiapkan lingkungan VM, Anda dapat menyalin file video contoh, lalu menggunakan vaictl untuk melakukan streaming data video ke aplikasi penghitung hunian.

Setelah mengirim perintah ini, Anda harus membiarkan beberapa jam data dialirkan sebelum melanjutkan ke langkah berikutnya.

SSH di browser

Menyalin video contoh ke VM Anda

  1. Di jendela SSH-in-browser untuk VM Anda, salin contoh video dengan perintah gcloud storage cp berikut. Ganti variabel berikut:
    • SOURCE: Lokasi file video yang akan digunakan. Anda dapat menggunakan sumber file video Anda sendiri (misalnya, gs://BUCKET_NAME/FILENAME.mp4), atau menggunakan salah satu video contoh:
      • gs://cloud-samples-data/vertex-ai-vision/street_vehicles_people.mp4 (video dengan orang dan kendaraan, sumber video)
      • gs://cloud-samples-data/vertex-ai-vision/highway_vehicles.mp4 (video hanya dengan kendaraan, sumber video)
    gcloud storage cp SOURCE .

Streaming video dari VM dan menyerap data ke dalam aplikasi Anda

  1. Untuk mengirim file video lokal ini ke aliran input aplikasi, gunakan perintah berikut. Anda harus melakukan penggantian variabel berikut:
    • PROJECT_ID: ID project Google Cloud Anda.
    • LOCATION_ID: ID lokasi Anda. Misalnya, us-central1. Informasi selengkapnya.
    • LOCAL_FILE.EXT: Nama file video lokal. Contoh, my-video.mp4.
    • Flag --loop: Opsional. Mengulang data file untuk menyimulasikan streaming.

    Perintah ini akan melakukan streaming file video ke stream. Jika menggunakan flag --loop, video akan diulang ke dalam streaming hingga Anda menghentikan perintah:

    vaictl -p PROJECT_ID \
        -l LOCATION_ID \
        -c application-cluster-0 \
        --service-endpoint visionai.googleapis.com \
    send video-file to streams 'occupancy-bq-stream' --file-path LOCAL_FILE.EXT --loop

Mungkin diperlukan waktu ~100 detik antara memulai operasi penyerapan vaictl dan video muncul di dasbor.

Setelah penyerapan streaming tersedia, Anda dapat melihat feed video di tab Streams di dasbor Vertex AI Vision dengan memilih streaming occupancy-bq-stream.

Buka tab Streams

Membangun model perkiraan dengan BigQuery ML

Sekarang Anda memiliki aplikasi yang berfungsi dan menyimpan metadata ke BigQuery. Setelah memiliki data yang di-streaming ke aplikasi selama beberapa jam, Anda dapat mulai membuat model perkiraan dengan BigQuery ML.

Opsional: Menjalankan kueri tingkat keterisian

Anda dapat melihat data yang dihasilkan aplikasi yang disimpan ke tabel dengan menjalankan kueri sederhana.

Konsol

  1. Di Google Cloud konsol, buka halaman BigQuery.

    Buka BigQuery

  2. Pilih Luaskan di samping occupancy_dataset, lalu pilih occupancy_dataset_table.

  3. Di tampilan detail tabel, klik Compose new query.

    Tulis kueri baru

  4. Masukkan kueri Google Standard SQL berikut di area teks Query editor:

    SELECT
     *
    FROM (
     SELECT
       TIMESTAMP_TRUNC(PARSE_TIMESTAMP('"%Y-%m-%dT%H:%M:%E*SZ"', JSON_QUERY(annotation,
             "$.currentTime")), MINUTE) currentTime,
       CAST(JSON_QUERY(annotation,
           '$.stats.fullFrameCount[0].count') AS INT64) AS count,
       JSON_QUERY(annotation,
         '$.stats.fullFrameCount[0].entity.labelString') AS type
     FROM
       `PROJECT_ID.occupancy_dataset.occupancy_dataset_table` )
    WHERE
     count IS NOT NULL
  5. Opsional: Untuk mengubah lokasi pemrosesan data, klik Lainnya, lalu Setelan kueri. Di bagian Lokasi pemrosesan, klik Pilih otomatis dan pilih lokasi data Anda. Terakhir, klik Simpan untuk memperbarui setelan kueri.

  6. Klik Run.

Tindakan ini akan membuat tugas kueri yang menulis output ke tabel sementara.

Menjalankan kueri ini akan menghasilkan tabel dengan informasi waktu dan jumlah saat orang berada dalam video.

currentTime jumlah jenis
2022-08-10 16.17.00 UTC 2 "Orang"
2022-08-10 16.17.00 UTC 2 "Orang"
2022-08-10 16.17.00 UTC 4 "Orang"
2022-08-10 16.17.00 UTC 1 "Orang"
2022-08-10 16.17.00 UTC 5 "Orang"
2022-08-10 16.17.00 UTC 2 "Orang"

Membuat tampilan untuk pelatihan

Setelah melihat data yang disimpan ke tabel, Anda dapat membuat tampilan, lalu memeriksa isi tabel yang dihasilkan. Anda menggunakan data penayangan ini untuk melatih model perkiraan.

Anda dapat membuat tampilan dengan menulis kueri SQL yang digunakan untuk menentukan data yang dapat diakses oleh tampilan. Kueri SQL harus terdiri dari pernyataan SELECT. Untuk mengetahui informasi selengkapnya tentang tampilan BigQuery, lihat Pengantar tampilan.

Untuk membuat tampilan tabel pelatihan:

Konsol

  1. Di Google Cloud konsol, buka halaman BigQuery.

    Buka BigQuery

  2. Pilih Luaskan di samping occupancy_dataset, lalu pilih occupancy_dataset_table.

  3. Di tampilan detail tabel, klik Compose new query.

    Tulis kueri baru

  4. Masukkan kueri Google Standard SQL berikut di area teks Query editor:

    CREATE VIEW `PROJECT_ID.occupancy_dataset.forecast_training_data` AS (
      WITH
        raw_counts AS (
        SELECT
          *
        FROM (
          SELECT
            TIMESTAMP_TRUNC(
              PARSE_TIMESTAMP('"%Y-%m-%dT%H:%M:%E*SZ"',
                              JSON_QUERY(annotation,
                                          "$.currentTime")),
                            MINUTE) AS currentTime,
            CAST(JSON_QUERY(annotation,
                '$.stats.fullFrameCount[0].count') AS INT64) AS count,
            JSON_QUERY(annotation,
              '$.stats.fullFrameCount[0].entity.labelString') AS type
          FROM
            `PROJECT_ID.occupancy_dataset.occupancy_dataset_table` )
        WHERE
          count IS NOT NULL )
      SELECT
        currentTime,
        SUM(count) AS total_count,
        type
      FROM
        raw_counts
      GROUP BY
        currentTime, type)
  5. Klik Run.

Opsional: Buat kueri tampilan

Jalankan kueri berikut untuk melihat hasil data pelatihan tampilan baru:

Konsol

  1. Di tampilan detail tabel occupancy_dataset_table, klik Tulis kueri baru.

  2. Masukkan kueri Google Standard SQL berikut di area teks Query editor:

    SELECT
     *
    FROM
      `PROJECT_ID.occupancy_dataset.forecast_training_data`
    ORDER BY
     currentTime, type
    LIMIT
     100
  3. Klik Run.

Tindakan ini akan menampilkan hasil yang diurutkan berdasarkan waktu yang terlihat seperti berikut:

currentTime total_count jenis
2022-08-10 16.17.00 UTC 129 "Orang"
2022-08-10 16.18.00 UTC 150 "Orang"
2022-08-10 16.19.00 UTC 80 "Orang"
2022-08-10 16.20.00 UTC 129 "Orang"
2022-08-10 16.21.00 UTC 142 "Orang"
2022-08-10 16:22:00 UTC 71 "Orang"
2022-08-10 16:22:00 UTC 2 "Kendaraan"

Latih model perkiraan dengan BigQuery ML

Setelah memiliki data dalam tampilan untuk berfungsi sebagai data pelatihan, Anda dapat melatih model perkiraan dengan BigQuery ML.

Konsol

  1. Di tampilan detail tabel occupancy_dataset_table, klik Tulis kueri baru.

  2. Masukkan kueri Google Standard SQL berikut di area teks Query editor:

    CREATE OR REPLACE MODEL `PROJECT_ID.occupancy_dataset.occupancy_forecast_model`
      OPTIONS( MODEL_TYPE = "ARIMA_PLUS",
        TIME_SERIES_TIMESTAMP_COL = "currentTime",
        TIME_SERIES_DATA_COL = "total_count",
        TIME_SERIES_ID_COL = "type" ) AS
    SELECT
      *
    FROM
      `PROJECT_ID.occupancy_dataset.forecast_training_data`
  3. Klik Run.

Kueri membutuhkan waktu beberapa menit hingga selesai. Setelah iterasi pertama selesai, model Anda (occupancy_forecast_model) akan muncul di panel navigasi. Karena kueri ini menggunakan pernyataan CREATE MODEL untuk membuat model, Anda tidak akan melihat hasil kueri.

Anda dapat mengamati model saat sedang dilatih dengan melihat tab Statistik model. Segera setelah iterasi pertama selesai, tab akan diupdate. Statistik akan terus diupdate saat setiap iterasi selesai.

Mendapatkan prediksi tingkat keterisian dengan BigQuery

Setelah model selesai dilatih, Anda bisa mendapatkan prediksi dari model tentang jumlah hunian.

Kueri ML.FORECAST berikut menggunakan input fungsi HORIZON untuk membuat perkiraan 60 menit berikutnya.

Konsol

  1. Di tampilan detail tabel occupancy_dataset_table, klik Tulis kueri baru.

  2. Masukkan kueri Google Standard SQL berikut di area teks Query editor:

    SELECT
      *
    FROM
      ML.FORECAST(MODEL `PROJECT_ID.occupancy_dataset.occupancy_forecast_model`,
      STRUCT(60 AS HORIZON))
  3. Klik Run.

Model ini menghasilkan perkiraan dalam forecast_value untuk stempel waktu mendatang dengan jenis "Person". Misalnya, pada 2022-08-12 di 11:06:00, model memperkirakan akan ada total ~15,26 "Orang".

jenis forecast_timestamp forecast_value standard_error confidence_level prediction_interval_lower_bound prediction_interval_upper_bound
"Orang" 2022-08-12 11:06:00 UTC 15.2621986941298 2.56470066 0,95 10.2444693 20.2799280
"Orang" 2022-08-12 11.07.00 UTC 13,235260043001354 3.19379743 0,95 6.98672921 19.4837908
"Orang" 2022-08-12 11.08.00 UTC 16.257331475128712 3,87581375 0,95 8.67446430 23.8401986
"Orang" 2022-08-12 11.09.00 UTC 31.432229611853742 4.24905293 0,95 23.1191356 39.7453236
"Orang" 2022-08-12 11.10.00 UTC 26.199214148193725 4,26157413 0,95 17,8616229 34,5368053
"Orang" 2022-08-12 11:11:00 UTC 26,211573546307324 4.27962512 0,95 17,8386663 34,5844807

Pembersihan

Agar tidak perlu membayar biaya pada akun Google Cloud Anda untuk resource yang digunakan dalam tutorial ini, hapus project yang berisi resource tersebut, atau simpan project dan hapus setiap resource.

Menghapus project

  1. In the Google Cloud console, go to the Manage resources page.

    Go to Manage resources

  2. In the project list, select the project that you want to delete, and then click Delete.
  3. In the dialog, type the project ID, and then click Shut down to delete the project.

Menghapus resource satu per satu

Menghapus instance VM Compute Engine

  1. In the Google Cloud console, go to the VM instances page.

    Go to VM instances

  2. Select the checkbox for the instance that you want to delete.
  3. To delete the instance, click More actions, click Delete, and then follow the instructions.

Menghapus set data BigQuery

  1. In the Google Cloud console, open the BigQuery page.

    Go to BigQuery

  2. Select expand next to your project and locate your occupancy_dataset dataset.
  3. To delete the dataset, click Actions, click Delete, and then follow the instructions.

Menghapus feed

  1. In the Google Cloud console, go to the Streams page.

    Go to the Streams tab

  2. Locate your occupancy-bq-stream stream.
  3. To delete the stream, click Actions, click Delete stream, and then follow the instructions.

Menghapus aplikasi

  1. In the Google Cloud console, go to the Applications page.

    Go to the Applications tab

  2. Locate your occupancy-bq-app app.
  3. To delete the app, click Actions, click Delete application, and then follow the instructions.

Langkah berikutnya