Komponen prediksi batch

Resource BatchPredictionJob memungkinkan Anda menjalankan permintaan prediksi asinkron. Minta prediksi batch langsung dari resource model. Anda tidak perlu men-deploy model ke endpoint. Untuk jenis data yang mendukung prediksi batch dan online, Anda dapat menggunakan prediksi batch. Ini berguna jika Anda tidak memerlukan respons langsung dan ingin memproses data yang terakumulasi menggunakan satu permintaan.

Untuk membuat prediksi batch, tentukan sumber input dan lokasi output agar Vertex AI dapat menyimpan hasil prediksi. Input dan output bergantung pada jenis model yang Anda gunakan. Misalnya, prediksi batch untuk jenis model gambar AutoML memerlukan file JSON Lines input dan nama bucket Cloud Storage untuk menyimpan output. Untuk informasi lebih lanjut tentang prediksi batch, lihat Mendapatkan prediksi batch.

Anda dapat menggunakan komponen ModelBatchPredictOp untuk mengakses resource ini melalui Vertex AI Pipelines.

Referensi API

Tutorial

Histori versi dan catatan rilis

Untuk mempelajari lebih lanjut histori versi dan perubahan pada Google Cloud Pipeline Components SDK, lihat Catatan Rilis Google Cloud Pipeline Components SDK.

Kontak dukungan teknis

Jika ada pertanyaan, hubungi kubeflow-pipelines-components@google.com.