BatchPredictionJob
資源可讓您執行非同步預測要求。直接透過 model
資源要求批次預測。您不需要將模型部署至 endpoint
。如果資料類型同時支援批次和線上預測,您可以使用批次預測。如果您不需要立即取得回應,並想透過單一要求處理累積的資料,就適合選用這個模式。
如要進行批次預測,請指定輸入來源和輸出位置,讓 Vertex AI 儲存預測結果。輸入和輸出內容取決於您使用的 model
類型。舉例來說,AutoML 圖像模型類型的批次預測需要輸入 JSON 行檔案,以及 Cloud Storage 值區的名稱,才能儲存輸出內容。如要進一步瞭解批次預測,請參閱「取得批次預測結果」。
您可以使用 ModelBatchPredictOp
元件,透過 Vertex AI Pipelines 存取這項資源。
API 參考資料
- 如需元件參考資料,請參閱 Google Cloud 批次預測元件的 SDK 參考資料。
- 如需 Vertex AI API 參考資料,請參閱
BatchPredictionJob
資源頁面。
教學課程
版本記錄和版本資訊
如要進一步瞭解 Google Cloud Pipeline Components SDK 的版本歷史記錄和變更,請參閱 Google Cloud Pipeline Components SDK 版本資訊。
技術支援聯絡人
如有任何疑問,請來信至 kubeflow-pipelines-components@google.com。