La risorsa BatchPredictionJob
consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni batch direttamente dalla risorsa model
. Non è necessario eseguire il deployment del modello su un endpoint
. Per i tipi di dati che supportano sia le previsioni batch che quelle online, puoi utilizzare le previsioni batch.
Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare
i dati accumulati utilizzando un'unica richiesta.
Per effettuare una previsione batch, specifica un'origine di input e una posizione di output
in cui Vertex AI memorizzerà i risultati delle previsioni. Gli input e gli output
dipendono dal tipo di model
in uso. Ad esempio, le previsioni batch per un modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output.
Per ulteriori informazioni sulla previsione batch, consulta
Ottenere previsioni batch.
Puoi utilizzare il componente ModelBatchPredictOp
per accedere a questa risorsa tramite Vertex AI Pipelines.
Riferimento API
- Per il riferimento ai componenti, consulta il riferimento all'SDK per i componenti di previsione batch.Google Cloud
- Per il riferimento dell'API Vertex AI, consulta la pagina della risorsa
BatchPredictionJob
.
Tutorial
Cronologia delle versioni e note di rilascio
Per scoprire di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Components, consulta le Google Cloud note di rilascio dell'SDK Pipeline Components.
Contatti dell'assistenza tecnica
In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.