Componenti di previsione batch

La risorsa BatchPredictionJob consente di eseguire una richiesta di previsione asincrona. Richiedi previsioni batch direttamente dalla risorsa model. Non è necessario eseguire il deployment del modello su un endpoint. Per i tipi di dati che supportano sia le previsioni batch che quelle online, puoi utilizzare le previsioni batch. Questa opzione è utile quando non hai bisogno di una risposta immediata e vuoi elaborare i dati accumulati utilizzando un'unica richiesta.

Per effettuare una previsione batch, specifica un'origine di input e una posizione di output in cui Vertex AI memorizzerà i risultati delle previsioni. Gli input e gli output dipendono dal tipo di model in uso. Ad esempio, le previsioni batch per un modello di immagine AutoML richiedono un file JSON Lines di input e il nome di un bucket Cloud Storage in cui archiviare l'output. Per ulteriori informazioni sulla previsione batch, consulta Ottenere previsioni batch.

Puoi utilizzare il componente ModelBatchPredictOp per accedere a questa risorsa tramite Vertex AI Pipelines.

Riferimento API

Tutorial

Cronologia delle versioni e note di rilascio

Per scoprire di più sulla cronologia delle versioni e sulle modifiche all'SDK Google Cloud Pipeline Components, consulta le Google Cloud note di rilascio dell'SDK Pipeline Components.

Contatti dell'assistenza tecnica

In caso di domande, scrivi all'indirizzo kubeflow-pipelines-components@google.com.