El recurso BatchPredictionJob
te permite ejecutar una solicitud de predicción asíncrona. Solicita predicciones por lotes directamente desde el recurso model
. No es necesario implementar el modelo en un endpoint
. Para los tipos de datos que admiten predicciones por lotes y en línea, puedes usar predicciones por lotes.
Esto es útil cuando no necesitas una respuesta inmediata y deseas procesar datos acumulados mediante una sola solicitud.
Si deseas realizar una predicción por lotes, especifica una fuente de entrada y una ubicación de salida para que Vertex AI almacene ahí los resultados de las predicciones. Las entradas y salidas dependen del tipo de model
con el que trabajas. Por ejemplo, las predicciones por lotes para el tipo de modelo de imagen de AutoML requieren un archivo de
líneas JSON
de entrada y el nombre de un bucket de Cloud Storage para almacenar el resultado.
Para obtener más información sobre la predicción por lotes, consulta Obtén predicciones por lotes.
Puedes usar el componente ModelBatchPredictOp
para acceder a este recurso a través de Vertex AI Pipelines.
Referencia de la API
- Para obtener la referencia del componente, consulta la referencia del SDK de componentes de canalización de Google Cloud para componentes de predicción por lotes.
- Para obtener una referencia de la API de Vertex AI, consulta la página del recurso
BatchPredictionJob
.
Instructivos
Historial de versiones y notas de la versión
Para obtener más información sobre el historial de versiones y los cambios en el SDK de componentes de canalización de Google Cloud, consulta las notas de la versión del SDK de componentes de canalización de Google Cloud.
Contactos de asistencia técnica
Si tienes alguna pregunta, comunícate con kubeflow-pipelines-components@google.com.