El recurso BatchPredictionJob
te permite ejecutar una solicitud de predicción asíncrona. Solicitar predicciones por lotes directamente desde el recurso model
. No es necesario que despliegues el modelo en un endpoint
. En el caso de los tipos de datos que admiten predicciones online y por lotes, puedes usar predicciones por lotes.
Puedes usar esta función si no necesitas una respuesta inmediata y quieres procesar los datos acumulados a partir de una sola solicitud.
Para hacer una predicción por lotes, especifica una fuente de entrada y una ubicación de salida para que Vertex AI almacene los resultados de las predicciones. Las entradas y salidas dependen del model
con el que estés trabajando. Por ejemplo, las predicciones por lotes del tipo de modelo de imagen de AutoML requieren un archivo JSON Lines de entrada y el nombre de un segmento de Cloud Storage para almacenar la salida.
Para obtener más información sobre la predicción por lotes, consulta Obtener predicciones por lotes.
Puedes usar el componente ModelBatchPredictOp
para acceder a este recurso a través de Vertex AI Pipelines.
Referencia de la API
- Para obtener información de referencia sobre los componentes, consulta la Google Cloud referencia del SDK de componentes de predicción por lotes.
- Para consultar la referencia de la API Vertex AI, ve a la página del recurso
BatchPredictionJob
.
Tutoriales
Historial de versiones y notas de las versiones
Para obtener más información sobre el historial de versiones y los cambios del SDK de componentes de la canalización de Google Cloud , consulta las Google Cloud notas de la versión del SDK de componentes de la canalización.
Contactos de asistencia técnica
Si tienes alguna pregunta, escribe a kubeflow-pipelines-components@google.com.