Componentes de predicción por lotes

El recurso BatchPredictionJob te permite ejecutar una solicitud de predicción asíncrona. Solicitar predicciones por lotes directamente desde el recurso model. No es necesario que despliegues el modelo en un endpoint. En el caso de los tipos de datos que admiten predicciones online y por lotes, puedes usar predicciones por lotes. Puedes usar esta función si no necesitas una respuesta inmediata y quieres procesar los datos acumulados a partir de una sola solicitud.

Para hacer una predicción por lotes, especifica una fuente de entrada y una ubicación de salida para que Vertex AI almacene los resultados de las predicciones. Las entradas y salidas dependen del model con el que estés trabajando. Por ejemplo, las predicciones por lotes del tipo de modelo de imagen de AutoML requieren un archivo JSON Lines de entrada y el nombre de un segmento de Cloud Storage para almacenar la salida. Para obtener más información sobre la predicción por lotes, consulta Obtener predicciones por lotes.

Puedes usar el componente ModelBatchPredictOp para acceder a este recurso a través de Vertex AI Pipelines.

Referencia de la API

Tutoriales

Historial de versiones y notas de las versiones

Para obtener más información sobre el historial de versiones y los cambios del SDK de componentes de la canalización de Google Cloud , consulta las Google Cloud notas de la versión del SDK de componentes de la canalización.

Contactos de asistencia técnica

Si tienes alguna pregunta, escribe a kubeflow-pipelines-components@google.com.