Resumen de cómo obtener inferencias en Vertex AI

Una inferencia es el resultado de un modelo de aprendizaje automático entrenado. En esta página se ofrece una descripción general del flujo de trabajo para obtener inferencias de tus modelos en Vertex AI.

Vertex AI ofrece dos métodos para obtener inferencias:

  • Las inferencias online son solicitudes síncronas que se realizan a un modelo desplegado en un Endpoint. Por lo tanto, antes de enviar una solicitud, primero debes implementar el recurso Model en un endpoint. De esta forma, se asocian recursos de computación al modelo para que este pueda ofrecer inferencias online con baja latencia. Usa inferencias online cuando hagas solicitudes en respuesta a la entrada de la aplicación o en situaciones que requieran inferencias oportunas.
  • Las inferencias por lotes son solicitudes asíncronas que se envían a un modelo que no se ha desplegado en un endpoint. Envías la solicitud (como un recurso BatchPredictionJob) directamente al recurso Model. Puedes usar esta función si no necesitas una respuesta inmediata y quieres procesar los datos acumulados a partir de una sola solicitud.

Obtener inferencias de modelos entrenados personalizados

Para obtener inferencias, primero debes importar tu modelo. Una vez importado, se convierte en un recurso Model que se puede ver en el registro de modelos de Vertex AI.

A continuación, consulta la siguiente documentación para saber cómo obtener inferencias:

Obtener inferencias de modelos de AutoML

A diferencia de los modelos entrenados personalizados, los modelos de AutoML se importan automáticamente al registro de modelos de Vertex AI después del entrenamiento.

Aparte de eso, el flujo de trabajo de los modelos de AutoML es similar, pero varía ligeramente en función del tipo de datos y del objetivo del modelo. La documentación para obtener inferencias de AutoML se encuentra junto con la otra documentación de AutoML. Aquí tienes enlaces a la documentación:

Imagen

Consulta cómo obtener inferencias de los siguientes tipos de modelos de AutoML de imágenes:

Tabular

Consulta cómo obtener inferencias de los siguientes tipos de modelos tabulares de AutoML:

Obtener inferencias de modelos de BigQuery ML

Puedes obtener inferencias de los modelos de BigQuery ML de dos formas:

  • Solicita inferencias por lotes directamente desde el modelo en BigQuery ML.
  • Registra los modelos directamente en Model Registry, sin exportarlos desde BigQuery ML ni importarlos a Model Registry.