Organiza tus páginas con colecciones
Guarda y categoriza el contenido según tus preferencias.
Vertex AI ofrece predicciones en línea en Google Distributed Cloud (GDC) aislado a través de la API de Online Prediction. Una predicción es el resultado de un modelo de aprendizaje automático entrenado. Específicamente, las predicciones en línea son solicitudes síncronas realizadas en el extremo de tu modelo.
La Predicción en línea te permite subir, implementar, entregar y realizar solicitudes con tus propios modelos de predicción en un conjunto de contenedores compatibles.
Usa la predicción en línea cuando realices solicitudes en respuesta a la entrada de la aplicación o en situaciones que requieran una inferencia oportuna.
Puedes usar la API de Online Prediction si aplicas recursos personalizados de Kubernetes al clúster de predicción dedicado que crea tu operador de infraestructura (IO) para ti.
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Información o código de muestra incorrectos","incorrectInformationOrSampleCode","thumb-down"],["Faltan la información o los ejemplos que necesito","missingTheInformationSamplesINeed","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-07-16 (UTC)"],[[["Online Prediction is a Preview feature within Vertex AI on Google Distributed Cloud (GDC) air-gapped, designed for synchronous requests to trained machine-learning model endpoints, but not recommended for production environments."],["You can utilize Online Prediction to upload, deploy, serve, and request predictions from your own models using a set of specified containers."],["The Online Prediction API, accessed through Kubernetes custom resources, requires a dedicated prediction cluster set up by your Infrastructure Operator."],["Before using Online Prediction, you must export model artifacts and deploy the model to an endpoint, associating it with compute resources for low-latency predictions."],["Supported containers for Online Prediction in Distributed Cloud include TensorFlow (version 2.14 for both CPU and GPU) and PyTorch (version 2.1 for both CPU and GPU)."]]],[]]