Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Vertex AI bietet Onlinevorhersagen für Google Distributed Cloud (GDC) Air-Gap über die Online Prediction API. Eine Vorhersage ist die Ausgabe eines trainierten Modells für maschinelles Lernen. Onlinevorhersagen sind synchrone Anfragen an Ihren Modellendpunkt.
Mit Online Prediction können Sie Ihre eigenen Vorhersagemodelle in einer Reihe unterstützter Container hochladen, bereitstellen, bereitstellen und Anfragen stellen.
Verwenden Sie Onlinevorhersagen, wenn Sie Anfragen als Reaktion auf Anwendungseingaben stellen oder wenn zeitnahe Inferenzen erforderlich sind.
Sie können die Online Prediction API verwenden, indem Sie benutzerdefinierte Kubernetes-Ressourcen auf den dedizierten Vorhersagecluster anwenden, den Ihr Infrastructure Operator (IO) für Sie erstellt.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-07-16 (UTC)."],[[["Online Prediction is a Preview feature within Vertex AI on Google Distributed Cloud (GDC) air-gapped, designed for synchronous requests to trained machine-learning model endpoints, but not recommended for production environments."],["You can utilize Online Prediction to upload, deploy, serve, and request predictions from your own models using a set of specified containers."],["The Online Prediction API, accessed through Kubernetes custom resources, requires a dedicated prediction cluster set up by your Infrastructure Operator."],["Before using Online Prediction, you must export model artifacts and deploy the model to an endpoint, associating it with compute resources for low-latency predictions."],["Supported containers for Online Prediction in Distributed Cloud include TensorFlow (version 2.14 for both CPU and GPU) and PyTorch (version 2.1 for both CPU and GPU)."]]],[]]