Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Eine Vorhersage ist die Ausgabe eines trainierten Modells für maschinelles Lernen. Diese Seite bietet einen Überblick über den Workflow zum Abrufen von Vorhersagen aus Ihren Modellen in Vertex AI.
Vertex AI bietet zwei Methoden zum Abrufen von Vorhersagen:
Onlinevorhersagen sind synchrone Anfragen an ein Modell, das auf einem endpoint bereitgestellt wird. Entsprechend müssen Sie vor dem Senden einer Anfrage zuerst die Ressource Model auf einem Endpunkt bereitstellen. Dadurch werden dem Modell Rechenressourcen zugeordnet, sodass es Onlinevorhersagen mit niedriger Latenz bereitstellen kann. Verwenden Sie Onlinevorhersagen, wenn Sie Anfragen als Reaktion auf Anwendungseingaben stellen oder wenn zeitnahe Inferenzen erforderlich sind.
Batchvorhersagen sind asynchrone Anfragen an ein Modell, das nicht auf einem Endpunkt bereitgestellt wird. Sie senden die Anfrage (als BatchPredictionsJob-Ressource) direkt an die Model-Ressource. Verwenden Sie Batchvorhersagen, wenn Sie nicht sofort eine Antwort benötigen und akkumulierte Daten in einer einzigen Anfrage verarbeiten möchten.
Vorhersagen von benutzerdefinierten trainierten Modellen abrufen
Im Gegensatz zu benutzerdefinierten trainierten Modellen werden AutoML-Modelle nach dem Training automatisch in die Vertex AI Model Registry importiert.
Ansonsten ist der Workflow für AutoML-Modelle ähnlich, variiert jedoch je nach Datentyp und Modellziel geringfügig. Die Dokumentation zum Abrufen von AutoML-Vorhersagen finden Sie neben der anderen AutoML-Dokumentation. Hier finden Sie Links zur Dokumentation:
Image
Hier erfahren Sie, wie Sie Vorhersagen aus den folgenden Arten von AutoML-Bildmodellen abrufen:
Es gibt zwei Möglichkeiten, Vorhersagen aus BigQuery ML-Modellen abzurufen:
Sie können Batchvorhersagen direkt vom Modell in BigQuery ML anfordern.
Sie können die Modelle direkt bei der Modell-Registry registrieren, ohne sie aus BigQuery ML zu exportieren oder in die Modell-Registry zu importieren.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-28 (UTC)."],[],[],null,["# Overview of getting inferences on Vertex AI\n\nAn inference is the output of a trained machine learning model. This page\nprovides an overview of the workflow for getting inferences from your models on\nVertex AI.\n\nVertex AI offers two methods for getting inferences:\n\n- **Online inferences** are synchronous requests made to a model that is deployed to an [`Endpoint`](/vertex-ai/docs/reference/rest/v1/projects.locations.endpoints). Therefore, before sending a request, you must first deploy the [`Model`](/vertex-ai/docs/reference/rest/v1/projects.locations.models) resource to an endpoint. This associates [compute resources](/vertex-ai/docs/predictions/configure-compute) with the model so that the model can serve online inferences with low latency. Use online inferences when you are making requests in response to application input or in situations that require timely inference.\n- are asynchronous requests made to a model that isn't deployed to an endpoint. You send the request (as a [`BatchPredictionJob`](/vertex-ai/docs/reference/rest/v1/projects.locations.batchPredictionJobs) resource) directly to the `Model` resource. Use batch inferences when you don't require an immediate response and want to process accumulated data by using a single request.\n\nGet inferences from custom trained models\n-----------------------------------------\n\nTo get inferences, you must first [import your\nmodel](/vertex-ai/docs/model-registry/import-model). After it's imported, it becomes a\n[`Model`](/vertex-ai/docs/reference/rest/v1/projects.locations.models) resource that is visible in\n[Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction).\n\nThen, read the following documentation to learn how to get inferences:\n\n- [Get batch inferences](/vertex-ai/docs/predictions/get-batch-predictions)\n\n Or\n- [Deploy model to endpoint](/vertex-ai/docs/general/deployment) and\n [get online inferences](/vertex-ai/docs/predictions/get-online-predictions).\n\nGet inferences from AutoML models\n---------------------------------\n\nUnlike custom trained models, AutoML models are automatically imported into the\nVertex AI Model Registry after training.\n\nOther than that, the workflow for AutoML models is similar, but varies slightly\nbased on your data type and model objective. The documentation for getting\nAutoML inferences is located alongside the other AutoML documentation. Here are links\nto the documentation:\n\n### Image\n\nLearn how to get inferences from the following types of image AutoML models:\n\n- [Image classification models](/vertex-ai/docs/image-data/classification/get-predictions)\n- [Image object detection models](/vertex-ai/docs/image-data/object-detection/get-predictions)\n\n### Tabular\n\nLearn how to get inferences from the following types of tabular AutoML models:\n\n- Tabular classification and regression models\n\n - [Online inferences](/vertex-ai/docs/tabular-data/classification-regression/get-online-predictions)\n - [Batch inferences](/vertex-ai/docs/tabular-data/classification-regression/get-batch-predictions)\n- [Tabular forecasting models](/vertex-ai/docs/tabular-data/forecasting/get-predictions) (batch inferences only)\n\n### Video\n\nLearn how to get inferences from the following types of video AutoML models:\n\n- [Video action recognition models](/vertex-ai/docs/video-data/action-recognition/get-predictions) (batch inferences only)\n- [Video classification models](/vertex-ai/docs/video-data/classification/get-predictions) (batch inferences only)\n- [Video object tracking models](/vertex-ai/docs/video-data/object-tracking/get-predictions) (batch inferences only)\n\nGet inferences from BigQuery ML models\n--------------------------------------\n\nYou can get inferences from BigQuery ML models in two ways:\n\n- Request batch inferences directly from the model in BigQuery ML.\n- Register the models directly with the Model Registry, without exporting them from BigQuery ML or importing them into the Model Registry."]]