Visão geral de como receber previsões na Vertex AI
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Uma previsão é a saída de um modelo de machine learning treinado. Nesta página, fornecemos uma visão geral do fluxo de trabalho para receber previsões dos seus modelos na Vertex AI.
A Vertex AI oferece dois métodos para receber previsões:
As previsões on-line são solicitações síncronas feitas em um modelo que é
implantado em um
endpoint. Portanto, antes de enviar uma
solicitação, é necessário implantar
o recurso Model para um
endpoint. Isso associa recursos de computação
ao modelo para que ele possa exibir previsões on-line
com baixa latência. Use as previsões on-line ao fazer solicitações em resposta a uma entrada de aplicativo ou em situações que exigem inferência em tempo hábil.
As predições em lote são solicitações assíncronas feitas em um modelo que não está
implantado em um endpoint. Você envia a solicitação (como um recurso
BatchPredictionsJob)
diretamente ao recurso Model. Use as previsões em lote quando não precisar de uma resposta imediata e quiser processar dados acumulados com uma única solicitação.
Receba previsões de modelos treinados personalizados
Ao contrário dos modelos treinados personalizados, os modelos do AutoML são importados automaticamente para o
Vertex AI Model Registry após o treinamento.
Fora isso, o fluxo de trabalho para os modelos do AutoML é semelhante, mas varia um pouco com base no tipo de dados e no objetivo do modelo. A documentação para receber previsões do AutoML está localizada ao lado da outra documentação do AutoML. Estes são os links para a documentação:
Imagem
Saiba como receber previsões dos seguintes tipos de modelos de imagem do AutoML:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-28 UTC."],[],[],null,["# Overview of getting inferences on Vertex AI\n\nAn inference is the output of a trained machine learning model. This page\nprovides an overview of the workflow for getting inferences from your models on\nVertex AI.\n\nVertex AI offers two methods for getting inferences:\n\n- **Online inferences** are synchronous requests made to a model that is deployed to an [`Endpoint`](/vertex-ai/docs/reference/rest/v1/projects.locations.endpoints). Therefore, before sending a request, you must first deploy the [`Model`](/vertex-ai/docs/reference/rest/v1/projects.locations.models) resource to an endpoint. This associates [compute resources](/vertex-ai/docs/predictions/configure-compute) with the model so that the model can serve online inferences with low latency. Use online inferences when you are making requests in response to application input or in situations that require timely inference.\n- are asynchronous requests made to a model that isn't deployed to an endpoint. You send the request (as a [`BatchPredictionJob`](/vertex-ai/docs/reference/rest/v1/projects.locations.batchPredictionJobs) resource) directly to the `Model` resource. Use batch inferences when you don't require an immediate response and want to process accumulated data by using a single request.\n\nGet inferences from custom trained models\n-----------------------------------------\n\nTo get inferences, you must first [import your\nmodel](/vertex-ai/docs/model-registry/import-model). After it's imported, it becomes a\n[`Model`](/vertex-ai/docs/reference/rest/v1/projects.locations.models) resource that is visible in\n[Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction).\n\nThen, read the following documentation to learn how to get inferences:\n\n- [Get batch inferences](/vertex-ai/docs/predictions/get-batch-predictions)\n\n Or\n- [Deploy model to endpoint](/vertex-ai/docs/general/deployment) and\n [get online inferences](/vertex-ai/docs/predictions/get-online-predictions).\n\nGet inferences from AutoML models\n---------------------------------\n\nUnlike custom trained models, AutoML models are automatically imported into the\nVertex AI Model Registry after training.\n\nOther than that, the workflow for AutoML models is similar, but varies slightly\nbased on your data type and model objective. The documentation for getting\nAutoML inferences is located alongside the other AutoML documentation. Here are links\nto the documentation:\n\n### Image\n\nLearn how to get inferences from the following types of image AutoML models:\n\n- [Image classification models](/vertex-ai/docs/image-data/classification/get-predictions)\n- [Image object detection models](/vertex-ai/docs/image-data/object-detection/get-predictions)\n\n### Tabular\n\nLearn how to get inferences from the following types of tabular AutoML models:\n\n- Tabular classification and regression models\n\n - [Online inferences](/vertex-ai/docs/tabular-data/classification-regression/get-online-predictions)\n - [Batch inferences](/vertex-ai/docs/tabular-data/classification-regression/get-batch-predictions)\n- [Tabular forecasting models](/vertex-ai/docs/tabular-data/forecasting/get-predictions) (batch inferences only)\n\n### Video\n\nLearn how to get inferences from the following types of video AutoML models:\n\n- [Video action recognition models](/vertex-ai/docs/video-data/action-recognition/get-predictions) (batch inferences only)\n- [Video classification models](/vertex-ai/docs/video-data/classification/get-predictions) (batch inferences only)\n- [Video object tracking models](/vertex-ai/docs/video-data/object-tracking/get-predictions) (batch inferences only)\n\nGet inferences from BigQuery ML models\n--------------------------------------\n\nYou can get inferences from BigQuery ML models in two ways:\n\n- Request batch inferences directly from the model in BigQuery ML.\n- Register the models directly with the Model Registry, without exporting them from BigQuery ML or importing them into the Model Registry."]]