Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta seção, descrevemos os serviços da Vertex AI que ajudam a implementar
operações de machine learning (MLOps) com seu fluxo de trabalho de machine learning (ML).
Depois de implantados, os modelos precisam acompanhar a alteração de dados do
ambiente para ter um desempenho ideal e se manter relevantes. MLOps é um conjunto de práticas
que melhoram a estabilidade e a confiabilidade dos sistemas de ML.
As ferramentas de MLOps da Vertex AI ajudam a colaborar com as equipes de IA e melhorar os
modelos por meio de monitoramento preditivo, alerta, diagnóstico e explicações
acionáveis. Todas as ferramentas são modulares, para que você possa integrá-las aos seus
sistemas atuais conforme necessário.
Orquestre fluxos de trabalho: o treinamento e a exibição manuais dos modelos podem ser demorados e propensos a erros, principalmente se você precisar repetir os processos muitas vezes.
O Vertex AI Pipelines ajuda a automatizar, monitorar e controlar
seus fluxos de trabalho de ML.
Rastrear os metadados usados no seu sistema de ML: na ciência de dados, é
importante rastrear os parâmetros, artefatos e métricas usados no fluxo de trabalho
de ML, especialmente quando você repete vários fluxos de trabalho vezes.
O Vertex ML Metadata permite que você registre os metadados,
parâmetros e artefatos usados no seu sistema de ML. Em seguida, é possível
consultar esses metadados para ajudar a analisar, depurar e auditar o desempenho do
sistema de ML ou dos artefatos que ele produz.
Identificar o melhor modelo para um caso de uso: ao testar novos algoritmos de treinamento,
você precisa saber qual modelo treinado tem o melhor desempenho.
Os Experimentos da Vertex AI permitem rastrear e analisar
diferentes arquiteturas de modelo, hiperparâmetros e ambientes de treinamento
para identificar o melhor modelo para seu caso de uso.
O Vertex AI TensorBoard ajuda a rastrear, visualizar e comparar experimentos de ML para medir o desempenho dos modelos.
Gerencie versões de modelos: adicionar modelos a um repositório central ajuda
a acompanhar as versões de modelos.
O Vertex AI Model Registry fornece uma visão geral dos seus
modelos para que você possa organizar, rastrear e treinar melhor novas versões. No Model Registry,
é possível avaliar modelos, implantar modelos em um endpoint, criar
inferências em lote e visualizar detalhes sobre modelos específicos e versões de modelos.
Gerenciar recursos: ao reutilizar recursos de ML em várias equipes, você precisa de uma maneira rápida e eficiente de compartilhar e exibir os recursos.
O Feature Store da Vertex AI oferece um
repositório centralizado para organizar, armazenar e exibir atributos de ML. Um featurestore central
permite que uma organização reutilize recursos de ML em escala e
aumente a velocidade de desenvolvimento e implantação de novos aplicativos de ML.
Monitorar a qualidade do modelo: um modelo implantado em produção tem um desempenho melhor nos dados de entrada de inferência semelhantes aos dados de treinamento. Quando os dados de entrada se desviam dos dados usados para treinar o modelo, o desempenho do modelo pode se deteriorar, mesmo que o próprio modelo não tenha mudado.
O Vertex AI Model Monitoring monitora modelos para
deslocamento de inferência e desvio de treinamento e envia alertas quando os
dados de inferência de entrada estão muito distantes do valor de referência de treinamento. É possível usar os alertas e as distribuições de recursos para avaliar se você precisa treinar novamente seu modelo.
Escalonar aplicativos de IA e Python: o Ray é um framework de código aberto para escalonar aplicativos de IA e Python. O Ray fornece a infraestrutura para realizar computação distribuída e processamento paralelo para seu fluxo de trabalho de machine learning (ML).
O Ray na Vertex AI foi projetado para que você possa usar o mesmo código aberto Ray para escrever programas e desenvolver aplicativos na Vertex AI com alterações mínimas. A partir daí, é possível usar as integrações da Vertex AI com outros serviços do Google Cloud , como a inferência da Vertex AI e o BigQuery, como parte do fluxo de trabalho de machine learning (ML).
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-19 UTC."],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]