Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
In diesem Abschnitt werden Vertex AI-Dienste beschrieben, die Sie bei der Implementierung von Vorgängen für maschinelles Lernen (MLOps) mit Ihrem ML-Workflow unterstützen.
Nachdem Ihre Modelle bereitgestellt wurden, müssen sie mit den sich ändernden Daten aus der Umgebung Schritt halten, um eine optimale Leistung zu erzielen und relevant zu bleiben. MLOps bestehen aus einer Reihe von Verfahren, die die Stabilität und Zuverlässigkeit Ihrer ML-Systeme verbessern.
Vertex AI-MLOps-Tools unterstützen Sie bei der Zusammenarbeit von KI-Teams und bei der Verbesserung Ihrer Modelle durch Monitoring von Vorhersagemodellen, Benachrichtigungen, Diagnosen und praktisch nutzbare Erläuterungen. Alle Tools sind modular aufgebaut, sodass Sie sie nach Bedarf in Ihre vorhandenen Systeme einbinden können.
Workflows orchestrieren: Das manuelle Training und die Bereitstellung Ihrer Modelle kann zeitaufwendig und fehleranfällig sein, insbesondere wenn Sie die Prozesse oft wiederholen müssen.
Vertex AI Pipelines hilft Ihnen, dabei Ihre ML-Workflows zu automatisieren, zu überwachen und zu steuern.
In Ihrem ML-System verwendete Metadaten verfolgen: In Data Science ist es wichtig, die in Ihrem ML-Workflow verwendeten Parameter, Artefakte und Messwerte zu verfolgen, insbesondere wenn Sie den Workflow oft wiederholen.
Mit Vertex ML Metadata können Sie die Metadaten, Parameter und Artefakte aufzeichnen, die in Ihrem ML-System verwendet werden. Anschließend können Sie diese Metadaten abfragen, um die Leistung Ihres ML-Systems oder die davon generierten Artefakte zu analysieren, zu debuggen und zu prüfen.
Bestes Modell für einen Anwendungsfall identifizieren: Wenn Sie neue Trainingsalgorithmen ausprobieren, müssen Sie wissen, welches trainierte Modell die beste Leistung erzielt.
Mit Vertex AI Experiments können Sie verschiedene Modellarchitekturen, Hyperparameter und Trainingsumgebungen verfolgen und analysieren, um das beste Modell für Ihren Anwendungsfall zu ermitteln.
Mit Vertex AI TensorBoard können Sie ML-Tests verfolgen, visualisieren und vergleichen, um die Leistung Ihrer Modelle zu messen.
Modellversionen verwalten: Durch das Hinzufügen von Modellen zu einem zentralen Repository können Sie Modellversionen im Auge behalten.
Vertex AI Model Registry bietet eine Übersicht über Ihre Modelle, sodass Sie neue Versionen besser organisieren, verfolgen und trainieren können. Mit Model Registry können Sie Modelle bewerten, Modelle an einem Endpunkt bereitstellen, Batchvorhersagen erstellen und Details zu bestimmten Modellen und Modellversionen aufrufen.
Features verwalten: Wenn Sie ML-Features über Teams hinweg wiederverwenden, benötigen Sie eine schnelle und effiziente Möglichkeit, die Features freizugeben und bereitzustellen.
Vertex AI Feature Store bietet ein zentrales Repository zum Organisieren, Speichern und Bereitstellen von ML-Features. Durch die Verwendung eines zentralen Feature Store kann eine Organisation ML-Features in großem Maßstab wiederverwenden und die Geschwindigkeit der Entwicklung und Bereitstellung neuer ML-Anwendungen erhöhen.
Modellqualität überwachen: Ein in der Produktion bereitgestelltes Modell funktioniert am besten mit Vorhersageeingabedaten, die den Trainingsdaten ähneln. Wenn die Eingabedaten von den Daten abweichen, die zum Trainieren des Modells verwendet wurden, kann sich die Leistung des Modells verschlechtern, auch wenn sich das Modell selbst nicht geändert hat.
Vertex AI Model Monitoring überwacht Modelle auf Abweichungen zwischen Training und Bereitstellung und auf Vorhersageabweichungen und sendet Ihnen Benachrichtigungen, wenn die eingehenden Vorhersagedaten zu weit von der Trainingsbasis abweichen. Sie können die Benachrichtigungen und Featureverteilungen verwenden, um zu bewerten, ob Sie Ihr Modell neu trainieren müssen.
KI- und Python-Anwendungen skalieren:Ray ist ein Open-Source-Framework zur Skalierung von KI- und Python-Anwendungen. Ray bietet die Infrastruktur für verteiltes Computing und parallele Verarbeitung für Ihren ML-Workflow („maschinelles Lernen“).
Ray in Vertex AI wurde so entwickelt, dass Sie denselben Open-Source-Ray-Code zum Schreiben von Programmen und Entwickeln von Anwendungen in Vertex AI mit minimalen Änderungen verwenden können. Anschließend können Sie die Einbindungen von Vertex AI in andere Google Cloud-Dienste wie Vertex AI-Vorhersagen und BigQuery als Teil Ihres ML-Workflows verwenden.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-07 (UTC)."],[],[],null,["# MLOps on Vertex AI\n\nThis section describes Vertex AI services that help you implement\n*Machine learning operations (MLOps)* with your machine learning (ML) workflow.\n\nAfter your models are deployed, they must keep up with changing data from the\nenvironment to perform optimally and stay relevant. MLOps is a set of practices\nthat improves the stability and reliability of your ML systems.\n\nVertex AI MLOps tools help you collaborate across AI teams and improve your\nmodels through predictive model monitoring, alerting, diagnosis, and actionable\nexplanations. All the tools are modular, so you can integrate them into your\nexisting systems as needed.\n\nFor more information about MLOps, see [Continuous delivery and automation\npipelines in machine learning](/architecture/mlops-continuous-delivery-and-automation-pipelines-in-machine-learning) and the [Practitioners Guide to MLOps](https://services.google.com/fh/files/misc/practitioners_guide_to_mlops_whitepaper.pdf).\n\n- **Orchestrate workflows**: Manually training and serving your models\n can be time-consuming and error-prone, especially if you need to repeat the\n processes many times.\n\n - [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) helps you automate, monitor, and govern your ML workflows.\n- **Track the metadata used in your ML system**: In data science, it's\n important to track the parameters, artifacts, and metrics used in your ML\n workflow, especially when you repeat the workflow multiple times.\n\n - [Vertex ML Metadata](/vertex-ai/docs/ml-metadata/introduction) lets you record the metadata, parameters, and artifacts that are used in your ML system. You can then query that metadata to help analyze, debug, and audit the performance of your ML system or the artifacts that it produces.\n- **Identify the best model for a use case**: When you try new training algorithms,\n you need to know which trained model performs the best.\n\n - [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) lets you track and analyze\n different model architectures, hyper-parameters, and training environments\n to identify the best model for your use case.\n\n - [Vertex AI TensorBoard](/vertex-ai/docs/experiments/tensorboard-introduction) helps you track, visualize, and\n compare ML experiments to measure how well your models perform.\n\n- **Manage model versions**: Adding models to a central repository helps you\n keep track of model versions.\n\n - [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) provides an overview of your models so you can better organize, track, and train new versions. From Model Registry, you can evaluate models, deploy models to an endpoint, create batch inferences, and view details about specific models and model versions.\n- **Manage features**: When you re-use ML features across multiple teams, you\n need a quick and efficient way to share and serve the features.\n\n - [Vertex AI Feature Store](/vertex-ai/docs/featurestore/latest/overview) provides a centralized repository for organizing, storing, and serving ML features. Using a central featurestore enables an organization to re-use ML features at scale and increase the velocity of developing and deploying new ML applications.\n- **Monitor model quality**: A model deployed in production performs best on\n inference input data that is similar to the training data. When the input\n data deviates from the data used to train the model, the model's performance\n can deteriorate, even if the model itself hasn't changed.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline. You can use the alerts and feature distributions to evaluate whether you need to retrain your model.\n- **Scale AI and Python applications** : [Ray](https://docs.ray.io/en/latest/ray-overview/index.html) is an open-source framework for scaling AI and Python applications. Ray provides the infrastructure to perform distributed computing and parallel processing for your machine learning (ML) workflow.\n\n - [Ray on Vertex AI](/vertex-ai/docs/open-source/ray-on-vertex-ai/overview) is designed so you can use the same open source Ray code to write programs and develop applications on Vertex AI with minimal changes. You can then use Vertex AI's integrations with other Google Cloud services such as [Vertex AI Inference](/vertex-ai/pricing#prediction-prices) and [BigQuery](/bigquery/docs/introduction) as part of your machine learning (ML) workflow.\n\nWhat's next\n-----------\n\n- [Vertex AI interfaces](/vertex-ai/docs/start/introduction-interfaces)"]]