Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Vertex AI ist eine Plattform für maschinelles Lernen (ML), mit der Sie ML-Modelle und KI-Anwendungen trainieren und bereitstellen und große Sprachmodelle (LLMs) für Ihre KI-gestützten Anwendungen anpassen können. Vertex AI kombiniert Data-Engineering-, Data-Science- und ML-Engineering-Workflows, sodass Ihre Teams mit einheitlichen Tools zusammenarbeiten und Ihre Anwendungen mithilfe der Vorteile von Google Cloudskalieren können.
Vertex AI bietet mehrere Optionen für das Modelltraining und die Bereitstellung:
Mit Model Garden können Sie Vertex AI ermitteln, testen, anpassen und bereitstellen sowie Open-Source-Modelle und ‑Assets auswählen.
Generative AI bietet Zugriff auf die großen generativen KI-Modelle von Google für mehrere Modalitäten (Text, Code, Bilder, Sprache). Sie können die LLM-Systeme von Google an Ihre Anforderungen anpassen und dann für die Verwendung in Ihren KI-gestützten Anwendungen bereitstellen.
Nachdem Sie Ihre Modelle bereitstellen, verwenden Sie die End-to-End-MLOps-Tools von Vertex AI, um Projekte während des gesamten ML-Lebenszyklus zu automatisieren und zu skalieren.
Diese MLOps-Tools werden in einer vollständig verwalteten Infrastruktur ausgeführt, die Sie entsprechend Ihren Leistungs- und Budgetanforderungen anpassen können.
Sie können das Vertex AI SDK für Python verwenden, um den gesamten ML-Workflow in Vertex AI Workbench, einer Jupyter-Notebook-basierten Entwicklungsumgebung, auszuführen. Sie können mit einem Team zusammenarbeiten, um Ihr Modell in Colab Enterprise zu entwickeln, einer Version von Colaboratory, die in Vertex AI eingebunden ist. Weitere verfügbare Schnittstellen sind die Google Cloud Console, das Google Cloud CLI-Befehlszeilentool, Clientbibliotheken und Terraform (eingeschränkte Unterstützung).
Vertex AI und der Workflow für maschinelles Lernen (ML)
Dieser Abschnitt bietet einen Überblick über den Workflow für maschinelles Lernen und wie Sie mit Vertex AI Ihre Modelle erstellen und bereitstellen können.
Datenvorbereitung: Nachdem Sie Ihr Dataset extrahiert und bereinigt haben, führen Sie eine explorative Datenanalyse (EDA) durch, um das Datenschema und die Merkmale zu verstehen, die vom ML-Model erwartet werden. Wenden Sie Datentransformationen und Feature Engineering auf das Modell an und teilen Sie die Daten in Trainings-, Validierungs- und Test-Datasets auf.
Mit Vertex AI Workbench-Notebooks Daten untersuchen und visualisieren Vertex AI Workbench lässt sich in Cloud Storage und BigQuery einbinden, sodass Sie schneller auf Ihre Daten zugreifen und sie verarbeiten können.
Verwenden Sie für große Datasets Dataproc Serverless Spark aus einem Vertex AI Workbench-Notebook, um Spark-Arbeitslasten auszuführen, ohne Ihre eigenen Dataproc-Cluster verwalten zu müssen.
Modelltraining: Wählen Sie eine Trainingsmethode aus, um ein Modell zu trainieren und auf Leistung zu optimieren.
Informationen zum Trainieren eines Modells ohne Schreiben von Code finden Sie in der AutoML-Übersicht. AutoML unterstützt Tabellen-, Bild- und Videodaten.
Lesen Sie die Übersicht über benutzerdefiniertes Training, um Ihren eigenen Trainingscode zu schreiben und benutzerdefinierte Modelle mit Ihrem bevorzugten ML-Framework zu trainieren.
Vertex AI Vizier passt Hyperparameter in komplexe Modelle für maschinelles Lernen (ML) an.
Verwenden Sie Vertex AI-Tests, um Ihr Modell mit verschiedenen ML-Techniken zu trainieren und die Ergebnisse zu vergleichen.
Registrieren Sie Ihre trainierten Modelle in der Vertex AI-Modell-Registry, um sie zu versionieren und an die Produktion zu übergeben. Vertex AI Model Registry ist mit Validierungs- und Bereitstellungsfunktionen wie der Modellbewertung und Endpunkten integriert.
Modellbewertung und -iteration: Evaluieren Sie Ihr trainiertes Modell, passen Sie Ihre Daten basierend auf Bewertungsmesswerten an und iterieren Sie Ihr Modell.
Verwenden Sie Modellbewertungsmesswerte wie Precision und Recall, um die Leistung Ihrer Modelle zu bewerten und zu vergleichen. Erstellen Sie Bewertungen über Vertex AI Model Registry oder fügen Sie Bewertungen in Ihren Vertex AI Pipelines-Workflow ein.
Modellbereitstellung: Modell in der Produktion bereitstellen und Onlineinferenzen abrufen oder direkt Batchinferenzen abfragen.
Asynchrone Batchinferenzen abrufen, für die keine Bereitstellung auf Endpunkten erforderlich ist.
Mit der optimierten TensorFlow-Laufzeit können Sie TensorFlow-Modelle zu geringeren Kosten und mit einer geringeren Latenz als Open-Source-vordefinierten TensorFlow Serving-Containern bereitstellen.
Verwenden Sie für Online-Bereitstellungsfälle mit tabellarischen Modellen Vertex AI Feature Store, um Features aus einem zentralen Repository bereitzustellen und den Featurezustand zu überwachen.
Vertex Explainable AI hilft Ihnen zu verstehen, wie jedes Feature zur Modellinferenz beiträgt (Feature-Attribution) und falsch gelabelte Daten aus dem Trainingsdatensatz zu finden (beispielbasierte Erklärung).
Modelle mit BigQuery ML erstellen und Onlineinferenzen abrufen
Modellmonitoring: Überwachen Sie die Leistung des bereitgestellten Modells. Verwenden Sie eingehende Inferenzdaten, um Ihr Modell neu zu trainieren und die Leistung zu verbessern.
Vertex AI Model Monitoring überwacht Modelle auf Abweichungen zwischen Training und Bereitstellung und auf Inferenzabweichungen und sendet Ihnen Benachrichtigungen, wenn die eingehenden Inferenzdaten zu weit von der Trainingsbasis abweichen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-18 (UTC)."],[],[],null,["# Introduction to Vertex AI\n\nVertex AI is a machine learning (ML) platform that lets you train\nand deploy ML models and AI applications, and customize large language models\n(LLMs) for use in your AI-powered applications. Vertex AI combines data\nengineering, data science, and ML engineering workflows, enabling your\nteams to collaborate using a common toolset and scale your applications using\nthe benefits of Google Cloud.\n\nVertex AI provides several options for model [training](/vertex-ai/docs/start/training-methods)\nand deployment:\n\n- [AutoML](/vertex-ai/docs/beginner/beginners-guide) lets you train tabular, image, or video data\n without writing code or preparing data splits. These models can be\n [deployed for online inference or queried directly for batch inference](/vertex-ai/docs/predictions/overview#get_predictions_from_models).\n\n- [Custom training](/vertex-ai/docs/training/overview) gives you complete control over the training\n process, including using your preferred ML framework, writing your own\n training code, and choosing hyperparameter tuning options. You can import\n your custom-trained model into the [Model Registry](/vertex-ai/docs/model-registry/introduction)\n and [deploy it to an endpoint](/vertex-ai/docs/general/deployment) for online\n inference using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or [custom](/vertex-ai/docs/predictions/use-custom-container) containers.\n Or you can\n [query it directly for batch inferences](/vertex-ai/docs/predictions/get-batch-predictions).\n\n- [Model Garden](/vertex-ai/generative-ai/docs/model-garden/explore-models)\n lets you discover, test, customize, and deploy\n Vertex AI and select open-source models and assets.\n\n- [Generative AI](/vertex-ai/generative-ai/docs/overview) gives you access to Google's large generative AI\n models for multiple modalities (text, code, images, speech). You can tune\n Google's LLMs to meet your needs, and then deploy them\n for use in your AI-powered applications.\n\nAfter you deploy your models, use Vertex AI's end-to-end MLOps tools to\nautomate and scale projects throughout the ML lifecycle.\nThese MLOps tools are run on fully-managed infrastructure that you can customize\nbased on your performance and budget needs.\n\nYou can use the [Vertex AI SDK for Python](/vertex-ai/docs/python-sdk/use-vertex-ai-python-sdk) to run the entire machine\nlearning workflow in [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction), a Jupyter\nnotebook-based development environment. You can collaborate with a team\nto develop your model in [Colab Enterprise](/colab/docs/introduction),\na version of [Colaboratory](https://colab.google/) that is integrated with\nVertex AI. Other [available interfaces](/vertex-ai/docs/start/introduction-interfaces)\ninclude the Google Cloud console, the Google Cloud CLI command line tool, client\nlibraries, and Terraform (limited support).\n\nVertex AI and the machine learning (ML) workflow\n------------------------------------------------\n\nThis section provides an overview of the machine learning workflow and how you\ncan use Vertex AI to build and deploy your models.\n\n1. **Data preparation** : After extracting and cleaning your dataset, perform\n [exploratory data analysis (EDA)](/vertex-ai/docs/glossary#exploratory_data_analysis) to understand the data schema and\n characteristics that are expected by the ML model. Apply data transformations\n and feature engineering to the model, and split the data into training,\n validation, and test sets.\n\n - Explore and visualize data using [Vertex AI Workbench](/vertex-ai/docs/workbench/introduction)\n notebooks. Vertex AI Workbench integrates with Cloud Storage and\n BigQuery to help you access and process your data faster.\n\n - For large datasets, use [Dataproc Serverless Spark](/dataproc-serverless/docs/overview) from a\n Vertex AI Workbench notebook to run Spark workloads without having to\n manage your own Dataproc clusters.\n\n2. **Model training**: Choose a training method to train a model and tune it for\n performance.\n\n - To train a model without writing code, see the [AutoML\n overview](/vertex-ai/docs/training-overview#automl). AutoML supports tabular, image, and\n video data.\n\n - To write your own training code and train custom models using your preferred\n ML framework, see the [Custom training overview](/vertex-ai/docs/training/overview).\n\n - Optimize hyperparameters for custom-trained models using [custom tuning\n jobs](/vertex-ai/docs/training/using-hyperparameter-tuning).\n\n - [Vertex AI Vizier](/vertex-ai/docs/vizier/overview) tunes hyperparameters for you in complex machine\n learning (ML) models.\n\n - Use [Vertex AI Experiments](/vertex-ai/docs/experiments/intro-vertex-ai-experiments) to train your model using\n different ML techniques and compare the results.\n\n - Register your trained models in the\n [Vertex AI Model Registry](/vertex-ai/docs/model-registry/introduction) for versioning and hand-off to\n production. Vertex AI Model Registry integrates with validation and\n deployment features such as model evaluation and endpoints.\n\n3. **Model evaluation and iteration**: Evaluate your trained model, make\n adjustments to your data based on evaluation metrics, and iterate on your\n model.\n\n - Use [model evaluation](/vertex-ai/docs/evaluation/introduction) metrics, such as precision and recall, to evaluate and compare the performance of your models. Create evaluations through Vertex AI Model Registry, or include evaluations in your [Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) workflow.\n4. **Model serving**: Deploy your model to production and get online\n inferences or query it directly for batch inferences.\n\n - Deploy your custom-trained model using [prebuilt](/vertex-ai/docs/predictions/pre-built-containers) or\n [custom](/vertex-ai/docs/predictions/use-custom-container) containers to get real-time [*online\n inferences*](/vertex-ai/docs/predictions/overview#online_predictions) (sometimes called HTTP inference).\n\n - Get asynchronous [*batch inferences*](/vertex-ai/docs/predictions/overview#batch_predictions), which don't require\n deployment to endpoints.\n\n - [Optimized TensorFlow runtime](/vertex-ai/docs/predictions/optimized-tensorflow-runtime) lets you serve TensorFlow\n models at a lower cost and with lower latency than open source based\n prebuilt TensorFlow serving containers.\n\n - For online serving cases with tabular models, use\n [Vertex AI Feature Store](/vertex-ai/docs/featurestore/overview) to serve features from a\n central repository and monitor feature health.\n\n - [Vertex Explainable AI](/vertex-ai/docs/explainable-ai/overview) helps you understand how each feature contributes to\n model inference (*feature attribution* ) and find mislabeled data from the\n training dataset (*example-based explanation*).\n\n - Deploy and get online inferences for models trained with\n [BigQuery ML](/vertex-ai/docs/beginner/bqml).\n\n5. **Model monitoring**: Monitor the performance of your deployed model. Use\n incoming inference data to retrain your model for improved performance.\n\n - [Vertex AI Model Monitoring](/vertex-ai/docs/model-monitoring/overview) monitors models for training-serving skew and inference drift and sends you alerts when the incoming inference data skews too far from the training baseline.\n\nWhat's next\n-----------\n\n- Learn about [Vertex AI's MLOps features](/vertex-ai/docs/start/introduction-mlops).\n\n- Learn about [interfaces that you can use to interact with\n Vertex AI](/vertex-ai/docs/start/introduction-interfaces)."]]