Der tabellarische Workflow für Prognosen ist die vollständige Pipeline für Prognoseaufgaben. Sie ähnelt der AutoML API, Sie können jedoch auswählen, was Sie steuern möchten und was automatisiert werden soll. Statt Steuerelemente für die gesamte Pipeline haben Sie Steuerelemente für jeden Schritt in der Pipeline. Folgende Steuerelemente der Pipeline sind verfügbar:
Datenaufteilung
Feature Engineering
Architektursuche
Modelltraining
Modellsortierung
Vorteile
Der tabellarische Workflow für Prognosen bietet folgende Vorteile:
Unterstützt große Datasets mit bis zu 1 TB und bis zu 200 Spalten.
Ermöglicht die Verbesserung der Stabilität und niedrigere Trainingszeit, indem der Suchbereich der Architekturtypen begrenzt wird oder die Architektursuche übersprungen wird.
Ermöglicht die Verbesserung der Trainingsgeschwindigkeit durch manuelle Auswahl der Hardware für das Training und die Architektursuche.
Ermöglicht die Reduzierung der Modellgröße und die Verbesserung der Latenz durch Ändern der Ensemblegröße.
Jede Komponente kann in einer leistungsstarken Benutzeroberfläche für Pipelinediagramme überprüft werden, auf der Sie die transformierten Datentabellen, bewerteten Modellarchitekturen und viele weitere Details sehen können.
Alle Komponenten bieten erweiterte Flexibilität und Transparenz. So können Sie beispielsweise Parameter anpassen, Hardware auswählen, den Prozessstatus und Logs aufrufen und vieles mehr.
Prognosen in Vertex AI Pipelines
Tabellarischer Workflow für Prognosen ist eine verwaltete Instanz von Vertex AI Pipelines.
Vertex AI Pipelines ist ein serverloser Dienst, der Kubeflow-Pipelines ausführt. Mithilfe von Pipelines können Sie Ihre Aufgaben für maschinelles Lernen und die Datenvorbereitung automatisieren und überwachen. Jeder Schritt in einer Pipeline führt einen Teil des Workflows der Pipeline aus. Eine Pipeline kann beispielsweise Schritte zum Aufteilen von Daten, zum Transformieren von Datentypen und zum Trainieren eines Modells enthalten. Da Schritte Instanzen von Pipeline-Komponenten sind, haben Schritte Eingaben, Ausgaben und ein Container-Image. Schritteingaben können aus den Eingaben der Pipeline festgelegt werden oder von der Ausgabe anderer Schritte in dieser Pipeline abhängen. Diese Abhängigkeiten definieren den Workflow der Pipeline als gerichtetes azyklisches Diagramm.
Pipeline und Komponenten – Übersicht
Das folgende Diagramm zeigt die Modellierungspipeline für den tabellarischen Workflow für Prognosen:
Es gibt folgende Pipelinekomponenten:
feature-transform-engine: Führt Feature Engineering durch. Weitere Informationen finden Sie unter Feature Transform Engine.
training-configurator-and-validator: Die Trainingskonfiguration wird validiert und die Trainingsmetadaten werden generiert.
Eingabe:
instance_schema: Instanzschema in der OpenAPI-Spezifikation, das die Datentypen der Inferenzdaten beschreibt.
dataset_stats: Statistiken, die das Roh-Dataset beschreiben. Beispielsweise gibt dataset_stats die Anzahl der Zeilen im Dataset an.
training_schema: Trainingsdatenschema in der OpenAPI-Spezifikation, das die Datentypen der Trainingsdaten beschreibt.
split-materialized-data: Materialisierte Daten in ein Trainings-Dataset, ein Bewertungs-Dataset und ein Test-Dataset aufteilen.
Eingabe:
materialized_data: Materialisierte Daten.
Ausgabe:
materialized_train_split: Trainings-Dataset der materialisierten Daten.
materialized_eval_split: Bewertungs-Dataset der materialisierten Daten.
materialized_test_split: Test-Dataset der materialisierten Daten.
calculate-training-parameters-2: Berechnet die erwartete Laufzeitdauer für automl-forecasting-stage-1-tuner.
get-hyperparameter-tuning-results: Optional: Wenn Sie die Pipeline zum Überspringen der Architektursuche konfiguriert haben, laden Sie die Ergebnisse der Hyperparameter-Abstimmung aus einer vorherigen Pipelineausführung.
Führen Sie eine Modellarchitektursuche durch und optimieren Sie Hyperparameter (automl-forecasting-stage-1-tuner). Sie können auch die Ergebnisse der Hyperparameter-Abstimmung aus einer vorherigen Pipelineausführung (automl-forecasting-stage-2-tuner) verwenden.
Eine Architektur wird durch eine Reihe von Hyperparametern definiert.
Hyperparameter enthalten den Modelltyp und die Modellparameter.
Modelltypen sind neuronale Netzwerke und Boosted Trees.
Für jede berücksichtigte Architektur wird ein Modell trainiert.
Eingabe:
materialized_train_split: Trainings-Dataset der materialisierten Daten.
materialized_eval_split: Bewertungs-Dataset der materialisierten Daten.
artifact: Ergebnisse der Hyperparameter-Abstimmung einer vorherigen Pipelineausführung.
Dieses Artefakt ist nur eine Eingabe, wenn Sie die Pipeline so konfiguriert haben, dass die Architektursuche übersprungen wird.
Ausgabe:
tuning_result_output: Abstimmungsausgabe.
get-prediction-image-uri-2: Generiert den korrekten URI für das Inferenzbild basierend auf dem Modelltyp.
automl-forecasting-ensemble-2: Die besten Architekturen zum Erzeugen eines endgültigen Modells zusammensetzen.
Eingabe:
tuning_result_output: Abstimmungsausgabe.
Ausgabe:
unmanaged_container_model: Ausgabemodell.
model-upload-2: Das Modell wird hochgeladen.
Eingabe:
unmanaged_container_model: Ausgabemodell.
Ausgabe:
model: Vertex AI-Modell.
should_run_model_evaluation – Optional: Verwenden Sie das Test-Dataset, um Bewertungsmesswerte zu berechnen.
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-09-02 (UTC)."],[],[],null,["# Tabular Workflow for Forecasting\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of\nTabular Workflow for Forecasting\n\n[pipeline and components](#components). To learn how to train a model, see\n[Train a model with\nTabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train).\n\n\nTabular Workflow for Forecasting is the complete pipeline for\nforecasting tasks. It is similar to the\n[AutoML API](/vertex-ai/docs/tabular-data/forecasting/overview),\nbut lets you to choose what to control and what to automate. Instead of having\ncontrols for the *whole* pipeline, you have controls for *every step* in the\npipeline. These pipeline controls include:\n\n- Data splitting\n- Feature engineering\n- Architecture search\n- Model training\n- Model ensembling\n\n\u003cbr /\u003e\n\nBenefits\n--------\n\nThe following are some of the benefits of\nTabular Workflow for Forecasting\n:\n\n\n- Supports **large datasets** that are up to 1TB in size and have up to 200 columns.\n- Lets you **improve stability and lower training time** by limiting the search space of architecture types or skipping architecture search.\n- Lets you **improve training speed** by manually selecting the hardware used for training and architecture search.\n- Lets you **reduce model size and improve latency** by changing the ensemble size.\n- Each component can be inspected in a powerful pipelines graph interface that lets you see the transformed data tables, evaluated model architectures and many more details.\n- Each component gets extended flexibility and transparency, such as being able to customize parameters, hardware, view process status, logs and more.\n\n\u003cbr /\u003e\n\nForecasting on Vertex AI Pipelines\n----------------------------------\n\n\nTabular Workflow for Forecasting\nis a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nOverview of pipeline and components\n-----------------------------------\n\nThe following diagram shows the modeling pipeline for\nTabular Workflow for Forecasting\n:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **training-configurator-and-validator**: Validates the training configuration and generates the training metadata.\n\n Input:\n - `instance_schema`: Instance schema in OpenAPI specification, which describes the data types of the inference data.\n - `dataset_stats`: Statistics that describe the raw dataset. For example, `dataset_stats` gives the number of rows in the dataset.\n - `training_schema`: Training data schema in OpenAPI specification, which describes the data types of the training data.\n3. **split-materialized-data**: Splits the materialized data into a training set, an evaluation set, and a test set.\n\n Input:\n - `materialized_data`: Materialized data.\n\n Output:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `materialized_test_split`: Materialized test set.\n4. **calculate-training-parameters-2** : Calculates the expected runtime duration\n for **automl-forecasting-stage-1-tuner**.\n\n5. **get-hyperparameter-tuning-results** - **Optional**: If you configure the\n pipeline to skip the architecture search, load the hyperparameter tuning\n results from a previous pipeline run.\n\n6. Perform model architecture search and tune hyperparameters (**automl-forecasting-stage-1-tuner** ) or use the hyperparameter tuning results\n from a previous pipeline run (**automl-forecasting-stage-2-tuner**).\n\n - An architecture is defined by a set of hyperparameters.\n - Hyperparameters include the model type and the model parameters.\n - Model types considered are neural networks and boosted trees.\n - A model is trained for each architecture considered.\n\n Input:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `artifact` - Hyperparameter tuning results from a previous pipeline run. This artifact is an input only if you configure the pipeline to skip the architecture search.\n\n Output:\n - `tuning_result_output`: Tuning output.\n7. **get-prediction-image-uri-2** : Produces the correct inference image URI based on the [model type](/vertex-ai/docs/tabular-data/forecasting/train-model#training-methods).\n\n8. **automl-forecasting-ensemble-2**: Ensembles the best architectures to produce a final model.\n\n Input:\n - `tuning_result_output`: Tuning output.\n\n Output:\n - `unmanaged_container_model`: Output model.\n9. **model-upload-2** - Uploads the model.\n\n Input:\n - `unmanaged_container_model`: Output model.\n\n Output:\n - `model`: Vertex AI model.\n10. **should_run_model_evaluation** - **Optional**: Use the test set to calculate evaluation metrics.\n\nWhat's next\n-----------\n\n- [Train a model using Tabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train)."]]