O fluxo de trabalho tabular para previsão é o pipeline completo para tarefas de previsão. Ele é semelhante à
API AutoML,
mas permite que você escolha o que controlar e o que automatizar. Em vez de ter
controles para o pipeline inteiro, você tem controles para cada etapa
no pipeline. Esses controles de pipeline incluem o seguinte:
Divisão de dados
Engenharia de atributos
Pesquisa de arquitetura
Treinamento de modelo
Conjunto de modelos
Vantagens
Confira alguns dos benefícios do
Fluxo de trabalho tabular para previsão
:
Suporta conjuntos de dados grandes com tamanho de até 1 TB e até 200 colunas.
Permite melhorar a estabilidade e reduzir o tempo de treinamento limitando o espaço de pesquisa de tipos de arquitetura ou pulando a pesquisa de arquitetura.
Permite melhorar a velocidade do treinamento selecionando manualmente o hardware usado para pesquisa de treinamento e arquitetura.
Permite reduzir o tamanho do modelo e melhorar a latência mudando o tamanho do conjunto.
Cada componente pode ser inspecionado em uma ótima interface de gráfico de pipelines que permite ver as tabelas de dados transformadas, as arquiteturas de modelos avaliadas e muitos outros detalhes.
Os componentes têm mais flexibilidade e transparência, como personalização de parâmetros, hardware, status do processo de visualização, registros e muito mais.
Previsão em pipelines da Vertex AI
O fluxo de trabalho tabular para previsão
é uma instância gerenciada do Vertex AI Pipelines.
O Vertex AI Pipelines é um serviço sem servidor que executa pipelines do Kubeflow. É possível usar pipelines para automatizar e monitorar suas tarefas de machine learning e de preparação de dados. Cada etapa em um pipeline executa parte do fluxo de trabalho do pipeline. Por exemplo,
um pipeline pode incluir etapas para dividir dados, transformar tipos de dados e treinar um modelo. Como as etapas são instâncias de componentes do pipeline, as etapas têm entradas, saídas e uma imagem de contêiner. As entradas de etapa podem ser definidas nas entradas do pipeline ou elas podem depender da saída de outras etapas dentro do pipeline. Essas dependências definem o fluxo de trabalho do pipeline como um gráfico acíclico dirigido.
Visão geral do pipeline e dos componentes
O diagrama a seguir mostra o pipeline de modelagem do Fluxo de trabalho tabular para previsão:
Estes são os componentes do pipeline:
feature-transform-engine: executa a engenharia de atributos. Consulte Feature Transform Engine para saber mais detalhes.
training-configurator-and-validator: valida a configuração do treinamento e gera os metadados de treinamento.
Entrada:
instance_schema: esquema de instâncias na especificação da OpenAPI, que descreve os tipos de dados dos dados de inferência.
dataset_stats: estatísticas que descrevem o conjunto de dados brutos. Por exemplo, dataset_stats fornece o número de linhas no conjunto de dados.
training_schema: esquema de dados de treinamento na especificação da OpenAPI, que descreve os tipos de dados dos dados de treinamento.
split-materialized-data: divide os dados materializados em um conjunto de treinamento, um de avaliação e um de teste.
Entrada:
materialized_data: dados materializados.
Saída:
materialized_train_split: divisão de treinamento materializada.
materialized_eval_split: divisão de avaliação materializada.
materialized_test_split: conjunto de teste materializado.
calculate-training-parameters-2: calcula a duração do ambiente de execução esperada para automl-forecasting-stage-1-tuner.
get-hyperparameter-tuning-results: opcional: se você configurar o pipeline para pular a pesquisa de arquitetura, carregue os resultados do ajuste de hiperparâmetro da execução de um pipeline anterior.
Executa a pesquisa de arquitetura de modelo e ajusta hiperparâmetros (automl-forecasting-stage-1-tuner) ou usa os resultados de ajuste de hiperparâmetros de uma execução de pipeline anterior (automl-forecasting-stage-2-tuner).
Uma arquitetura é definida por um conjunto de hiperparâmetros.
Os hiperparâmetros incluem o tipo de modelo e os parâmetros do modelo.
Os tipos de modelo considerados são redes neurais e árvores aprimoradas.
Um modelo é treinado para cada arquitetura considerada.
Entrada:
materialized_train_split: divisão de treinamento materializada.
materialized_eval_split: divisão de avaliação materializada.
artifact: resultados do ajuste de hiperparâmetros de uma execução de pipeline anterior.
Esse artefato será uma entrada somente se você tiver configurado o pipeline para pular a pesquisa de arquitetura.
Saída:
tuning_result_output: saída de ajuste.
get-prediction-image-uri-2: produz o URI de imagem de inferência correto com base no tipo de modelo.
automl-forecasting-ensemble-2: combina as melhores arquiteturas para produzir um modelo final.
Entrada:
tuning_result_output: saída de ajuste.
Saída:
unmanaged_container_model: modelo de saída.
model-upload-2: faz upload do modelo.
Entrada:
unmanaged_container_model: modelo de saída.
Saída:
model: modelo da Vertex AI
should_run_model_evaluation: opcional: use o conjunto de teste para calcular as métricas de avaliação.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-18 UTC."],[],[],null,["# Tabular Workflow for Forecasting\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of\nTabular Workflow for Forecasting\n\n[pipeline and components](#components). To learn how to train a model, see\n[Train a model with\nTabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train).\n\n\nTabular Workflow for Forecasting is the complete pipeline for\nforecasting tasks. It is similar to the\n[AutoML API](/vertex-ai/docs/tabular-data/forecasting/overview),\nbut lets you to choose what to control and what to automate. Instead of having\ncontrols for the *whole* pipeline, you have controls for *every step* in the\npipeline. These pipeline controls include:\n\n- Data splitting\n- Feature engineering\n- Architecture search\n- Model training\n- Model ensembling\n\n\u003cbr /\u003e\n\nBenefits\n--------\n\nThe following are some of the benefits of\nTabular Workflow for Forecasting\n:\n\n\n- Supports **large datasets** that are up to 1TB in size and have up to 200 columns.\n- Lets you **improve stability and lower training time** by limiting the search space of architecture types or skipping architecture search.\n- Lets you **improve training speed** by manually selecting the hardware used for training and architecture search.\n- Lets you **reduce model size and improve latency** by changing the ensemble size.\n- Each component can be inspected in a powerful pipelines graph interface that lets you see the transformed data tables, evaluated model architectures and many more details.\n- Each component gets extended flexibility and transparency, such as being able to customize parameters, hardware, view process status, logs and more.\n\n\u003cbr /\u003e\n\nForecasting on Vertex AI Pipelines\n----------------------------------\n\n\nTabular Workflow for Forecasting\nis a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nOverview of pipeline and components\n-----------------------------------\n\nThe following diagram shows the modeling pipeline for\nTabular Workflow for Forecasting\n:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **training-configurator-and-validator**: Validates the training configuration and generates the training metadata.\n\n Input:\n - `instance_schema`: Instance schema in OpenAPI specification, which describes the data types of the inference data.\n - `dataset_stats`: Statistics that describe the raw dataset. For example, `dataset_stats` gives the number of rows in the dataset.\n - `training_schema`: Training data schema in OpenAPI specification, which describes the data types of the training data.\n3. **split-materialized-data**: Splits the materialized data into a training set, an evaluation set, and a test set.\n\n Input:\n - `materialized_data`: Materialized data.\n\n Output:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `materialized_test_split`: Materialized test set.\n4. **calculate-training-parameters-2** : Calculates the expected runtime duration\n for **automl-forecasting-stage-1-tuner**.\n\n5. **get-hyperparameter-tuning-results** - **Optional**: If you configure the\n pipeline to skip the architecture search, load the hyperparameter tuning\n results from a previous pipeline run.\n\n6. Perform model architecture search and tune hyperparameters (**automl-forecasting-stage-1-tuner** ) or use the hyperparameter tuning results\n from a previous pipeline run (**automl-forecasting-stage-2-tuner**).\n\n - An architecture is defined by a set of hyperparameters.\n - Hyperparameters include the model type and the model parameters.\n - Model types considered are neural networks and boosted trees.\n - A model is trained for each architecture considered.\n\n Input:\n - `materialized_train_split`: Materialized training split.\n - `materialized_eval_split`: Materialized evaluation split.\n - `artifact` - Hyperparameter tuning results from a previous pipeline run. This artifact is an input only if you configure the pipeline to skip the architecture search.\n\n Output:\n - `tuning_result_output`: Tuning output.\n7. **get-prediction-image-uri-2** : Produces the correct inference image URI based on the [model type](/vertex-ai/docs/tabular-data/forecasting/train-model#training-methods).\n\n8. **automl-forecasting-ensemble-2**: Ensembles the best architectures to produce a final model.\n\n Input:\n - `tuning_result_output`: Tuning output.\n\n Output:\n - `unmanaged_container_model`: Output model.\n9. **model-upload-2** - Uploads the model.\n\n Input:\n - `unmanaged_container_model`: Output model.\n\n Output:\n - `model`: Vertex AI model.\n10. **should_run_model_evaluation** - **Optional**: Use the test set to calculate evaluation metrics.\n\nWhat's next\n-----------\n\n- [Train a model using Tabular Workflow for Forecasting](/vertex-ai/docs/tabular-data/tabular-workflows/forecasting-train)."]]