Fluxo de trabalho tabular para modelos amplos e profundos
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este documento apresenta uma visão geral do fluxo de trabalho tabular para componentes e pipelines de amplitude e profundidade. Para treinar um modelo com amplitude e profundidade, consulte Treinar um modelo com amplitude e profundidade.
O modelo profundo e amplo treina em conjunto modelos lineares amplos e redes neurais profundas. Ele combina os benefícios de memorização e generalização. Em alguns experimentos on-line, os resultados mostraram que o modelo profundo e amplo aumentou significativamente aquisições de aplicativos da Google Store em comparação com os modelos somente amplos e somente profundos.
Benefícios
Integrado com a Vertex AI. O modelo treinado é um modelo da Vertex AI. Você pode executar inferências em lote ou implantar o modelo para inferências on-line imediatamente.
Treinamento profundo e amplo sobre pipelines da Vertex AI
O fluxo de trabalho tabular para treinamento amplo e profundo é uma instância gerenciada dos pipelines da Vertex AI.
O Vertex AI Pipelines é um serviço sem servidor que executa pipelines do Kubeflow. É possível usar pipelines para automatizar e monitorar suas tarefas de machine learning e de preparação de dados. Cada etapa em um pipeline executa parte do fluxo de trabalho do pipeline. Por exemplo,
um pipeline pode incluir etapas para dividir dados, transformar tipos de dados e treinar um modelo. Como as etapas são instâncias de componentes do pipeline, as etapas têm entradas, saídas e uma imagem de contêiner. As entradas de etapa podem ser definidas nas entradas do pipeline ou elas podem depender da saída de outras etapas dentro do pipeline. Essas dependências definem o fluxo de trabalho do pipeline como um gráfico acíclico dirigido.
Duas versões do fluxo de trabalho tabular para treinamento amplo e profundo estão disponíveis:
HyperparameterTuningJob procura o melhor conjunto de valores de hiperparâmetros a serem usados para treinamento de modelos.
Com o CustomJob, é possível especificar os valores de hiperparâmetros a serem usados para o treinamento do modelo. Se você souber exatamente de quais valores de hiperparâmetro é necessário, especifique-os em vez de procurá-los e economizar recursos de treinamento.
Visão geral de pipelines e componentes personalizados e profundos do job
O pipeline CustomJob de amplitude e profundidade é ilustrado pelo diagrama a seguir:
Estes são os componentes do pipeline:
feature-transform-engine: executa a engenharia de atributos. Consulte Feature Transform Engine para saber mais detalhes.
split-materialized-data:
divida os dados materializados em um conjunto de treinamento, de avaliação e de teste.
Entrada:
Dados materializados materialized_data.
Saída:
Divisão de treinamento materializada materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
wide-and-deep-trainer:
realize o treinamento de modelo.
Entrada:
Valor de referência de instância instance_baseline.
Esquema de treinamento training_schema.
Saída de transformação transform_output.
Divisão materializada do trem materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
Saída:
modelo final
automl-tabular-infra-validator:
valida o modelo treinado enviando uma solicitação de previsão e verificando
se ele foi concluído.
model-upload:
fazer upload do modelo do bucket do Cloud Storage do usuário para a
Vertex AI como um modelo da Vertex AI.
condition-run-evaluation-2:
Opcional. Use o conjunto de teste para calcular as métricas de avaliação. É executado apenas quando
run_evaluation está definido como true.
Visão geral do pipeline e dos componentes HyperparameterTuningJob amplo e profundo
O pipeline HyperparameterTuningJob de amplitude e profundidade é ilustrado pelo diagrama a seguir:
feature-transform-engine: executa a engenharia de atributos. Consulte Feature Transform Engine para saber mais detalhes.
split-materialized-data:
divida os dados materializados em um conjunto de treinamento, de avaliação e de teste.
Entrada:
Dados materializados materialized_data.
Saída:
Divisão de treinamento materializada materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
get-wide-and-deep-study-spec-parameters:
gere a especificação do estudo com base em uma configuração do pipeline de treinamento. Se o usuário fornecer valores para
study_spec_parameters_override, use-os para substituir os valores da especificação do estudo.
Entrada:
Substituição opcional dos parâmetros de especificações de estudo study_spec_parameters_override.
Saída:
Lista final de hiperparâmetros e os intervalos deles para o job de ajuste de hiperparâmetros.
wide-and-deep-hyperparameter-tuning-job:
execute um ou mais testes de ajuste de hiperparâmetro.
Entrada:
Valor de referência de instância instance_baseline.
Esquema de treinamento training_schema.
Saída de transformação transform_output.
Divisão materializada do trem materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
Lista de hiperparâmetros e os intervalos deles para o job de ajuste de hiperparâmetros.
get-best-hyperparameter-tuning-job-trial:
selecione o modelo usando o melhor teste de job de ajuste de hiperparâmetros da etapa anterior.
Saída:
modelo final
automl-tabular-infra-validator:
valida o modelo treinado enviando uma solicitação de previsão e verificando
se ele foi concluído.
model-upload:
fazer upload do modelo do bucket do Cloud Storage do usuário para a
Vertex AI como um modelo da Vertex AI.
condition-run-evaluation-2:
Opcional. Use o conjunto de teste para calcular as métricas de avaliação. É executado apenas quando
run_evaluation está definido como true.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-18 UTC."],[],[],null,["# Tabular Workflow for Wide & Deep\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of the Tabular Workflow for Wide \\& Deep\npipelines and components. To train a model with Wide \\& Deep,\nsee [Train a model with Wide \\& Deep](/vertex-ai/docs/tabular-data/tabular-workflows/wide-and-deep-train).\n\n\n[Wide \\& Deep](https://arxiv.org/abs/1606.07792) jointly trains wide linear models and\ndeep neural networks. It combines the benefits of memorization and\ngeneralization. In some online experiments, the results showed that Wide \\& Deep\nsignificantly increased Google store application acquisitions compared with wide-only and deep-only models.\n\nBenefits\n--------\n\n\n- Integrated with Vertex AI. The trained model is a Vertex AI model. You can run batch inferences or deploy the model for online inferences right away.\n\n\u003cbr /\u003e\n\nWide \\& Deep on Vertex AI Pipelines\n-----------------------------------\n\nTabular Workflow for Wide \\& Deep is a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nTwo versions of the Tabular Workflow for Wide \\& Deep are available:\n\n- [HyperparameterTuningJob](#hyperparametertuningjob) searches for the best set of hyperparameter values to use for model training.\n- [CustomJob](#customjob) lets you specify the hyperparameter values to use for model training. If you know exactly which hyperparameter values you need, specify them instead of searching for them and save on training resources.\n\nOverview of Wide \\& Deep CustomJob pipeline and components\n----------------------------------------------------------\n\nThe Wide \\& Deep CustomJob pipeline is illustrated by the following diagram:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **split-materialized-data** : Split the materialized data into a training set, an evaluation set, and a test set.\n\n \u003cbr /\u003e\n\n Input:\n - Materialized data `materialized_data`.\n\n Output:\n - Materialized training split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n3. **wide-and-deep-trainer** : Perform model training.\n\n \u003cbr /\u003e\n\n Input:\n - Instance baseline `instance_baseline`.\n - Training schema `training_schema`.\n - Transform output `transform_output`.\n - Materialized train split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n\n Output:\n - Final model\n4. **automl-tabular-infra-validator**: Validate the trained model by sending a prediction request and checking whether it completes successfully.\n5. **model-upload**: Upload the model from the user's Cloud Storage bucket to Vertex AI as a Vertex AI model.\n6. **condition-run-evaluation-2** : **Optional** . Use the test set to calculate evaluation metrics. Runs only when `run_evaluation` is set to `true`.\n\nOverview of Wide \\& Deep HyperparameterTuningJob pipeline and components\n------------------------------------------------------------------------\n\nThe Wide \\& Deep HyperparameterTuningJob pipeline is illustrated by the following diagram:\n\n\u003cbr /\u003e\n\n1. **feature-transform-engine** : Performs feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **split-materialized-data** : Split the materialized data into a training set, an evaluation set, and a test set.\n\n \u003cbr /\u003e\n\n Input:\n - Materialized data `materialized_data`.\n\n Output:\n - Materialized training split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n3. **get-wide-and-deep-study-spec-parameters** : Generate the study spec based on a configuration of the training pipeline. If the user provides values for `study_spec_parameters_override`, use those values to override the study spec values.\n\n \u003cbr /\u003e\n\n Input:\n - Optional override of study spec parameters `study_spec_parameters_override`.\n\n Output:\n - Final list of hyperparameters and their ranges for the hyperparameter tuning job.\n4. **wide-and-deep-hyperparameter-tuning-job** : Perform one or more trials of hyperparameter tuning.\n\n \u003cbr /\u003e\n\n Input:\n - Instance baseline `instance_baseline`.\n - Training schema `training_schema`.\n - Transform output `transform_output`.\n - Materialized train split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n - List of hyperparameters and their ranges for the hyperparameter tuning job.\n5. **get-best-hyperparameter-tuning-job-trial** : Select the model from the best hyperparameter tuning job trial of the previous step.\n\n \u003cbr /\u003e\n\n Output:\n - Final model\n6. **automl-tabular-infra-validator**: Validate the trained model by sending a prediction request and checking whether it completes successfully.\n7. **model-upload**: Upload the model from the user's Cloud Storage bucket to Vertex AI as a Vertex AI model.\n8. **condition-run-evaluation-2** : **Optional** . Use the test set to calculate evaluation metrics. Runs only when `run_evaluation` is set to `true`.\n\nWhat's next\n-----------\n\n- [Train a model with Wide \\& Deep](/vertex-ai/docs/tabular-data/tabular-workflows/wide-and-deep-train)."]]