Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este documento apresenta uma visão geral do fluxo de trabalho tabular para componentes e componentes do TabNet. Para treinar um modelo com o TabNet,
consulte Treinar um modelo com o TabNet.
A TabNet usa a atenção sequencial para escolher quais recursos usar em cada etapa de decisão. Isso promove interpretabilidade e
aprendizado mais eficiente, porque a capacidade de aprendizado é usada para os atributos mais significativos.
Vantagens
Seleciona automaticamente o espaço de pesquisa de hiperparâmetros adequado com base no tamanho do conjunto de dados, no tipo de inferência e no orçamento de treinamento.
Integrado com a Vertex AI. O modelo treinado é um modelo da Vertex AI. Você pode executar inferências em lote ou implantar o modelo para inferências on-line imediatamente.
Fornece a interpretabilidade inerente do modelo. É possível receber insights sobre quais atributos a TabNet usou para tomar a decisão.
Oferece suporte ao treinamento de GPUs.
TabNet nos pipelines da Vertex AI
O fluxo de trabalho tabular para treinamento do TabNet
é uma instância gerenciada do Vertex AI Pipelines.
O Vertex AI Pipelines é um serviço sem servidor que executa pipelines do Kubeflow. É possível usar pipelines para automatizar e monitorar suas tarefas de machine learning e de preparação de dados. Cada etapa em um pipeline executa parte do fluxo de trabalho do pipeline. Por exemplo,
um pipeline pode incluir etapas para dividir dados, transformar tipos de dados e treinar um modelo. Como as etapas são instâncias de componentes do pipeline, as etapas têm entradas, saídas e uma imagem de contêiner. As entradas de etapa podem ser definidas nas entradas do pipeline ou elas podem depender da saída de outras etapas dentro do pipeline. Essas dependências definem o fluxo de trabalho do pipeline como um gráfico acíclico dirigido.
O fluxo de trabalho tabular para TabNet oferece duas versões:
HyperparameterTuningJob procura o melhor conjunto de valores de hiperparâmetros a serem usados para treinamento de modelos.
Com o CustomJob, é possível especificar os valores de hiperparâmetros a serem usados para o treinamento do modelo. Se você souber exatamente de quais valores de hiperparâmetro é necessário, especifique-os em vez de procurá-los e economizar recursos de treinamento.
Visão geral do pipeline e dos componentes do TabNet CustomJob
O diagrama a seguir ilustra o pipeline do TabNet CustomJob:
Estes são os componentes do pipeline:
feature-transform-engine: executa a engenharia de atributos. Consulte Feature Transform Engine para saber mais detalhes.
split-materialized-data:
divida os dados materializados em um conjunto de treinamento, de avaliação e de teste.
Entrada:
Dados materializados materialized_data.
Saída:
Divisão de treinamento materializada materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
tabnet-trainer:
realize treinamento de modelo.
Entrada:
Valor de referência de instância instance_baseline.
Esquema de treinamento training_schema.
Saída de transformação transform_output.
Divisão materializada do trem materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
Saída:
modelo final
automl-tabular-infra-validator:
valida o modelo treinado enviando uma solicitação de previsão e verificando
se ele foi concluído.
model-upload:
fazer upload do modelo do bucket do Cloud Storage do usuário para a
Vertex AI como um modelo da Vertex AI.
condition-run-evaluation-2:
Opcional. Use o conjunto de teste para calcular as métricas de avaliação. É executado apenas quando
run_evaluation está definido como true.
Visão geral do pipeline e dos componentes do TabNet HyperparameterTuningJob
O diagrama a seguir ilustra o pipeline do TabNet HyperparameterTuningJob:
feature-transform-engine: executa a engenharia de atributos. Consulte Feature Transform Engine para saber mais detalhes.
split-materialized-data:
divida os dados materializados em um conjunto de treinamento, de avaliação e de teste.
Entrada:
Dados materializados materialized_data.
Saída:
Divisão de treinamento materializada materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
get-tabnet-study-spec-parameters:
gere a especificação do estudo com base em uma configuração do pipeline de treinamento. Se o usuário fornecer valores para
study_spec_parameters_override, use-os para substituir os valores da especificação do estudo.
Entrada:
Configuração do pipeline de treinamento (max_trial_count, prediction_type).
Estatísticas do conjunto de dados dataset_stats
Substituição opcional dos parâmetros de especificações de estudo study_spec_parameters_override.
Saída:
Lista final de hiperparâmetros e os intervalos deles para o job de ajuste de hiperparâmetros.
tabnet-hyperparameter-tuning-job:
execute um ou mais testes de ajuste de hiperparâmetro.
Entrada:
Valor de referência de instância instance_baseline.
Esquema de treinamento training_schema.
Saída de transformação transform_output.
Divisão materializada do trem materialized_train_split.
Divisão de avaliação materializada materialized_eval_split.
Conjunto de teste materializado materialized_test_split.
Lista de hiperparâmetros e os intervalos deles para o job de ajuste de hiperparâmetros.
get-best-hyperparameter-tuning-job-trial:
selecione o modelo usando o melhor teste de job de ajuste de hiperparâmetros da etapa anterior.
Saída:
modelo final
automl-tabular-infra-validator:
valida o modelo treinado enviando uma solicitação de previsão e verificando
se ele foi concluído.
model-upload:
fazer upload do modelo do bucket do Cloud Storage do usuário para a
Vertex AI como um modelo da Vertex AI.
condition-run-evaluation-2:
Opcional. Use o conjunto de teste para calcular as métricas de avaliação. É executado apenas quando
run_evaluation está definido como true.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-19 UTC."],[],[],null,["# Tabular Workflow for TabNet\n\n| **Preview**\n|\n|\n| This feature is subject to the \"Pre-GA Offerings Terms\" in the General Service Terms section\n| of the [Service Specific Terms](/terms/service-terms#1).\n|\n| Pre-GA features are available \"as is\" and might have limited support.\n|\n| For more information, see the\n| [launch stage descriptions](/products#product-launch-stages).\n\nThis document provides an overview of the Tabular Workflow for TabNet\npipelines and components. To train a model with TabNet,\nsee [Train a model with TabNet](/vertex-ai/docs/tabular-data/tabular-workflows/tabnet-train).\n\n\n[TabNet](https://arxiv.org/abs/1908.07442) uses [sequential attention](https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf) to choose which\nfeatures to reason from at each decision step. This promotes interpretability and\nmore efficient learning because the learning capacity is used for the most salient features.\n\nBenefits\n--------\n\n\n- Automatically selects the appropriate hyperparameter search space based on the dataset size, inference type, and training budget.\n- Integrated with Vertex AI. The trained model is a Vertex AI model. You can run batch inferences or deploy the model for online inferences right away.\n- Provides inherent model interpretability. You can get insight into which features TabNet used to make its decision.\n- Supports GPU training.\n\n\u003cbr /\u003e\n\nTabNet on Vertex AI Pipelines\n-----------------------------\n\nTabular Workflow for TabNet is a managed instance of Vertex AI Pipelines.\n\n\n[Vertex AI Pipelines](/vertex-ai/docs/pipelines/introduction) is a serverless\nservice that runs Kubeflow pipelines. You can use pipelines to automate\nand monitor your machine learning and data preparation tasks. Each step in a\npipeline performs part of the pipeline's workflow. For example,\na pipeline can include steps to split data, transform data types, and train a model. Since steps\nare instances of pipeline components, steps have inputs, outputs, and a\ncontainer image. Step inputs can be set from the pipeline's inputs or they can\ndepend on the output of other steps within this pipeline. These dependencies\ndefine the pipeline's workflow as a directed acyclic graph.\n\nTabular Workflow for TabNet offers two versions:\n\n- [HyperparameterTuningJob](#hyperparametertuningjob) searches for the best set of hyperparameter values to use for model training.\n- [CustomJob](#customjob) lets you specify the hyperparameter values to use for model training. If you know exactly which hyperparameter values you need, specify them instead of searching for them and save on training resources.\n\nOverview of TabNet CustomJob pipeline and components\n----------------------------------------------------\n\nThe following diagram illustrates the TabNet CustomJob pipeline:\n\n\u003cbr /\u003e\n\nThe pipeline components are:\n\n1. **feature-transform-engine** : Perform feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **split-materialized-data** : Split the materialized data into a training set, an evaluation set, and a test set.\n\n \u003cbr /\u003e\n\n Input:\n - Materialized data `materialized_data`.\n\n Output:\n - Materialized training split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n3. **tabnet-trainer** : Perform model training.\n\n \u003cbr /\u003e\n\n Input:\n - Instance baseline `instance_baseline`.\n - Training schema `training_schema`.\n - Transform output `transform_output`.\n - Materialized train split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n\n Output:\n - Final model\n4. **automl-tabular-infra-validator**: Validate the trained model by sending a prediction request and checking whether it completes successfully.\n5. **model-upload**: Upload the model from the user's Cloud Storage bucket to Vertex AI as a Vertex AI model.\n6. **condition-run-evaluation-2** : **Optional** . Use the test set to calculate evaluation metrics. Runs only when `run_evaluation` is set to `true`.\n\nOverview of TabNet HyperparameterTuningJob pipeline and components\n------------------------------------------------------------------\n\nThe following diagram illustrates the TabNet HyperparameterTuningJob pipeline:\n\n\u003cbr /\u003e\n\n1. **feature-transform-engine** : Perform feature engineering. See [Feature Transform Engine](/vertex-ai/docs/tabular-data/tabular-workflows/feature-engineering) for details.\n2. **split-materialized-data** : Split the materialized data into a training set, an evaluation set, and a test set.\n\n \u003cbr /\u003e\n\n Input:\n - Materialized data `materialized_data`.\n\n Output:\n - Materialized training split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n3. **get-tabnet-study-spec-parameters** : Generate the study spec based on a configuration of the training pipeline. If the user provides values for `study_spec_parameters_override`, use those values to override the study spec values.\n\n \u003cbr /\u003e\n\n Input:\n - Training pipeline configuration (`max_trial_count`, `prediction_type`).\n - Dataset statistics `dataset_stats`.\n - Optional override of study spec parameters `study_spec_parameters_override`.\n\n Output:\n - Final list of hyperparameters and their ranges for the hyperparameter tuning job.\n4. **tabnet-hyperparameter-tuning-job** : Perform one or more trials of hyperparameter tuning.\n\n \u003cbr /\u003e\n\n Input:\n - Instance baseline `instance_baseline`.\n - Training schema `training_schema`.\n - Transform output `transform_output`.\n - Materialized train split `materialized_train_split`.\n - Materialized evaluation split `materialized_eval_split`.\n - Materialized test set `materialized_test_split`.\n - List of hyperparameters and their ranges for the hyperparameter tuning job.\n5. **get-best-hyperparameter-tuning-job-trial** : Select the model from the best hyperparameter tuning job trial of the previous step.\n\n \u003cbr /\u003e\n\n Output:\n - Final model\n6. **automl-tabular-infra-validator**: Validate the trained model by sending a prediction request and checking whether it completes successfully.\n7. **model-upload**: Upload the model from the user's Cloud Storage bucket to Vertex AI as a Vertex AI model.\n8. **condition-run-evaluation-2** : **Optional** . Use the test set to calculate evaluation metrics. Runs only when `run_evaluation` is set to `true`.\n\nWhat's next\n-----------\n\n- [Train a model with TabNet](/vertex-ai/docs/tabular-data/tabular-workflows/tabnet-train)."]]