Treinar um modelo usando a Vertex AI e o SDK do Python
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Este tutorial é um guia completo que mostra como usar o
SDK da Vertex AI para Python para criar um modelo treinado de maneira personalizada. Você executa o código em um arquivo de notebook (IPYNB) que usa um contêiner do Docker para treinar e criar o modelo. Este tutorial é destinado a cientistas de dados iniciantes na Vertex AI e
familiarizados com notebooks, Python e o fluxo de trabalho de machine learning (ML).
O processo começa usando o console do Google Cloud para criar o projeto que
contém seu trabalho. No projeto, você usa o Vertex AI Workbench para
criar um notebook Jupyter. O ambiente do notebook é onde você executa o código que faz o download e prepara um conjunto de dados e usa o conjunto de dados para criar e treinar um modelo. Ao final do tutorial, o modelo treinado gera previsões.
O objetivo deste tutorial é mostrar todas as etapas necessárias para criar previsões em menos de uma hora. O conjunto de dados usado é relativamente pequeno para não
demorar muito para treinar o modelo. Quando terminar, você poderá aplicar o que aprender a conjuntos de dados maiores. Quanto maior o conjunto de dados, mais precisas serão suas previsões.
Etapas do tutorial
Pré-requisitos: crie a conta e o projeto do Google Cloud.
Criar um
notebook:
crie e prepare um notebook do Jupyter e o ambiente dele. Use o notebook para executar o código que cria seu conjunto de dados, cria e treina seu modelo e gera as previsões.
Criar um conjunto de dados: faça o download de um conjunto de dados do BigQuery disponível publicamente e use-o para criar um conjunto de dados tabular da Vertex AI. O conjunto de dados contém os dados que você usa para treinar seu modelo.
Criar um script de treinamento: crie
um script Python que você transmite para o job de treinamento. O script é executado quando o
job de treinamento treina e cria seu modelo.
Treinar um modelo: use seu conjunto de dados tabular para treinar e implantar um modelo. Use o modelo para criar as previsões.
Fazer previsões: use seu modelo para criar previsões. Esta seção também mostra como excluir recursos
criados ao executar este tutorial para que não haja cobranças
desnecessárias.
O que você realiza
Confira neste tutorial como usar o SDK da Vertex AI para Python para fazer o
seguinte:
Criar um bucket do Cloud Storage para armazenar um conjunto de dados
Pré-processar dados para treinamento
Usar os dados processados para criar um conjunto de dados no BigQuery
Usar o conjunto de dados do BigQuery para criar um conjunto de dados tabular da Vertex AI
Criar e treinar um modelo treinado de maneira personalizada
Implantar o modelo treinado de maneira personalizada em um endpoint
Gerar uma previsão
Remover a implantação do modelo
Excluir todos os recursos criados no tutorial para que não haja cobranças
Recursos faturáveis usados
Neste tutorial, usamos recursos faturáveis associados aos serviços da Vertex AI, do BigQuery e do Cloud Storage Google Cloud . Se você não tem experiência com o Google Cloud, talvez possa usar um ou mais desses serviços sem custos. A Vertex AI oferece US $300 em créditos para novos clientes, e
o Cloud Storage e o BigQuery têm níveis
gratuitos. Para ver mais informações, consulte os seguintes tópicos:
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-25 UTC."],[],[],null,["# Train a model using Vertex AI and the Python SDK\n\n| This tutorial takes between 30 and 60 minutes to complete.\n\n\u003cbr /\u003e\n\nThis tutorial is a start-to-finish guide that shows you how to use the\nVertex AI SDK for Python to create a custom-trained model. You run code in a\nnotebook (IPYNB) file that uses a Docker container to train and create the\nmodel. The tutorial is for data scientists who are new to Vertex AI and\nfamiliar with notebooks, Python, and the Machine Learning (ML) workflow.\n\nThe process starts using the Google Cloud console to create the project that\ncontains your work. In your project, you use Vertex AI Workbench to\ncreate a Jupyter notebook. The notebook environment is where you run code\nthat downloads and prepares a dataset, then use the dataset to create and train\na model. At the end of the tutorial, the trained model generates predictions.\n\nThe goal of this tutorial is to walk you through every step required to create\npredictions in less than an hour. The dataset used is relatively small so that it\ndoesn't take very long to train your model. When you're done, you can apply what\nyou learn to larger datasets. The larger your dataset is, the more accurate your\npredictions are.\n\nTutorial steps\n--------------\n\n1. [Prerequisites](/vertex-ai/docs/tutorials/tabular-bq-prediction/prerequisites) - Create your Google Cloud\n account and project.\n\n2. [Create a\n notebook](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-notebook) -\n Create and prepare a Jupyter notebook and its environment. You use the\n notebook to run code that creates your dataset, creates and trains your\n model, and generates your predictions.\n\n3. [Create a dataset](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-dataset) - Download a publicly\n available BigQuery dataset, then use it to create a Vertex AI\n tabular dataset. The dataset contains the data you use to train your model.\n\n4. [Create a training script](/vertex-ai/docs/tutorials/tabular-bq-prediction/create-training-script) - Create\n a Python script that you pass to your training job. The script runs when the\n training job trains and creates your model.\n\n5. [Train a model](/vertex-ai/docs/tutorials/tabular-bq-prediction/train-and-deploy-model) - Use your tabular\n dataset to train and deploy a model. You use the model to create your\n predictions.\n\n6. [Make predictions](/vertex-ai/docs/tutorials/tabular-bq-prediction/make-prediction) - Use your model to\n create predictions. This section also walks you through deleting resources\n you create while running this tutorial so you don't incur unnecessary\n charges.\n\nWhat you accomplish\n-------------------\n\nThis tutorial walks you through how to use the Vertex AI SDK for Python to do the\nfollowing:\n\n- Create a Cloud Storage bucket to store a dataset\n- Preprocess data for training\n- Use the processed data to create a dataset in BigQuery\n- Use the BigQuery dataset to create a Vertex AI tabular dataset\n- Create and train a custom-trained model\n- Deploy the custom-trained model to an endpoint\n- Generate a prediction\n- Undeploy the model\n- Delete all resources created in the tutorial so you don't incur further charges\n\nBillable resources used\n-----------------------\n\nThis tutorial uses billable resources associated with the Vertex AI,\nBigQuery, and Cloud Storage Google Cloud services. If you're\nnew to Google Cloud, you might be able to use one or more of these services at\nno cost. Vertex AI offers $300 in free credits to new customers, and\nCloud Storage and BigQuery have [free\ntiers](https://cloud.google.com/free). For more information, see the following:\n\n- [Vertex AI pricing](/vertex-ai/pricing) and [Free cloud features and trial offer](https://cloud.google.com/free/docs/free-cloud-features#free-trial)\n- [BigQuery pricing](/bigquery/pricing) and [BigQuery free tier usage](https://cloud.google.com/free/docs/free-cloud-features?#bigquery)\n- [Cloud Storage pricing](/storage/pricing) and [Cloud Storage free tier usage](https://cloud.google.com/free/docs/free-cloud-features#storage)\n- [Google Cloud pricing calculator](/products/calculator)\n\nTo prevent further charges, the final step of this tutorial walks you\nthrough removing all billable Google Cloud resources you created."]]