Nesta página, explicamos a integração do TensorFlow da Vertex AI e oferecemos recursos que mostram como usar o TensorFlow na Vertex AI. A integração do TensorFlow com a Vertex AI facilita o treinamento, a implantação e a orquestração de modelos do TensorFlow na produção.
Executar código em notebooks
A Vertex AI oferece duas opções para executar o código em notebooks: Colab Enterprise e Vertex AI Workbench. Para saber mais sobre essas opções, consulte Escolher uma solução de notebook.
Contêineres pré-criados para treinamento
A Vertex AI oferece imagens de contêiner do Docker pré-criadas para treinamento de modelo. Esses contêineres são organizados por frameworks de aprendizado de máquina, versões de framework e incluem dependências comuns que podem ser usadas no código de treinamento.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Treinamento distribuído
É possível executar o treinamento distribuído de modelos do TensorFlow na Vertex AI. Para o treinamento de vários workers, é possível usar o Servidor de redução para otimizar ainda mais o desempenho para operações coletivas com redução de tudo. Para saber mais sobre o treinamento distribuído na Vertex AI, consulte Treinamento distribuído.
Contêineres pré-criados para inferência
Semelhante aos contêineres pré-criados para treinamento, a Vertex AI fornece imagens de contêiner pré-criadas para veicular inferências e explicações de modelos do TensorFlow que você criou dentro ou fora da Vertex AI. Essas imagens fornecem servidores de inferência HTTP que podem ser usados para exibir inferências com o mínimo de configuração.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Ambiente de execução otimizado do TensorFlow
O ambiente de execução otimizado do TensorFlow usa otimizações de modelo e novas tecnologias proprietárias do Google para aumentar a velocidade e reduzir o custo das inferências em comparação com os contêineres de inferência pré-criados padrão da Vertex AI para o TensorFlow.
Integração do TensorFlow Cloud Profiler
Treine modelos mais baratos e mais rápidos monitorando e otimizando o desempenho do seu job de treinamento usando a integração do TensorFlow Cloud Profiler da Vertex AI. O TensorFlow Cloud Profiler ajuda a entender o consumo de recursos das operações de treinamento para que você possa identificar e eliminar gargalos de desempenho.
Para saber mais sobre o TensorFlow Cloud Profiler da Vertex AI, consulte Gerar perfil de desempenho do treinamento de modelo usando o Profiler.
Recursos para usar o TensorFlow na Vertex AI
Para saber mais e começar a usar o TensorFlow na Vertex AI, consulte os recursos a seguir.
Protótipo para produção: uma série de vídeos que fornece um exemplo completo de desenvolvimento e implantação de um modelo personalizado do TensorFlow na Vertex AI.
Otimize o desempenho do treinamento com o servidor de redução na Vertex AI: uma postagem do blog sobre como otimizar o treinamento distribuído na Vertex AI usando o servidor de redução.
Como otimizar o desempenho do treinamento com o TensorFlow Cloud Profiler na Vertex AI: uma postagem de blog que mostra como identificar gargalos de desempenho no seu job de treinamento usando o TensorFlow Cloud Profiler da Vertex AI.
Previsão em lote de modelo personalizado com filtragem de atributos: um tutorial do notebook que mostra como usar o SDK da Vertex AI para Python para treinar um modelo de classificação tabular personalizado e realizar a inferência em lote com a filtragem de atributos.
Vertex AI Pipelines: treinamento personalizado com componentes pré-criados Google Cloud do pipeline: um tutorial do notebook que mostra como usar pipelines da Vertex AI com componentes pré-criados Google Cloud do pipeline para treinamento personalizado.
Co-hospedar modelos do TensorFlow na mesma VM para previsões: um codelab que mostra como usar o atributo de modelo de co-hospedagem na Vertex AI para hospedar vários modelos na mesma VM para inferências on-line.