Nesta página, explicamos a integração do TensorFlow da Vertex AI e oferecemos recursos que mostram como usar o TensorFlow na Vertex AI. A integração do TensorFlow com a Vertex AI facilita o treinamento, a implantação e a orquestração de modelos do TensorFlow na produção.
Executar código em notebooks
A Vertex AI oferece duas opções para executar o código em notebooks: Colab Enterprise e Vertex AI Workbench. Para saber mais sobre essas opções, consulte Escolher uma solução de notebook.
Contêineres pré-criados para treinamento
A Vertex AI oferece imagens de contêiner do Docker pré-criadas para treinamento de modelo. Esses contêineres são organizados por frameworks de aprendizado de máquina, versões de framework e incluem dependências comuns que podem ser usadas no código de treinamento.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Treinamento distribuído
É possível executar o treinamento distribuído de modelos do TensorFlow na Vertex AI. Para o treinamento de vários workers, é possível usar o Servidor de redução para otimizar ainda mais o desempenho para operações coletivas com redução de tudo. Para saber mais sobre o treinamento distribuído na Vertex AI, consulte Treinamento distribuído.
Contêineres pré-criados para previsões
Semelhante aos contêineres pré-criados para treinamento, a Vertex AI fornece imagens de contêiner pré-criadas para exibir previsões e explicações de modelos do TensorFlow que você criou dentro ou fora da Vertex AI. Essas imagens fornecem servidores de previsões HTTP que podem ser usados para exibir previsões com o mínimo de configuração.
Para saber quais versões do TensorFlow têm contêineres de treinamento pré-criados e como treinar modelos com um contêiner de treinamento pré-criado, consulte Contêineres pré-criados para treinamento personalizado.
Ambiente de execução otimizado do TensorFlow
O ambiente de execução otimizado do TensorFlow usa otimizações de modelo e novas tecnologias proprietárias do Google para melhorar a velocidade e reduzir o custo das previsões em comparação com contêineres de previsão pré-criados padrão da Vertex AI para o TensorFlow.
Integração com o TensorFlow Profiler
Treine modelos mais baratos e mais rápidos monitorando e otimizando o desempenho do seu job de treinamento usando a integração do TensorFlow Profiler da Vertex AI. O TensorFlow Profiler ajuda a entender o consumo de recursos das operações de treinamento para que você possa identificar e eliminar gargalos de desempenho.
Para saber mais sobre o TensorFlow Profiler da Vertex AI, consulte Desempenho do treinamento de modelo do perfil usando o Profiler.
Recursos para usar o TensorFlow na Vertex AI
Para saber mais e começar a usar o TensorFlow na Vertex AI, consulte os recursos a seguir.
Protótipo para produção: uma série de vídeos que fornece um exemplo completo de desenvolvimento e implantação de um modelo personalizado do TensorFlow na Vertex AI.
Otimize o desempenho do treinamento com o servidor de redução na Vertex AI: uma postagem do blog sobre como otimizar o treinamento distribuído na Vertex AI usando o servidor de redução.
Como otimizar o desempenho do treinamento com o TensorFlow Profiler na Vertex AI: uma postagem de blog que mostra como identificar gargalos de desempenho no seu job de treinamento usando o TensorFlow Profiler da Vertex AI.
Previsão em lote de modelo personalizado com filtragem de atributos : um tutorial do notebook que mostra como usar o SDK da Vertex AI para Python para treinar um modelo de classificação tabular personalizado e executar a previsão em lote com a filtragem de atributos.
Vertex AI Pipelines: treinamento personalizado com componentes pré-criados do pipeline do Google Cloud: um tutorial do notebook que mostra como usar pipelines da Vertex AI com componentes pré-criados do pipeline do Google Cloud para treinamento personalizado.
Co-hospedar modelos do TensorFlow na mesma VM para previsões: um codelab que mostra como usar o atributo de modelo de co-hospedagem na Vertex AI para hospedar vários modelos na mesma VM para previsões on-line.