Nesta página, descrevemos como começar a usar o TensorFlow Enterprise com uma instância local de contêineres de aprendizado profundo.
Neste exemplo, você cria e executa uma instância de contêineres de aprendizado profundo do TensorFlow Enterprise na máquina local. Em seguida, abra um notebook do JupyterLab, incluído por padrão na instância do contêiner, e execute um tutorial de classificação sobre o uso de redes neurais com o Keras.
Antes de começar
Conclua as etapas a seguir para instalar o SDK do Cloud e o Docker e, em seguida, configure sua máquina local.
Instalar o SDK do Cloud e o Docker
Conclua estas etapas para instalar o SDK do Cloud e o Docker em sua máquina local.
Faça o download e instale o SDK do Cloud na sua máquina local. O SDK do Cloud é uma ferramenta de linha de comando usada para interagir com sua instância.
Configurar a máquina local
Conclua estas etapas para configurar sua máquina local.
Se você estiver usando um sistema operacional baseado em Linux, como Ubuntu ou Debian, use o seguinte comando para adicionar seu nome de usuário ao
docker
grupo para que você possa executar o Docker sem usarsudo
, Substitua USERNAME pelo seu nome de usuário.sudo usermod -a -G docker USERNAME
Talvez seja necessário reiniciar o sistema depois de adicionar você mesmo ao grupo
docker
.Abra o Docker. Para garantir que ele esteja funcionando, execute o comando do Docker a seguir, que retorna a hora e a data atuais:
docker run busybox date
Use o
gcloud
como auxiliar de credencial do Docker:gcloud auth configure-docker
Opcional: se você quiser usar os contêineres ativados para GPU, verifique se você tem uma GPU compatível com CUDA 10, o driver associado
nvidia-docker
instalado.
Criar uma instância de contêineres de aprendizado profundo
Para criar uma instância de contêineres de aprendizado profundo do TensorFlow Enterprise, conclua o seguinte para o tipo de contêiner local que você quer criar.
Se você não precisar usar um contêiner ativado para GPU, use este comando. Substitua /path/to/local/dir pelo caminho para o diretório local que você quer usar.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-cpu.2-3
Se você quiser usar um contêiner ativado para GPU, use o seguinte comando. Substitua /path/to/local/dir pelo caminho para o diretório local que você quer usar.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home \
gcr.io/deeplearning-platform-release/tf2-gpu.2-3
Esse comando inicia o contêiner no modo separado, monta o diretório local
/path/to/local/dir
em /home
no contêiner e mapeia
a porta 8080 no contêiner para a porta 8080 na máquina local.
Abra um notebook JupyterLab e execute um tutorial de classificação
O contêiner está pré-configurado para iniciar um servidor JupyterLab. Conclua estas etapas para abrir um notebook do JupyterLab e executar um tutorial de classificação.
No navegador local, acesse http://localhost:8080 para acessar um notebook do JupyterLab.
double esquerda, clique duas vezes em tutorials para abrir a pasta, navegue e abra tutorials/tf2_course/01_neural_nets_with_keras.ipynb.
Clique no botão de execução
para executar as células do tutorial.
Como executar a instância de contêineres de aprendizado profundo no Google Cloud
Para executar sua instância de contêineres de aprendizado profundo do TensorFlow Enterprise em um ambiente de nuvem, saiba mais sobre as opções para executar contêineres no Google Cloud. Por exemplo, é possível executar o contêiner em um cluster do Google Kubernetes Engine.
A seguir
- Saiba mais sobre os contêineres de aprendizado profundo.
- Comece a usar o TensorFlow Enterprise com a VM de aprendizado profundo.
- Comece a usar o TensorFlow Enterprise com Notebooks.