Introdução a um contêiner de aprendizado profundo local
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Esta página descreve como criar e configurar um Deep Learning Container local.
Para este guia, você precisa estar familiarizado
com o Docker (em inglês).
Antes de começar
Conclua as etapas a seguir para configurar uma conta do Google Cloud , ativar
as APIs necessárias e instalar e ativar o software necessário.
No Google Cloud Console, acesse a página Gerenciar recursos
e selecione ou crie um projeto.
Se você estiver usando um sistema operacional baseado em Linux, como Ubuntu ou Debian,
adicione seu nome de usuário ao grupo docker para executar o Docker
sem usar sudo:
sudousermod-a-Gdocker${USER}
Talvez seja necessário reiniciar o sistema depois de adicionar
você mesmo ao grupo docker.
Abra o Docker. Para garantir que ele esteja funcionando, execute o
comando do Docker a seguir, que retorna a hora e a data atuais:
docker run busybox date
Use o gcloud como auxiliar de credencial do Docker:
gcloud auth configure-docker
Opcional: se você quer executar o contêiner pela GPU no local,
instale o
nvidia-docker (em inglês).
Criar seu contêiner
Siga estas etapas para criar seu contêiner:
Para ver uma lista de contêineres disponíveis, faça o seguinte:
gcloud container images list \
--repository="gcr.io/deeplearning-platform-release"
Se você não precisar usar um contêiner ativado para a GPU, insira o exemplo de código
a seguir. Substitua tf-cpu.1-13 pelo nome do contêiner
que você quer usar.
docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
gcr.io/deeplearning-platform-release/tf-cpu.1-13
Se você quiser usar um contêiner ativado para GPU, insira o exemplo de código
a seguir. Substitua tf-gpu.1-13 pelo nome do contêiner
que você quer usar.
docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
gcr.io/deeplearning-platform-release/tf-gpu.1-13
Esse comando inicia o contêiner no modo separado, monta o diretório local
/path/to/local/dir em /home/jupyter no contêiner e mapeia
a porta 8080 no contêiner para a porta 8080 na máquina local. O
contêiner é pré-configurado para iniciar um servidor JupyterLab, que pode
ser acessado em http://localhost:8080.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-03-26 UTC."],[[["This guide details the process of creating and setting up a local deep learning container, requiring basic Docker knowledge."],["The setup involves creating or selecting a Google Cloud project, installing and initializing the gcloud CLI, and installing Docker, with specific instructions for Linux users to avoid using `sudo`."],["Users can choose from available deep learning containers using a command to list them or visit the \"Choosing a container\" page, then using a command to either use a cpu container, or a gpu-enabled container."],["The container is launched in detached mode, mounting a local directory to the container and mapping a port, which then allows the user to use a preconfigured JupyterLab server."],["Optionally, for those requiring GPU acceleration, the guide suggests installing `nvidia-docker`, and using the appropriate container creation command."]]],[]]