Introduzione a un container di deep learning locale

Questa pagina descrive come creare e configurare un container di deep learning locale. Questa guida presuppone che tu abbia familiarità di base con Docker.

Prima di iniziare

Completa i seguenti passaggi per configurare un account Google Cloud, abilitare le API richieste e installare e attivare il software necessario.

  1. Nella Google Cloud Console, vai alla pagina Gestisci risorse e seleziona o crea un progetto.

    Vai a Gestisci risorse

  2. Installa e inizializza la gcloud CLI.

  3. Installa Docker.

    Se utilizzi un sistema operativo basato su Linux, ad esempio Ubuntu o Debian, aggiungi il tuo nome utente al gruppo docker in modo da poter eseguire Docker senza utilizzare sudo:

    sudo usermod -a -G docker ${USER}
    

    Potresti dover riavviare il sistema dopo aver aggiunto il tuo account al gruppo docker.

  4. Apri Docker. Per assicurarti che Docker sia in esecuzione, esegui il seguente comando Docker, che restituisce la data e l'ora correnti:

    docker run busybox date
    
  5. Utilizza gcloud come assistente per le credenziali per Docker:

    gcloud auth configure-docker
    
  6. (Facoltativo) Se vuoi eseguire il contenitore utilizzando la GPU in locale, installa nvidia-docker.

Crea il contenitore

Per creare il contenitore, segui questi passaggi.

  1. Per visualizzare un elenco dei container disponibili:

    gcloud container images list \
      --repository="gcr.io/deeplearning-platform-release"
    

    Ti consigliamo di consultare la sezione Scegliere un contenitore per selezionare il contenitore che preferisci.

  2. Se non devi utilizzare un contenitore con GPU, inserisci il seguente esempio di codice. Sostituisci tf-cpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-cpu.1-13
    

    Se vuoi utilizzare un contenitore con GPU abilitata, inserisci il seguente esempio di codice. Sostituisci tf-gpu.1-13 con il nome del contenitore che vuoi utilizzare.

    docker run --runtime=nvidia -d -p 8080:8080 -v /path/to/local/dir:/home/jupyter \
      gcr.io/deeplearning-platform-release/tf-gpu.1-13
    

Questo comando avvia il contenitore in modalità disconnessa, monta la directory locale /path/to/local/dir su /home/jupyter nel contenitore e mappa la porta 8080 sul contenitore alla porta 8080 sulla tua macchina locale. Il contenitore è preconfigurato per avviare un server JupyterLab, che puoi visitare all'indirizzo http://localhost:8080.

Passaggi successivi