Questa pagina mostra come creare un'istanza di TensorFlow Deep Learning VM Images con TensorFlow e altri strumenti preinstallati. Puoi creare un'istanza TensorFlow da Cloud Marketplace all'interno della Google Cloud console o utilizzando la riga di comando.
Prima di iniziare
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Se utilizzi GPU con la tua VM Deep Learning, controlla la pagina Quote per assicurarti di disporre di un numero sufficiente di GPU nel progetto. Se le GPU non sono elencate nella pagina delle quote o se hai bisogno di una quota di GPU aggiuntiva, richiedi un aumento della quota.
Vai alla pagina Cloud Marketplace delle VM di deep learning nella console Google Cloud .
Fai clic su Inizia.
Inserisci un Nome deployment, che sarà la radice del nome della VM. Quando assegni il nome all'istanza, Compute Engine aggiunge
-vm
a questo nome.Seleziona una zona.
In Tipo di macchina, seleziona le specifiche che vuoi per la tua VM. Scopri di più sui tipi di macchina.
In GPU, seleziona il Tipo di GPU e il Numero di GPU. Se non vuoi utilizzare le GPU, fai clic sul pulsante Elimina GPU e vai al passaggio 7. Scopri di più sulle GPU.
- Seleziona un tipo di GPU. Non tutti i tipi di GPU sono disponibili in tutte le zone. Trova una combinazione supportata.
- Seleziona il Numero di GPU. Ogni GPU supporta un numero diverso di GPU. Trova una combinazione supportata.
In Framework, seleziona una delle versioni del framework TensorFlow.
Se utilizzi le GPU, è necessario un driver NVIDIA. Puoi installare il driver autonomamente o selezionare Installa il driver GPU NVIDIA automaticamente al primo avvio.
Hai la possibilità di selezionare Attiva l'accesso a JupyterLab tramite URL anziché SSH (beta). L'attivazione di questa funzionalità beta ti consente di accedere all'istanza di JupyterLab utilizzando un URL. Chiunque abbia il ruolo Editor o Proprietario nel tuo progettoGoogle Cloud può accedere a questo URL. Al momento, questa funzionalità funziona solo negli Stati Uniti, nell'Unione Europea e in Asia.
Seleziona un tipo e una dimensione del disco di avvio.
Seleziona le impostazioni di rete che preferisci.
Fai clic su Esegui il deployment.
- Scarica e installa Google Cloud CLI seguendo le istruzioni riportate in Installazione di Google Cloud CLI.
- Inizializza l'SDK seguendo le istruzioni riportate in Inizializza Cloud SDK.
--image-family
deve essere uno dei seguenti:tf-ent-latest-cpu
per ottenere l'immagine TensorFlow Enterprise 2 più recente- Nome di una famiglia di immagini TensorFlow o TensorFlow Enterprise precedente (vedi Scelta di un'immagine)
--image-project
deve esseredeeplearning-platform-release
.--image-family
deve essere uno dei seguenti:tf-ent-latest-gpu
per ottenere l'immagine TensorFlow Enterprise 2 più recente- Nome di una famiglia di immagini TensorFlow o TensorFlow Enterprise precedente (vedi Scelta di un'immagine)
--image-project
deve esseredeeplearning-platform-release
.--maintenance-policy
deve essereTERMINATE
. Per saperne di più, vedi Limitazioni delle GPU.--accelerator
specifica il tipo di GPU da utilizzare. Deve essere specificato nel formato--accelerator="type=TYPE,count=COUNT"
. Ad esempio:--accelerator="type=nvidia-tesla-p100,count=2"
. Consulta la tabella dei modelli di GPU per un elenco dei tipi e dei conteggi di GPU disponibili.Non tutti i tipi di GPU sono supportati in tutte le regioni. Per maggiori dettagli, vedi Disponibilità di regioni e zone GPU.
--metadata
viene utilizzato per specificare che il driver NVIDIA deve essere installato per tuo conto. Il valore èinstall-nvidia-driver=True
. Se specificato, Compute Engine carica l'ultimo driver stabile al primo avvio ed esegue i passaggi necessari (incluso un riavvio finale per attivare il driver).Segui le istruzioni riportate sopra per creare una nuova istanza utilizzando la riga di comando. Al comando
gcloud compute instances create
, aggiungi quanto segue:--preemptible
Creazione di un'istanza VM di deep learning TensorFlow da Cloud Marketplace
Per creare un'istanza VM di TensorFlow Deep Learning da Cloud Marketplace, completa i seguenti passaggi:
Se scegli di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.
Dopo il deployment della VM, la pagina viene aggiornata con le istruzioni per accedere all'istanza.
Creazione di un'istanza VM di deep learning TensorFlow dalla riga di comando
Per utilizzare Google Cloud CLI per creare una nuova istanza Deep Learning VM, devi prima installare e inizializzare Google Cloud CLI:
Per utilizzare gcloud
in Cloud Shell, attiva prima Cloud Shell seguendo le
istruzioni riportate in Avvio di Cloud Shell.
Puoi creare un'istanza TensorFlow con o senza GPU.
Senza GPU
Per eseguire il provisioning di un'istanza Deep Learning VM senza una GPU:
export IMAGE_FAMILY="tf-ent-latest-cpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release
Opzioni:
Con una o più GPU
Compute Engine offre la possibilità di aggiungere una o più GPU alle istanze di macchine virtuali. Le GPU offrono un'elaborazione più rapida per molte attività complesse di dati e machine learning. Per saperne di più sulle GPU, consulta GPU su Compute Engine.
Per eseguire il provisioning di un'istanza Deep Learning VM con una o più GPU:
export IMAGE_FAMILY="tf-ent-latest-gpu"
export ZONE="us-west1-b"
export INSTANCE_NAME="my-instance"
gcloud compute instances create $INSTANCE_NAME \
--zone=$ZONE \
--image-family=$IMAGE_FAMILY \
--image-project=deeplearning-platform-release \
--maintenance-policy=TERMINATE \
--accelerator="type=nvidia-tesla-v100,count=1" \
--metadata="install-nvidia-driver=True"
Opzioni:
Se hai scelto di installare i driver NVIDIA, attendi 3-5 minuti per il completamento dell'installazione.
Potrebbero essere necessari fino a 5 minuti prima che la VM venga completamente sottoposta al provisioning. Durante questo periodo, non potrai accedere alla tua macchina tramite SSH. Al termine dell'installazione, per verificare che l'installazione del driver sia stata completata correttamente, puoi connetterti tramite SSH ed eseguire nvidia-smi
.
Dopo aver configurato l'immagine, puoi salvarne uno snapshot per poter avviare istanze derivate senza dover attendere l'installazione del driver.
Informazioni su TensorFlow Enterprise
TensorFlow Enterprise è una distribuzione di TensorFlow ottimizzata per l'esecuzione su Google Cloud e include assistenza per le versioni a lungo termine.
Creazione di un'istanza prerilasciabile
Puoi creare un'istanza Deep Learning VM prerilasciabile. Un'istanza preemptible è un'istanza che puoi creare ed eseguire a un prezzo molto inferiore rispetto alle istanze normali. Tuttavia, Compute Engine potrebbe arrestare (prerilasciare) queste istanze se ha bisogno di accedere alle loro risorse per altre attività. Le istanze preemptible si arrestano sempre dopo 24 ore. Per saperne di più sulle istanze preemptible, consulta Istanze VM preemptible.
Per creare un'istanza Deep Learning VM prerilasciabile:
Passaggi successivi
Per istruzioni su come connetterti alla nuova istanza Deep Learning VM
tramite la console Google Cloud o la riga di comando, consulta Connessione alle
istanze. Il nome dell'istanza
è il nome del deployment che hai specificato con l'aggiunta di -vm
.