Criar uma instância de VM de aprendizado profundo do PyTorch
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Nesta página, mostramos como criar uma instância de imagens de VM de aprendizado profundo do PyTorch
com o PyTorch e outras ferramentas pré-instaladas. É possível criar
uma instância do PyTorch pelo Cloud Marketplace no
console Google Cloud ou usando a linha de comando.
Antes de começar
Sign in to your Google Cloud account. If you're new to
Google Cloud,
create an account to evaluate how our products perform in
real-world scenarios. New customers also get $300 in free credits to
run, test, and deploy workloads.
In the Google Cloud console, on the project selector page,
select or create a Google Cloud project.
Se estiver usando GPUs com sua VM de aprendizado profundo, verifique a
página de cotas
para garantir que você tenha
GPUs suficientes disponíveis no seu projeto. Se as GPUs não estiverem listadas
nessa página ou se você precisar de cotas adicionais,
solicite um
aumento de cota.
Como criar uma instância de VM de aprendizado profundo do PyTorch no Google Cloud Marketplace
Para criar uma instância de VM de aprendizado profundo do PyTorch
no Cloud Marketplace, conclua as seguintes etapas:
Acesse a página de VM de aprendizado profundo do Cloud Marketplace no
console Google Cloud .
Em GPUs, selecione o Tipo de GPU e o Número de GPUs.
Se você não quiser usar GPUs,
clique no botão Excluir GPU
e pule para a etapa 7. Saiba mais sobre GPUs.
Em Framework, selecione PyTorch 1.8 + fast.ai 2.1 (CUDA 11.0).
Se você estiver usando GPUs, precisará de um driver NVIDIA.
É possível instalar o driver
você mesmo ou selecionar Instalar driver de GPU NVIDIA
automaticamente na primeira inicialização.
Você tem a opção de selecionar Ativar o acesso ao JupyterLab por URL
em vez de SSH (Beta). A ativação desse recurso Beta permite
acessar sua instância do JupyterLab
usando um URL. Qualquer pessoa que tenha o papel Editor ou Proprietário no seu projeto doGoogle Cloud poderá acessar esse URL.
Atualmente, esse recurso funciona apenas nos
Estados Unidos, na União Europeia e na Ásia.
Selecione um tipo de disco de inicialização e um tamanho de disco de inicialização.
Selecione as configurações de rede que você quer.
Clique em Implantar.
Se você optar por instalar os drivers da NVIDIA, aguarde de três a cinco minutos para concluir
a instalação.
Depois que a VM for implantada, a página será atualizada com instruções
para acessar a instância.
Como criar uma instância de VM de aprendizado profundo do PyTorch da linha de comando
Para usar a CLI do Google Cloud para criar uma nova instância de VM de aprendizado profundo, primeiro é necessário instalar e inicializar a CLI do Google Cloud:
É necessário que --image-family seja pytorch-latest-cpu ou pytorch-VERSION-cpu (por exemplo, pytorch-1-13-cpu).
--image-project precisa ser deeplearning-platform-release.
Com uma ou mais GPUs
O Compute Engine oferece a opção de adicionar GPUs às instâncias de máquina virtual. As GPUs oferecem processamento mais rápido para muitas tarefas complexas de machine learning e dados. Para saber mais sobre GPUs, consulte GPUs no Compute Engine.
Para criar uma instância de VM de aprendizado profundo
com a família de imagens mais recente do PyTorch e uma
ou mais GPUs anexadas, digite o seguinte na linha de comando:
É necessário que --image-family seja pytorch-latest-gpu ou pytorch-VERSION-CUDA-VERSION (por exemplo, pytorch-1-10-cu110).
--image-project precisa ser deeplearning-platform-release.
--maintenance-policy precisa ser TERMINATE. Para saber mais, consulte Restrições da GPU.
--accelerator especifica o tipo de GPU a ser usado. Precisa ser
especificado no formato --accelerator="type=TYPE,count=COUNT".
Por exemplo, --accelerator="type=nvidia-tesla-p100,count=2".
Consulte a tabela
de modelos de GPU
para ver uma lista de tipos e contagens de GPU disponíveis.
--metadata é usado para especificar que o driver NVIDIA precisa ser instalado em seu nome. O valor é install-nvidia-driver=True. Se especificado, o Compute Engine carregará o driver estável mais recente na primeira inicialização e executará as etapas necessárias, incluindo uma reinicialização final para ativar o driver.
Se você optou por instalar os drivers da NVIDIA, aguarde de três a cinco minutos para concluir a instalação.
Pode levar até cinco minutos para que a VM seja totalmente provisionada. Neste momento, não será possível executar o SSH em sua máquina. Quando a instalação for concluída, será possível efetuar SSH e executar nvidia-smi, para garantir que a instalação do driver foi bem-sucedida.
Quando você tiver configurado a imagem, será possível salvar um snapshot dela para que seja possível iniciar instâncias derivativas sem ter que esperar pela instalação do driver.
Como criar uma instância preemptiva
Crie uma instância preemptiva da VM de aprendizado profundo. Essa instância pode ser criada e executada a um preço muito mais baixo do que as instâncias normais. No entanto, o Compute Engine poderá parar essas instâncias (ou seja, forçar a interrupção delas) caso precise de acesso a esses recursos para outras tarefas.
As instâncias preemptivas sempre são interrompidas após 24 horas. Para saber mais sobre instâncias preemptivas, consulte Instâncias de VM preemptivas.
Para criar uma instância de VM preemptiva de aprendizado profundo:
Siga as instruções acima para criar uma nova instância usando a linha de comando. Para o comando gcloud compute instances create, anexe o seguinte:
--preemptible
A seguir
Para instruções sobre como se conectar à nova instância de VM de aprendizado profundo
pelo console ou pela linha de comando do Google Cloud , consulte Como se conectar a
instâncias. O nome da instância é o Nome da implantação que você especificou com -vm anexado.
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-17 UTC."],[[["\u003cp\u003eThis guide explains how to create a PyTorch Deep Learning VM instance, either through the Google Cloud Marketplace or using the command line interface.\u003c/p\u003e\n"],["\u003cp\u003eYou can configure your instance with or without GPUs, and if using GPUs, an NVIDIA driver installation is required, which can be done automatically.\u003c/p\u003e\n"],["\u003cp\u003eWhen creating an instance, options such as machine type, zone, framework, and networking settings, along with specific configurations for GPUs, can be customized.\u003c/p\u003e\n"],["\u003cp\u003eUsing the command line, you can create instances with specified PyTorch versions, and it includes provisions for creating instances with or without GPUs, along with specifying details like image family and project.\u003c/p\u003e\n"],["\u003cp\u003ePreemptible instances, which offer a lower price but can be terminated, are available for creation and can be done by adding a \u003ccode\u003e--preemptible\u003c/code\u003e flag to your gcloud command.\u003c/p\u003e\n"]]],[],null,["# Create a PyTorch Deep Learning VM instance\n\nThis page shows you how to create a PyTorch Deep Learning VM Images instance\nwith PyTorch and other tools pre-installed. You can create\na PyTorch instance from Cloud Marketplace within\nthe Google Cloud console or using the command line.\n\nBefore you begin\n----------------\n\n- Sign in to your Google Cloud account. If you're new to Google Cloud, [create an account](https://console.cloud.google.com/freetrial) to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n | **Note**: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n- In the Google Cloud console, on the project selector page,\n select or create a Google Cloud project.\n\n | **Note**: If you don't plan to keep the resources that you create in this procedure, create a project instead of selecting an existing project. After you finish these steps, you can delete the project, removing all resources associated with the project.\n\n [Go to project selector](https://console.cloud.google.com/projectselector2/home/dashboard)\n-\n [Verify that billing is enabled for your Google Cloud project](/billing/docs/how-to/verify-billing-enabled#confirm_billing_is_enabled_on_a_project).\n\n1. If you are using GPUs with your Deep Learning VM, check the [quotas page](https://console.cloud.google.com/quotas) to ensure that you have enough GPUs available in your project. If GPUs are not listed on the quotas page or you require additional GPU quota, [request a\n quota increase](/compute/quotas#requesting_additional_quota).\n\nCreating a PyTorch Deep Learning VM instance from the Cloud Marketplace\n-----------------------------------------------------------------------\n\nTo create a PyTorch Deep Learning VM instance\nfrom the Cloud Marketplace, complete the following steps:\n\n1. Go to the Deep Learning VM Cloud Marketplace page in\n the Google Cloud console.\n\n [Go to the Deep Learning VM Cloud Marketplace page](https://console.cloud.google.com/marketplace/details/click-to-deploy-images/deeplearning)\n2. Click **Get started**.\n\n3. Enter a **Deployment name** , which will be the root of your VM name.\n Compute Engine appends `-vm` to this name when naming your instance.\n\n4. Select a **Zone**.\n\n5. Under **Machine type** , select the specifications that you\n want for your VM.\n [Learn more about machine types.](/compute/docs/machine-types)\n\n6. Under **GPUs** , select the **GPU type** and **Number of GPUs** .\n If you don't want to use GPUs,\n click the **Delete GPU** button\n and skip to step 7. [Learn more about GPUs.](/gpu)\n\n 1. Select a **GPU type** . Not all GPU types are available in all zones. [Find a combination that is supported.](/compute/docs/gpus)\n 2. Select the **Number of GPUs** . Each GPU supports different numbers of GPUs. [Find a combination that is supported.](/compute/docs/gpus)\n7. Under **Framework** , select **PyTorch 1.8 + fast.ai 2.1\n (CUDA 11.0)**.\n\n8. If you're using GPUs, an NVIDIA driver is required.\n You can install the driver\n yourself, or select **Install NVIDIA GPU driver automatically\n on first startup**.\n\n9. You have the option to select **Enable access to JupyterLab via URL\n instead of SSH (Beta)**. Enabling this Beta feature lets you\n access your JupyterLab\n instance using a URL. Anyone who is in the Editor or Owner role in your\n Google Cloud project can access this URL.\n Currently, this feature only works in\n the United States, the European Union, and Asia.\n\n10. Select a boot disk type and boot disk size.\n\n11. Select the networking settings that you want.\n\n12. Click **Deploy**.\n\nIf you choose to install NVIDIA drivers, allow 3-5 minutes for installation\nto complete.\n\nAfter the VM is deployed, the page updates with instructions for\naccessing the instance.\n\nCreating a PyTorch Deep Learning VM instance from the command line\n------------------------------------------------------------------\n\nTo use the Google Cloud CLI to create a new a Deep Learning VM\ninstance, you must first install and initialize the [Google Cloud CLI](/sdk/docs):\n\n1. Download and install the Google Cloud CLI using the instructions given on [Installing Google Cloud CLI](/sdk/downloads).\n2. Initialize the SDK using the instructions given on [Initializing Cloud\n SDK](/sdk/docs/initializing).\n\nTo use `gcloud` in Cloud Shell, first activate Cloud Shell using the\ninstructions given on [Starting Cloud Shell](/shell/docs/starting-cloud-shell).\n\n### Without GPUs\n\nTo create a Deep Learning VM instance\nwith the latest PyTorch image family and a\nCPU, enter the following at the command line: \n\n export IMAGE_FAMILY=\"pytorch-latest-cpu\"\n export ZONE=\"us-west1-b\"\n export INSTANCE_NAME=\"my-instance\"\n\n gcloud compute instances create $INSTANCE_NAME \\\n --zone=$ZONE \\\n --image-family=$IMAGE_FAMILY \\\n --image-project=deeplearning-platform-release\n\nOptions:\n\n- `--image-family` must be either `pytorch-latest-cpu`\n or `pytorch-`\u003cvar translate=\"no\"\u003eVERSION\u003c/var\u003e`-cpu`\n (for example, `pytorch-1-13-cpu`).\n\n- `--image-project` must be `deeplearning-platform-release`.\n\n### With one or more GPUs\n\nCompute Engine offers the option of adding one or more GPUs to your\nvirtual machine instances. GPUs offer faster processing for many complex data\nand machine learning tasks. To learn more about GPUs, see [GPUs on\nCompute Engine](/compute/docs/gpus).\n\nTo create a Deep Learning VM instance with the\nlatest PyTorch image family and one\nor more attached GPUs, enter the following at the command line: \n\n export IMAGE_FAMILY=\"pytorch-latest-gpu\"\n export ZONE=\"us-west1-b\"\n export INSTANCE_NAME=\"my-instance\"\n\n gcloud compute instances create $INSTANCE_NAME \\\n --zone=$ZONE \\\n --image-family=$IMAGE_FAMILY \\\n --image-project=deeplearning-platform-release \\\n --maintenance-policy=TERMINATE \\\n --accelerator=\"type=nvidia-tesla-v100,count=1\" \\\n --metadata=\"install-nvidia-driver=True\"\n\nOptions:\n\n- `--image-family` must be either `pytorch-latest-gpu`\n or `pytorch-`\u003cvar translate=\"no\"\u003eVERSION\u003c/var\u003e`-`\u003cvar translate=\"no\"\u003eCUDA-VERSION\u003c/var\u003e\n (for example, `pytorch-1-10-cu110`).\n\n- `--image-project` must be `deeplearning-platform-release`.\n\n- `--maintenance-policy` must be `TERMINATE`. To learn more, see\n [GPU Restrictions](/compute/docs/gpus#restrictions).\n\n- `--accelerator` specifies the GPU type to use. Must be\n specified in the format\n `--accelerator=\"type=`\u003cvar translate=\"no\"\u003eTYPE\u003c/var\u003e`,count=`\u003cvar translate=\"no\"\u003eCOUNT\u003c/var\u003e`\"`.\n For example, `--accelerator=\"type=nvidia-tesla-p100,count=2\"`.\n See the [GPU models\n table](/compute/docs/gpus#other_available_nvidia_gpu_models)\n for a list of available GPU types and counts.\n\n Not all GPU types are supported in all regions. For details, see\n [GPU regions and zones availability](/compute/docs/gpus/gpu-regions-zones).\n- `--metadata` is used to specify that the NVIDIA driver should be installed\n on your behalf. The value is `install-nvidia-driver=True`. If specified,\n Compute Engine loads the latest stable driver on the first boot\n and performs the necessary steps (including a final reboot to activate the\n driver).\n\nIf you've elected to install NVIDIA drivers, allow 3-5 minutes for installation\nto complete.\n\nIt may take up to 5 minutes before your VM is fully provisioned. In this\ntime, you will be unable to SSH into your machine. When the installation is\ncomplete, to guarantee that the driver installation was successful, you can\nSSH in and run `nvidia-smi`.\n\nWhen you've configured your image, you can save a snapshot of your\nimage so that you can start derivitave instances without having to wait\nfor the driver installation.\n\nCreating a preemptible instance\n-------------------------------\n\nYou can create a preemptible Deep Learning VM instance. A preemptible\ninstance is an instance you can create and run at a much lower price than\nnormal instances. However, Compute Engine might stop (preempt) these\ninstances if it requires access to those resources for other tasks.\nPreemptible instances always stop after 24 hours. To learn more about\npreemptible instances, see [Preemptible VM\nInstances](/compute/docs/instances/preemptible).\n\nTo create a preemptible Deep Learning VM instance:\n\n- Follow the instructions located above to create a new instance using the\n command line. To the `gcloud compute instances create` command, append the\n following:\n\n ```\n --preemptible\n ```\n\nWhat's next\n-----------\n\nFor instructions on connecting to your new Deep Learning VM instance\nthrough the Google Cloud console or command line, see [Connecting to\nInstances](/compute/docs/instances/connecting-to-instance). Your instance name\nis the **Deployment name** you specified with `-vm` appended."]]