Executar aplicativos do Cloud TPU no GKE

Neste guia, descrevemos como:

Para mais informações sobre arquiteturas de VM de TPU, consulte Arquitetura do sistema. Este guia só pode ser usado com a arquitetura de nós de TPU.

Benefícios da execução de aplicativos do Cloud TPU no GKE

Os aplicativos de treinamento do Cloud TPU podem ser configurados para serem executados em contêineres do GKE nos pods do GKE. Quando são eles, você tem os seguintes benefícios:

  • Melhoria na configuração e no gerenciamento do fluxo de trabalho: o GKE gerencia o ciclo de vida da TPU. Depois que a inicialização e o treinamento do Cloud TPU são configuradas com o GKE, as cargas de trabalho podem ser repetidas gerenciados pelo GKE, incluindo a recuperação de falhas de jobs.

  • Custo otimizado: você só paga pela TPU enquanto o job estiver ativo. O GKE cria e exclui TPUs automaticamente de acordo com uma os requisitos de recursos do pod.

  • Uso flexível: basta uma pequena alteração na especificação do pod para solicitar um acelerador de hardware diferente (CPU, GPU ou TPU):

    kind: Pod
    metadata:
      name: example-tpu
      annotations:
        # The Cloud TPUs that will be created for this Job will support
        # TensorFlow 2.12.1. This version MUST match the
        # TensorFlow version that your model is built on.
        tf-version.cloud-tpus.google.com: "2.12.1"
    spec:
      containers:
      - name: example-container
        resources:
          limits:
            cloud-tpus.google.com/v2: 8
            # See the line above for TPU, or below for CPU / GPU.
            # cpu: 2
            # nvidia.com/gpu: 1
    
  • Escalonabilidade:o GKE fornece APIs (Job) e implantação) que podem ser escalonadas para centenas pods do GKE e nós da TPU.

  • Tolerância a falhas: a API Job do GKE e o mecanismo de checkpoint do TensorFlow fornecem a semântica da execução à conclusão. Seus jobs de treinamento serão automaticamente executados de novo com o estado mais recente lido no checkpoint se ocorrerem falhas nas instâncias de VM. ou nós do Cloud TPU.

Requisitos e limitações de configuração da Cloud TPU e do GKE

Ao definir sua configuração do GKE, observe o seguinte:

  • O Cloud TPU não é compatível com pools de nós do Windows Server.
  • É preciso criar o cluster do GKE e os pools de nós em uma zona em que a Cloud TPU esteja disponível. Também é possível criar os buckets do Cloud Storage para manter seus dados e modelos de treinamento na mesma região que o cluster do GKE. Consulte o documento tipos e zonas para conferir uma lista das zonas disponíveis.
  • Você precisa usar endereços IP compatíveis com o RFC 1918 nos clusters do GKE. Para mais mais informações, consulte Rede do GKE.
  • Cada contêiner pode solicitar, no máximo, um Cloud TPU. No entanto, é permitido que vários contêineres em um pod solicitem um.

Antes de começar

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Ao usar o Cloud TPU com o GKE, são utilizados componentes faturáveis do Google Cloud Platform no projeto. Para fazer uma estimativa de custos, verifique os preços da Cloud TPU e os preços do GKE. Siga as instruções para limpar os recursos quando não forem mais necessários.

  7. Ative as seguintes APIs no console do Google Cloud:

Como criar um cluster compatível com o Cloud TPU

Use as instruções a seguir para configurar seu ambiente e criar um Cluster do GKE compatível com Cloud TPU usando a CLI gcloud:

  1. Instale os componentes gcloud, necessários para executar o GKE com o Cloud TPU:

    $ gcloud components install kubectl 
  2. Configure gcloud om o ID do projeto do Google Cloud:

    $ gcloud config set project project-name

    Substitua project-name pelo nome do projeto do Google Cloud.

    Na primeira vez que você executar esse comando em uma nova VM do Cloud Shell, será exibida uma página Authorize Cloud Shell. Clique em Authorize na parte de baixo. da página para permitir que gcloud faça chamadas de API do Google Cloud com sua credenciais.

  3. Configure gcloud com a zona em que você planeja usar um recurso do Cloud TPU. Este exemplo usa us-central1-b, mas é possível usar uma TPU em qualquer zona com suporte.

    $ gcloud config set compute/zone us-central1-b
  4. Use o comando gcloud container clusters create para criar um cluster no GKE com suporte para o Cloud TPU.

    $ gcloud container clusters create cluster-name \
      --release-channel=stable \
      --scopes=cloud-platform \
      --enable-ip-alias \
      --enable-tpu

    Descrições de sinalizações de comando

    release-channel
    Os
    canais de lançamento oferecem uma maneira de gerenciar upgrades automáticos de clusters. Ao criar um cluster, você pode escolher o canal de lançamento dele. O upgrade do cluster só será feito para as versões oferecidas nesse canal.
    scopes
    Garante que todos os nós no cluster tenham acesso às suas do bucket do Cloud Storage. O cluster e o bucket de armazenamento precisam estar no mesmo projeto para isso funcionar. Observe que os pods do Kubernetes por padrão herdam os escopos dos nós em que são implantados. Portanto, scopes=cloud-platform fornece o escopo cloud-platform a todos os pods do Kubernetes em execução no cluster. Se você quiser limitar o acesso por pod, consulte o GKE guia sobre como autenticar com contas de serviço.
    enable-ip-alias
    Indica que o cluster usa intervalos de IP do alias. Isso é necessário para usar o Cloud TPU no GKE.
    enable-tpu
    Indica que o cluster precisa ser compatível com a Cloud TPU.
    tpu-ipv4-cidr (opcional, não especificado acima)
    Indica o intervalo CIDR a ser usado para o Cloud TPU. Especifique IP_RANGE na forma de IP/20, como 10.100.0.0/20. Se essa flag não for especificada, um intervalo de CIDR de tamanho /20 será alocado e atribuído automaticamente.

Quando o cluster for criado, você verá uma mensagem semelhante a esta:

NAME             LOCATION       MASTER_VERSION    MASTER_IP     MACHINE_TYPE   NODE_VERSION      NUM_NODES  STATUS
cluster-name  us-central1-b  1.16.15-gke.4901  34.71.245.25  n1-standard-1  1.16.15-gke.4901  3          RUNNING

Solicite uma Cloud TPU na especificação do pod do Kubernetes

Na especificação de pod do Kubernetes:

  • É necessário criar os modelos nos contêineres usando a mesma versão do TensorFlow. Veja as versões compatíveis.

  • Especifique o recurso do Cloud TPU na seção limits no resource na especificação do contêiner.

    Observe que a unidade do recurso da Cloud TPU corresponde ao número de núcleos da Cloud TPU. A tabela a seguir lista exemplos de solicitações de recursos válidas. Consulte Tipos e zonas de TPU para uma lista completa de recursos válidos de TPU.

    Se o recurso destinado ao uso for um pod do Cloud TPU, solicite uma cota, porque a cota padrão do pod do Cloud TPU é zero.

    Solicitação de recurso Tipo de Cloud TPU
    cloud-tpus.google.com/v2: 8 Um dispositivo Cloud TPU v2 (8 núcleos)
    cloud-tpus.google.com/preemptible-v2: 8 Um dispositivo preemptivo da Cloud TPU v2 (8 núcleos)
    cloud-tpus.google.com/v3: 8 Um dispositivo da Cloud TPU v3 (8 núcleos)
    cloud-tpus.google.com/preemptible-v3: 8 Um dispositivo preemptivo da Cloud TPU v3 (8 núcleos)
    cloud-tpus.google.com/v2: 32 Um pod do Cloud TPU v2-32 (32 núcleos)
    cloud-tpus.google.com/v3: 32 Um pod do Cloud TPU v3-32 (32 núcleos)

    Para saber mais sobre como especificar recursos e limites na especificação de Pods, consulte a documentação do Kubernetes.

O exemplo de especificação de pod abaixo solicita uma TPU preemptiva do Cloud TPU v2-8 com o TensorFlow 2.12.1.

A vida útil dos nós da Cloud TPU é vinculada aos pods do Kubernetes que os solicitam. A Cloud TPU é criada sob demanda quando o pod do Kubernetes é programado e reciclada quando o pod é excluído.

apiVersion: v1
kind: Pod
metadata:
  name: gke-tpu-pod
  annotations:
     # The Cloud TPUs that will be created for this Job will support
     # TensorFlow 2.12.1. This version MUST match the
     # TensorFlow version that your model is built on.
     tf-version.cloud-tpus.google.com: "2.12.1"
spec:
  restartPolicy: Never
  containers:
  - name: gke-tpu-container
    # The official TensorFlow 2.12.1 image.
    # https://hub.docker.com/r/tensorflow/tensorflow
    image: tensorflow/tensorflow:2.12.1
    command:
    - python
    - -c
    - |
      import tensorflow as tf
      print("Tensorflow version " + tf.__version__)

      tpu = tf.distribute.cluster_resolver.TPUClusterResolver('$(KUBE_GOOGLE_CLOUD_TPU_ENDPOINTS)')
      print('Running on TPU ', tpu.cluster_spec().as_dict()['worker'])

      tf.config.experimental_connect_to_cluster(tpu)
      tf.tpu.experimental.initialize_tpu_system(tpu)
      strategy = tf.distribute.TPUStrategy(tpu)

      @tf.function
      def add_fn(x,y):
          z = x + y
          return z

      x = tf.constant(1.)
      y = tf.constant(1.)
      z = strategy.run(add_fn, args=(x,y))
      print(z)
    resources:
      limits:
        # Request a single Preemptible v2-8 Cloud TPU device to train the model.
        cloud-tpus.google.com/preemptible-v2: 8

Como criar o job

Siga estas etapas para criar o job no cluster do GKE e instalar o kubectl.

  1. Usando um editor de texto, crie uma especificação de pod, example-job.yaml, e copie e cole na especificação de pod mostrada anteriormente.

  2. Execute o job:

    $ kubectl create -f example-job.yaml
    pod "gke-tpu-pod" created

    Esse comando cria o job que programa o pod automaticamente.

  3. Verifique se o pod do GKE foi programado e a Cloud TPU nós foram provisionados. Um pod do GKE que solicita nós do Cloud TPU pode permanecer pendente por até cinco minutos antes de ser executado. Você vai receber uma saída semelhante à mostrada a seguir até que o pod do GKE seja programado.

    $ kubectl get pods -w
    
    NAME          READY     STATUS    RESTARTS   AGE
    gke-tpu-pod   0/1       Pending   0          1m
    

    Depois de cerca de cinco minutos, você verá algo semelhante a isto:

    NAME          READY     STATUS              RESTARTS   AGE
    gke-tpu-pod   0/1       Pending             0          21s
    gke-tpu-pod   0/1       Pending             0          2m18s
    gke-tpu-pod   0/1       Pending             0          2m18s
    gke-tpu-pod   0/1       ContainerCreating   0          2m18s
    gke-tpu-pod   1/1       Running             0          2m48s
    gke-tpu-pod   0/1       Completed           0          3m8s
    

    Você precisa usar Ctrl-C para sair do comando "kubectl get".

    É possível imprimir informações de registro e recuperar informações mais detalhadas sobre cada pod do GKE usando os comandos kubectl a seguir. Por exemplo, para ver a saída do registro do pod do GKE, use:

    $ kubectl logs gke-tpu-pod

    A resposta será semelhante a esta:

    2021-09-24 18:55:25.400699: I tensorflow/core/platform/cpu_feature_guard.cc:142]
    This TensorFlow binary is optimized with oneAPI Deep Neural Network Library
    (oneDNN) to use the following CPU instructions in performance-critical operations:  AVX2 FMA
    To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
    2021-09-24 18:55:25.405947: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:272]
    Initialize GrpcChannelCache for job worker -> {0 -> 10.0.16.2:8470}
    2021-09-24 18:55:25.406058: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:272]
    Initialize GrpcChannelCache for job localhost -> {0 -> localhost:32769}
    2021-09-24 18:55:28.091729: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:272]
    Initialize GrpcChannelCache for job worker -> {0 -> 10.0.16.2:8470}
    2021-09-24 18:55:28.091896: I tensorflow/core/distributed_runtime/rpc/grpc_channel.cc:272]
    Initialize GrpcChannelCache for job localhost -> {0 -> localhost:32769}
    2021-09-24 18:55:28.092579: I tensorflow/core/distributed_runtime/rpc/grpc_server_lib.cc:427]
    Started server with target: grpc://localhost:32769
    Tensorflow version 2.12.1
    Running on TPU  ['10.0.16.2:8470']
    PerReplica:{
      0: tf.Tensor(2.0, shape=(), dtype=float32),
      1: tf.Tensor(2.0, shape=(), dtype=float32),
      2: tf.Tensor(2.0, shape=(), dtype=float32),
      3: tf.Tensor(2.0, shape=(), dtype=float32),
      4: tf.Tensor(2.0, shape=(), dtype=float32),
      5: tf.Tensor(2.0, shape=(), dtype=float32),
      6: tf.Tensor(2.0, shape=(), dtype=float32),
      7: tf.Tensor(2.0, shape=(), dtype=float32)
    }
    

    Para ver uma descrição completa do pod do GKE, use:

    $ kubectl describe pod gke-tpu-pod

    Consulte Introspecção e depuração de aplicativos para mais detalhes.

Crie e coloque o modelo em um contêiner na imagem do Docker

Para detalhes sobre esse processo, consulte compilar e conteinerizar seu próprio modelo.

Ativar o suporte do Cloud TPU em um cluster atual

Para ativar o suporte do Cloud TPU em uma instância do GKE cluster, execute as seguintes etapas na Google Cloud CLI:

  1. Ative o suporte do Cloud TPU:

    gcloud beta container clusters update cluster-name --enable-tpu
    

    Substitua cluster-name pelo nome do cluster.

  2. Atualize a entrada kubeconfig:

    gcloud container clusters get-credentials cluster-name
    

Como definir um intervalo CIDR personalizado

Por padrão, o GKE aloca um bloco CIDR com o tamanho de /20 para as TPUs provisionadas pelo cluster. Especifique um intervalo CIDR personalizado para o Cloud TPU executando o seguinte comando:

gcloud beta container clusters update cluster-name \
  --enable-tpu \
  --tpu-ipv4-cidr 10.100.0.0/20

Substitua:

  • cluster-name: o nome do cluster atual.
  • 10.100.0.0/20: o intervalo CIDR personalizado.

Como usar intervalos CIDR atuais com a VPC compartilhada

Siga o guia sobre TPU em clusters do GKE usando uma VPC compartilhada para verificar a configuração correta da VPC compartilhada.

Como desativar o Cloud TPU em um cluster

Para desativar o suporte do Cloud TPU em um cluster atual do GKE, siga estas etapas na CLI do Google Cloud:

  1. Verifique se nenhuma de suas cargas de trabalho está usando o Cloud TPU:

    $ kubectl get tpu
  2. Desative o suporte do Cloud TPU no cluster:

    $ gcloud beta container clusters update cluster-name --no-enable-tpu

    Substitua cluster-name pelo nome do cluster.

    Para clusters zonais, essa operação leva cerca de 5 minutos e, para clusters regionais, ela leva cerca de 15 minutos, dependendo da região do cluster.

  3. Depois que as operações forem concluídas sem erros, será possível verificar se as TPUs provisionadas pelo cluster foram removidas:

    $ gcloud compute tpus list

    Os nomes das TPUs criadas pelo Cloud TPU têm o seguinte formato:

    $ gke-cluster-name-cluster-id-tpu-tpu-id

    Substitua:

    • cluster-name: o nome do cluster atual.
    • cluster-id: o ID do cluster atual.
    • tpu-id: ID do Cloud TPU.

    Se alguma TPU aparecer, será possível excluí-las manualmente executando:

    $ gcloud compute tpus delete gke-cluster-name-cluster-id-tpu-tpu-id

Limpeza

Quando terminar de usar o Cloud TPU no GKE, limpe os recursos para evitar cobranças extras na conta do Cloud Billing.

  1. Execute o comando a seguir para excluir seu cluster do GKE: substituindo cluster-name pelo nome do cluster, e project-name pelo nome Nome do projeto do Google Cloud:

    $ gcloud container clusters delete cluster-name \
    --project=project-name --zone=us-central1-b
  2. Ao terminar de examinar os dados, use o comando da CLI gcloud para excluir o bucket do Cloud Storage criado. Substitua bucket-name pelo nome do seu intervalo do Cloud Storage:

    $ gcloud storage rm gs://bucket-name --recursive