TPU v2

In diesem Dokument werden die Architektur und die unterstützten Konfigurationen von Cloud TPU v2 beschrieben.

Systemarchitektur

Details zur Architektur und zu den Leistungsmerkmalen von TPU v2 sind unter Domainspezifischer Supercomputer zum Trainieren neuronaler Deep-Learning-Netzwerke verfügbar.

Konfigurationen

Ein TPU v2-Slice besteht aus 512 Chips, die über rekonfigurierbare Hochgeschwindigkeitsverbindungen miteinander verbunden sind. Wenn Sie einen TPU v2-Slice erstellen möchten, verwenden Sie im Befehl zum Erstellen von TPUs (gcloud compute tpus tpu-vm) das Flag --accelerator-type. Sie geben den Beschleunigertyp an, indem Sie die TPU-Version und die Anzahl der TPU-Kerne angeben. Verwenden Sie beispielsweise für eine einzelne v2-TPU --accelerator-type=v2-8. Verwenden Sie dagegen für einen v2-Slice mit 128 TensorCores --accelerator-type=v2-128.

Der folgende Befehl zeigt, wie Sie einen TPU-Slice der Version 2 mit 128 TensorCores erstellen:

  $ gcloud compute tpus tpu-vm create tpu-name \
    --zone=us-central1-a \
    --accelerator-type=v2-128 \
    --version=tpu-ubuntu2204-base

Weitere Informationen zum Verwalten von TPUs finden Sie unter TPU-Ressourcen verwalten. Weitere Informationen zur TPU-Systemarchitektur von Cloud TPU finden Sie unter Systemarchitektur.

In der folgenden Tabelle sind die unterstützten TPU-Typen der Version 2 aufgeführt:

TPU-Version Support-Ende
v2-8 (Enddatum wurde noch nicht festgelegt)
v2-32 (Enddatum wurde noch nicht festgelegt)
v2-128 (Enddatum wurde noch nicht festgelegt)
v2-256 (Enddatum wurde noch nicht festgelegt)
v2-512 (Enddatum wurde noch nicht festgelegt)