Domande frequenti - Cloud TPU
Questo documento contiene un elenco di domande frequenti sulle Cloud TPU. È diviso in sezioni:
- Domande frequenti indipendenti dal framework: domande sull'utilizzo delle Cloud TPU indipendentemente dal framework ML che utilizzi.
- Domande frequenti su JAX: domande sull'utilizzo di Cloud TPU con JAX.
- Domande frequenti su PyTorch: domande sull'utilizzo delle Cloud TPU con PyTorch.
Domande frequenti indipendenti dal framework
Come faccio a controllare quale processo utilizza la TPU su una VM Cloud TPU?
Esegui tpu-info
sulla VM Cloud TPU per stampare l'ID processo e
altre informazioni sul processo utilizzando la TPU. Consulta le metriche supportate per visualizzare le metriche
e le relative definizioni.
tpu-info
L'output di tpu-info
è simile al seguente:
TPU Chips
┏━━━━━━━━━━━━━┳━━━━━━━━━━━━━┳━━━━━━━━━┳━━━━━━━━┓
┃ Chip ┃ Type ┃ Devices ┃ PID ┃
┡━━━━━━━━━━━━━╇━━━━━━━━━━━━━╇━━━━━━━━━╇━━━━━━━━┩
│ /dev/accel0 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel1 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel2 │ TPU v4 chip │ 1 │ 130007 │
│ /dev/accel3 │ TPU v4 chip │ 1 │ 130007 │
└─────────────┴─────────────┴─────────┴────────┘
TPU Runtime Utilization
┏━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━┳━━━━━━━━━━━━┓
┃ Device ┃ Memory usage ┃ Duty cycle ┃
┡━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━╇━━━━━━━━━━━━┩
│ 0 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 1 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 2 │ 0.00 GiB / 31.75 GiB │ 0.00% │
│ 3 │ 0.00 GiB / 31.75 GiB │ 0.00% │
└────────┴──────────────────────┴────────────┘
TensorCore Utilization
┏━━━━━━━━━┳━━━━━━━━━━━━━━━━━━━━━━━━┓
┃ Chip ID ┃ TensorCore Utilization ┃
┡━━━━━━━━━╇━━━━━━━━━━━━━━━━━━━━━━━━┩
│ 0 │ 0.00% │
│ 1 │ 0.00% │
│ 3 │ 0.00% │
│ 2 │ 0.00% |
└─────────┴────────────────────────┘
Buffer Transfer Latency
┏━━━━━━━━━━━━━┳━━━━━┳━━━━━┳━━━━━┳━━━━━━┓
┃ Buffer Size ┃ P50 ┃ P90 ┃ P95 ┃ P999 ┃
┡━━━━━━━━━━━━━╇━━━━━╇━━━━━╇━━━━━╇━━━━━━┩
│ 8MB+ | 0us │ 0us │ 0us │ 0us |
└─────────────┴─────┴─────┴─────┴──────┘
Come faccio ad aggiungere un volume di disco permanente a una VM Cloud TPU?
Per ulteriori informazioni, consulta Aggiunta di un disco permanente a una VM TPU.
Quali opzioni di archiviazione sono supportate o consigliate per l'addestramento con la VM TPU?
Per maggiori informazioni, consulta Opzioni di archiviazione Cloud TPU.
Domande frequenti su JAX
Come faccio a sapere se la TPU viene utilizzata dal mio programma?
Esistono diversi modi per verificare che JAX utilizzi la TPU:
Utilizza la funzione
jax.devices()
. Ad esempio:assert jax.devices()[0].platform == 'tpu'
Profila il tuo programma e verifica che il profilo contenga operazioni TPU. Per saperne di più, consulta Profilazione dei programmi JAX.
Per ulteriori informazioni, consulta le domande frequenti su JAX.
Domande frequenti su PyTorch
Come faccio a sapere se la TPU viene utilizzata dal mio programma?
Puoi eseguire i seguenti comandi Python:
>>> import torch_xla.core.xla_model as xm
>>> xm.get_xla_supported_devices(devkind="TPU")
e verifica se riesci a vedere dispositivi TPU.