TPU v2
Dokumen ini menjelaskan arsitektur dan konfigurasi yang didukung dari Cloud TPU v2.
Arsitektur sistem
Detail arsitektur dan karakteristik performa TPU v2 tersedia di Superkomputer Khusus Domain untuk Melatih Jaringan Neural Dalam.
Konfigurasi
Slice TPU v2 terdiri dari 512 chip yang saling terhubung dengan link berkecepatan tinggi yang dapat dikonfigurasi ulang. Untuk membuat slice TPU v2, gunakan flag --accelerator-type
dalam perintah pembuatan TPU (gcloud compute tpus tpu-vm
). Anda menentukan
jenis akselerator dengan menentukan versi TPU dan jumlah core TPU. Misalnya, untuk satu TPU v2, gunakan --accelerator-type=v2-8
. Untuk slice v2
dengan 128 TensorCore, gunakan --accelerator-type=v2-128
.
Perintah berikut menunjukkan cara membuat slice TPU v2 dengan 128 TensorCore:
$ gcloud compute tpus tpu-vm create tpu-name \ --zone=us-central1-a \ --accelerator-type=v2-128 \ --version=tpu-ubuntu2204-base
Untuk informasi selengkapnya tentang cara mengelola TPU, lihat Mengelola TPU. Untuk informasi selengkapnya tentang arsitektur sistem TPU Cloud TPU, lihat Arsitektur sistem.
Tabel berikut mencantumkan jenis TPU v2 yang didukung:
Versi TPU | Dukungan berakhir |
---|---|
v2-8 | (Tanggal akhir belum ditetapkan) |
v2-32 | (Tanggal akhir belum ditetapkan) |
v2-128 | (Tanggal akhir belum ditetapkan) |
v2-256 | (Tanggal akhir belum ditetapkan) |
v2-512 | (Tanggal akhir belum ditetapkan) |