網路和 GPU 機器


較高的網路頻寬可提升 GPU 執行個體的效能,以支援在 Compute Engine 上執行的分散式工作負載。

在 Compute Engine 上,附加 GPU 的執行個體可用的網路頻寬上限如下:

  • 針對 A4 和 A3 加速器最佳化執行個體,您可以根據機器類型取得最高 3,600 Gbps 的網路頻寬。
  • 對於 A2 和 G2 加速器最佳化執行個體,您可以根據機器類型獲得最高 100 Gbps 的網路頻寬。
  • 對於已連接 P100 和 P4 GPU 的 N1 通用執行個體,可用的網路頻寬上限為 32 Gbps。這與未連接 GPU 的 N1 執行個體可用的最高費率相似。如要進一步瞭解網路頻寬,請參閱最大輸出資料速率
  • 如果 N1 一般用途執行個體已連接 T4 和 V100 GPU,您可以根據 GPU 和 vCPU 數量組合,取得最高 100 Gbps 的網路頻寬。

查看網路頻寬和網路介面卡配置

請參閱下文,瞭解各 GPU 機器類型的網路配置和頻寬速度。

A4 和 A3 Ultra 機型

A4 機器類型連接 NVIDIA B200 GPU,A3 Ultra 機器類型連接 NVIDIA H200 141GB GPU。

這些機器類型提供八個 NVIDIA ConnectX-7 (CX7) 網路介面卡 (NIC) 和兩個 Google 虛擬 NIC (gVNIC)。八個 CX7 NIC 可提供總網路頻寬 3,200 Gbps。這些 NIC 僅用於高頻寬 GPU 到 GPU 通訊,無法用於其他網路需求,例如存取公開網際網路。如以下圖表所示,每個 CX7 NIC 都會與一個 GPU 對齊,以最佳化非均勻記憶體存取 (NUMA)。所有八個 GPU 都能使用全對全 NVLink 橋接器連接,快速相互通訊。另外兩張 gVNIC 網路介面卡是智慧型 NIC,可為一般用途的網路需求提供額外 400 Gbps 的網路頻寬。這些網路介面卡可為這些機器提供總網路頻寬 3,600 Gbps。

A4 和 A3 Ultra 的網路架構。
圖 1:A4 和 A3 Ultra 的網路架構

如要使用這些多個 NIC,您必須建立 3 個虛擬私有雲網路,如下所示:

  • 2 個 VPC 網路:每個 gVNIC NIC 都必須連接至不同的 VPC 網路
  • 1 個 RDMA 專用的 VPC 網路:所有八個 CX7 NIC 共用相同的 VPC 網路

如要設定這些網路,請參閱 AI Hypercomputer 說明文件中的「建立虛擬私有雲網路」一節。

A4 VM

機型 GPU 數量 GPU 記憶體*
(GB HBM3e)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 實體 NIC 數量 網路頻寬上限 (Gbps)
a4-highgpu-8g 8 1,440 224 3,968 12,000 10 3,600

*GPU 記憶體是 GPU 裝置上的記憶體,可用於暫時儲存資料。它與 VM 的記憶體分開,專門用於處理圖像密集型工作負載的較高頻寬需求。
在其中一個可用的 CPU 平台上,我們會以單一硬體超執行緒的形式提供 vCPU。
最大傳出頻寬不得超過指定數字。實際輸出頻寬取決於目的地 IP 位址和其他因素。請參閱「網路頻寬」。

A3 Ultra VM

機型 GPU 數量 GPU 記憶體*
(GB HBM3e)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 實體 NIC 數量 網路頻寬上限 (Gbps)
a3-ultragpu-8g 8 1128 224 2,952 12,000 10 3,600

*GPU 記憶體是 GPU 裝置上的記憶體,可用於暫時儲存資料。它與 VM 的記憶體分開,專門用於處理圖像密集型工作負載的較高頻寬需求。
在其中一個可用的 CPU 平台上,我們會以單一硬體超執行緒的形式提供 vCPU。
最大傳出頻寬不得超過指定數字。實際輸出頻寬取決於目的地 IP 位址和其他因素。請參閱「網路頻寬」。

A3 Mega、High 和 Edge 機型

這類機型連接 H100 80GB GPU。每個機器類型都具有固定的 GPU 數量、vCPU 數量和記憶體大小。

  • 單一 NIC A3 VM:如果 A3 VM 已連接 1 到 4 個 GPU,則只能使用單一實體網路介面卡 (NIC)。
  • 多 NIC A3 VM:如果 A3 VM 已連接 8 個 GPU,則可使用多個實體 NIC。對於這些 A3 機器類型,NIC 會在 Peripheral Component Interconnect Express (PCIe) 匯流排上依下列方式排列:
    • A3 Mega 機器類型:可使用 8+1 的 NIC 配置。在這種配置中,8 個 NIC 共用相同的 PCIe 匯流排,而 1 個 NIC 則位於不同的 PCIe 匯流排上。
    • A3 High 機型:可使用 4+1 的 NIC 配置。在這種配置中,4 個 NIC 共用相同的 PCIe 匯流排,而 1 個 NIC 則位於另一個 PCIe 匯流排。
    • 針對 A3 Edge 機器類型:可使用 4+1 的 NIC 配置。在這種配置中,4 個 NIC 共用相同的 PCIe 匯流排,而 1 個 NIC 則位於另一個 PCIe 匯流排。這 5 個 NIC 可為每個 VM 提供總網路頻寬 400 Gbps。

    共用相同 PCIe 匯流排的 NIC 具有非均勻記憶體存取 (NUMA) 對齊,每兩個 NVIDIA H100 80GB GPU 對應一個 NIC。這些 NIC 非常適合用於高頻寬的 GPU 對 GPU 專屬通訊。位於獨立 PCIe 匯流排上的實體 NIC 非常適合其他網路需求。如需 A3 High 和 A3 Edge VM 網路設定的操作說明,請參閱「設定巨型封包 MTU 網路」一文。

A3 Mega

機型 GPU 數量 GPU 記憶體*
(GB HBM3)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 實體 NIC 數量 網路頻寬上限 (Gbps)
a3-megagpu-8g 8 640 208 1,872 6,000 9 1,800

A3 高

機型 GPU 數量 GPU 記憶體*
(GB HBM3)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 實體 NIC 數量 網路頻寬上限 (Gbps)
a3-highgpu-1g 1 80 26 234 750 1 25
a3-highgpu-2g 2 160 52 468 1,500 1 50
a3-highgpu-4g 4 320 104 936 3,000 1 100
a3-highgpu-8g 8 640 208 1,872 6,000 5 1,000

A3 Edge

機型 GPU 數量 GPU 記憶體*
(GB HBM3)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 實體 NIC 數量 網路頻寬上限 (Gbps)
a3-edgegpu-8g 8 640 208 1,872 6,000 5
  • 800:適用於 asia-south1 和 northamerica-northeast2
  • 400:適用於所有其他 A3 Edge 區域

*GPU 記憶體是 GPU 裝置上的記憶體,可用於暫時儲存資料。它與 VM 的記憶體分開,專門用於處理圖像密集型工作負載的較高頻寬需求。
在其中一個可用的 CPU 平台上,我們會以單一硬體超執行緒的形式提供 vCPU。
最大傳出頻寬不得超過指定數字。實際輸出頻寬取決於目的地 IP 位址和其他因素。請參閱「網路頻寬」。

A2 機型

每個 A2 機器類型連接固定數量的 NVIDIA A100 40GB 或 NVIDIA A100 80 GB GPU。每個機器類型也有固定的 vCPU 數量和記憶體大小。

A2 機器系列分為兩種:

  • A2 Ultra:這類機型連接 A100 80GB GPU 和本機 SSD 磁碟。
  • A2 Standard:這類機型連接 A100 40GB GPU。

A2 Ultra

機型 GPU 數量 GPU 記憶體*
(GB HBM3)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 網路頻寬上限 (Gbps)
a2-ultragpu-1g 1 80 12 170 375 24
a2-ultragpu-2g 2 160 24 340 750 32
a2-ultragpu-4g 4 320 48 680 1,500 50
a2-ultragpu-8g 8 640 96 1,360 3,000 100

A2 Standard

機型 GPU 數量 GPU 記憶體*
(GB HBM3)
vCPU 數量 VM 記憶體 (GB) 已連結的本機 SSD (GiB) 網路頻寬上限 (Gbps)
a2-highgpu-1g 1 40 12 85 24
a2-highgpu-2g 2 80 24 170 32
a2-highgpu-4g 4 160 48 340 50
a2-highgpu-8g 8 320 96 680 100
a2-megagpu-16g 16 640 96 1,360 100

*GPU 記憶體是 GPU 裝置上的記憶體,可用於暫時儲存資料。它與 VM 的記憶體分開,專門用於處理圖像密集型工作負載的較高頻寬需求。
在其中一個可用的 CPU 平台上,我們會以單一硬體超執行緒的形式提供 vCPU。
最大傳出頻寬不得超過指定數字。實際輸出頻寬取決於目的地 IP 位址和其他因素。請參閱「網路頻寬」。

G2 機型

每個 G2 機器類型連接固定數量的 NVIDIA L4 GPU 和 vCPU。每個 G2 機型也都有預設記憶體和自訂記憶體範圍。自訂記憶體範圍會定義您可為每個機器類型分配給 VM 的記憶體容量。您可以在建立 VM 時指定自訂記憶體。

如要讓較高的網路頻寬率 (50 Gbps 以上) 套用至多數 GPU 執行個體,建議您使用 Google 虛擬 NIC (gVNIC)。如要進一步瞭解如何建立使用 gVNIC 的 GPU 執行個體,請參閱「建立使用較高頻寬的 GPU 執行個體」一文。

機型 GPU 數量 GPU 記憶體* (GB GDDR6) vCPU 數量 預設的 VM 記憶體 (GB) 自訂 VM 記憶體範圍 (GB) 支援的最大本機 SSD (GB) 網路頻寬上限 (Gbps)
g2-standard-4 1 24 4 16 16 到 32 375 10
g2-standard-8 1 24 8 32 32 至 54 歲 375 16
g2-standard-12 1 24 12 48 48 到 54 375 16
g2-standard-16 1 24 16 64 54 至 64 歲 375 32
g2-standard-24 2 48 24 96 96 到 108 750 32
g2-standard-32 1 24 32 128 96 到 128 375 32
g2-standard-48 4 96 48 192 192 至 216 1,500 50
g2-standard-96 8 192 96 384 384 到 432 3,000 100

*GPU 記憶體是 GPU 裝置上的記憶體,可用於暫時儲存資料。它與 VM 的記憶體分開,專門用於處理圖像密集型工作負載的較高頻寬需求。
在其中一個可用的 CPU 平台上,我們會以單一硬體超執行緒的形式提供 vCPU。
最大傳出頻寬不得超過指定數字。實際輸出頻寬取決於目的地 IP 位址和其他因素。請參閱「網路頻寬」。

N1 + GPU 機器類型

如果 N1 一般用途執行個體已連接 T4 和 V100 GPU,您可以根據 GPU 和 vCPU 數量組合,取得最高 100 Gbps 的網路頻寬。如需瞭解其他所有 N1 GPU 執行個體,請參閱總覽

請參閱下文,瞭解如何根據 GPU 型號、vCPU 和 GPU 數量,計算 T4 和 V100 執行個體可用的最高網路頻寬。

小於 5 個 vCPU

對於擁有 5 個 vCPU 以下的 T4 和 V100 執行個體,網路頻寬上限為 10 Gbps。

超過 5 個 vCPU

對於 vCPU 超過 5 個的 T4 和 V100 執行個體,系統會根據該 VM 的 vCPU 和 GPU 數量計算網路頻寬上限。

如要讓較高的網路頻寬率 (50 Gbps 以上) 套用至多數 GPU 執行個體,建議您使用 Google 虛擬 NIC (gVNIC)。如要進一步瞭解如何建立使用 gVNIC 的 GPU 執行個體,請參閱「建立使用較高頻寬的 GPU 執行個體」一文。

GPU 模型 GPU 數量 計算網路頻寬上限
NVIDIA V100 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 32)
4 min(vcpu_count * 2, 50)
8 min(vcpu_count * 2, 100)
NVIDIA T4 1 min(vcpu_count * 2, 32)
2 min(vcpu_count * 2, 50)
4 min(vcpu_count * 2, 100)

建立高頻寬 GPU 機器

如要建立使用較高網路頻寬的 GPU 執行個體,請根據機器類型使用下列其中一種方法:

後續步驟