RDMA-Netzwerkprofil
Diese Seite bietet eine Übersicht über das RDMA-Netzwerkprofil in Google Cloud.
Informationen zum RDMA-Netzwerkprofil
Mit dem RDMA-Netzwerkprofil können Sie ein VPC-Netzwerk (Virtual Private Cloud) erstellen, in dem Sie KI-Arbeitslasten auf VM-Instanzen mit NVIDIA ConnectX-NICs ausführen können. Diese NICs unterstützen RDMA-Verbindungen (Remote Direct Memory Access) und haben den NIC-Typ MRDMA
in Google Cloud.
Ein VPC-Netzwerk mit dem RDMA-Netzwerkprofil unterstützt RDMA-Kommunikation mit niedriger Latenz und hoher Bandbreite zwischen den GPUs von VMs, die im Netzwerk mithilfe von RDMA über konvergentes Ethernet v2 (RoCE v2) erstellt werden.
Weitere Informationen zum Ausführen von KI-Arbeitslasten in Google Cloudfinden Sie in der Dokumentation zu AI Hypercomputer.
Spezifikationen
Mit dem RDMA-Netzwerkprofil erstellte VPC-Netzwerke haben die folgenden Spezifikationen:
- Im Netzwerk werden nur Anhänge von
MRDMA
NICs akzeptiert. A3 Ultra-VMs und A4-VMs sind die einzigen VM-Typen, dieMRDMA
-NICs unterstützen. Andere NIC-Typen, z. B. die GVNICs einer A3 Ultra-VM, müssen an ein reguläres VPC-Netzwerk angehängt werden. - Die im Netzwerk unterstützten Funktionen sind vonGoogle Cloud vorkonfiguriert, um die Ausführung von KI-Arbeitslasten zu unterstützen, die RDMA erfordern. Für VPC-Netzwerke mit dem RDMA-Netzwerkprofil gelten mehr Einschränkungen als für reguläre VPC-Netzwerke. Weitere Informationen finden Sie unter Unterstützte und nicht unterstützte Funktionen.
Das Netzwerk ist auf die Zone des Netzwerkprofils beschränkt, die Sie beim Erstellen des Netzwerks angeben. Beispielsweise müssen alle Instanzen, die Sie im Netzwerk erstellen, in der Zone des Netzwerkprofils erstellt werden. Darüber hinaus müssen sich alle im Netzwerk erstellten Subnetze in der Region befinden, die der Zone des Netzwerkprofils entspricht.
Das RDMA-Netzwerkprofil ist nicht in allen Zonen verfügbar. Informationen zu den Zonen, in denen das Netzwerkprofil verfügbar ist, finden Sie unter Unterstützte Zonen. Sie können auch die verfügbaren zonenspezifischen Instanzen des Netzwerkprofils ansehen, indem Sie Netzwerkprofile auflisten.
Der Ressourcenname des RDMA-Netzwerkprofils, den Sie beim Erstellen des Netzwerks angeben, hat das Format
ZONE-vpc-roce
, z. B.europe-west1-b-vpc-roce
.Die Standard-MTU in einem VPC-Netzwerk, das mit dem RDMA-Netzwerkprofil erstellt wurde, ist
8896
. Diese Standardeinstellung gibt dem RDMA-Treiber im Gastbetriebssystem der VM die Flexibilität, eine geeignete MTU zu verwenden. Die Standard-MTU ist in regulären VPC-Netzwerken möglicherweise für einige RDMA-Arbeitslasten zu klein. Für eine optimale Leistung empfiehlt Google, die Standard-MTU nicht zu ändern.
Unterstützte Zonen
Das RDMA-Netzwerkprofil ist in den folgenden Zonen verfügbar:
europe-west1-b
us-central1-a
us-central1-b
us-east4-b
us-west1-c
Unterstützte und nicht unterstützte Funktionen
In diesem Abschnitt werden die unterstützten und nicht unterstützten Funktionen in VPC-Netzwerken beschrieben, die mit dem RDMA-Netzwerkprofil erstellt wurden.
Die Funktionen regulärer VPC-Netzwerke werden unterstützt, sofern sie nicht vom Netzwerkprofil so konfiguriert wurden, dass sie vom Netzwerkprofil deaktiviert werden. Außerdem sind sie von einer Funktion abhängig, die vom Netzwerkprofil deaktiviert wird, oder sie gelten nicht für Traffic von RDMA-NICs, wie in diesem Abschnitt beschrieben.
Vom Netzwerkprofil konfigurierte Funktionen
In dieser Tabelle sind die spezifischen Funktionen aufgeführt, die von der Netzwerkprofilressource konfiguriert werden. Außerdem wird beschrieben, ob sie in VPC-Netzwerken unterstützt werden, die mit dem RDMA-Netzwerkprofil erstellt wurden. Sie enthält die von Google Cloudfestgelegten Attributwerte des Netzwerkprofils.
Funktion | Unterstützt | Eigenschaft | Attributwert | Details |
---|---|---|---|---|
MRDMA NICs |
interfaceTypes |
MRDMA |
Das Netzwerk unterstützt nur NICs vom Typ Das Netzwerk unterstützt keine anderen NIC-Typen wie |
|
Mehrere NICs im selben Netzwerk | allowMultiNicInSameNetwork |
MULTI_NIC_IN_SAME_NETWORK_ALLOWED |
Das Netzwerk unterstützt VMs mit mehreren NICs, bei denen verschiedene NICs derselben VM an dasselbe VPC-Netzwerk angehängt werden können. Die NICs müssen jedoch an verschiedene Subnetze im Netzwerk angehängt werden.
Weitere Informationen finden Sie unter Leistungsaspekte bei Multi-NICs im selben VPC-Netzwerk. |
|
Nur-IPv4-Subnetze | allowedSubnetStackTypes |
SUBNET_STACK_TYPE_IPV4_ONLY |
Das Netzwerk unterstützt Nur-IPv4-Subnetze, einschließlich derselben gültigen IPv4-Bereiche wie reguläre VPC-Netzwerke. Das Netzwerk unterstützt keine Dual-Stack- oder Nur-IPv6-Subnetze. Weitere Informationen finden Sie unter Subnetztypen. |
|
Zweck des Subnetzes PRIVATE |
allowedSubnetPurposes |
SUBNET_PURPOSE_PRIVATE |
Das Netzwerk unterstützt reguläre Subnetze mit dem Zweck Das Netzwerk unterstützt keine Private Service Connect-Subnetze, Nur-Proxy-Subnetze oder private NAT-Subnetze. Weitere Informationen finden Sie unter Zwecke von Subnetzen. |
|
Zweck der Adresse „GCE_ENDPOINT “ |
addressPurposes |
GCE_ENDPOINT |
Das Netzwerk unterstützt IP-Adressen mit dem Zweck Das Netzwerk unterstützt keine speziellen IP-Adressen wie den |
|
Externe IP-Adressen für VMs | allowExternalIpAccess |
EXTERNAL_IP_ACCESS_BLOCKED |
Das Netzwerk unterstützt die Zuweisung von externen IP-Adressen an VMs nicht. Mit dem Netzwerk verbundene NICs können das öffentliche Internet nicht erreichen. | |
Alias-IP-Bereiche | allowAliasIpRanges |
ALIAS_IP_RANGE_BLOCKED |
Das Netzwerk unterstützt keine Alias-IP-Bereiche, einschließlich sekundärer IPv4-Adressbereiche, die nur von Alias-IP-Bereichen verwendet werden können. | |
Automatischer Modus | allowAutoModeSubnet |
AUTO_MODE_SUBNET_BLOCKED |
Der Modus für die Subnetzerstellung des VPC-Netzwerks kann nicht auf den automatischen Modus festgelegt werden. | |
VPC-Netzwerk-Peering | allowVpcPeering |
VPC_PEERING_BLOCKED |
Das Netzwerk unterstützt kein VPC-Netzwerk-Peering. Außerdem unterstützt das Netzwerk keinen Zugriff auf private Dienste, der auf VPC-Netzwerk-Peering basiert. | |
Statische Routen | allowStaticRoutes |
STATIC_ROUTES_BLOCKED |
Das Netzwerk unterstützt keine statischen Routen. | |
Paketspiegelung | allowPacketMirroring |
PACKET_MIRRORING_BLOCKED |
Das Netzwerk unterstützt die Paketspiegelung nicht. | |
Cloud NAT | allowCloudNat |
CLOUD_NAT_BLOCKED |
Das Netzwerk unterstützt Cloud NAT nicht. | |
Cloud Router | allowCloudRouter |
CLOUD_ROUTER_BLOCKED |
Das Netzwerk unterstützt das Erstellen von Cloud Routern nicht. | |
Cloud Interconnect | allowInterconnect |
INTERCONNECT_BLOCKED |
Das Netzwerk unterstützt Cloud Interconnect nicht. | |
Cloud VPN | allowVpn |
VPN_BLOCKED |
Cloud VPN wird vom Netzwerk nicht unterstützt. | |
Cloud Load Balancing | allowLoadBalancing |
LOAD_BALANCING_BLOCKED |
Das Netzwerk unterstützt Cloud Load Balancing nicht. Sie können keine Load-Balancer im Netzwerk erstellen. Außerdem können Sie Google Cloud Armor nicht im Netzwerk verwenden, da die Sicherheitsrichtlinien von Google Cloud Armor nur für Load-Balancer und VMs mit externen IP-Adressen gelten. | |
Privater Google-Zugriff | allowPrivateGoogleAccess |
PRIVATE_GOOGLE_ACCESS_BLOCKED |
Das Netzwerk unterstützt keinen privaten Google-Zugriff. | |
Private Service Connect | allowPsc |
PSC_BLOCKED |
Das Netzwerk unterstützt keine Private Service Connect-Konfigurationen. |
Zusätzliche Funktionen, die nicht für Traffic von RDMA-NICs gelten
Einige Funktionen regulärer VPC-Netzwerke, die für Traffic anderer Protokolle verfügbar sind, gelten nicht für Traffic in einem Netzwerk mit dem RDMA-Netzwerkprofil. Beispiele:
- Cloud-Firewallregeln der nächsten Generation werden nicht unterstützt.
- VPC-Flusslogs werden nicht unterstützt.
- Konnektivitätstests werden nicht unterstützt.
Google Cloud hindert Sie zwar nicht daran, diese Features zu konfigurieren, sie sind jedoch in VPC-Netzwerken mit dem RDMA-Netzwerkprofil nicht wirksam.
Leistungsaspekte bei Multi-NIC-Verbindungen im selben VPC-Netzwerk
Zur Unterstützung von Arbeitslasten, die von der schienenübergreifenden GPU-zu-GPU-Kommunikation profitieren, können Sie mit dem RDMA-Netzwerkprofil VMs erstellen, denen mehrere MRDMA
-NICs an dasselbe Netzwerk angehängt sind. Die Bahnübergreifende Konnektivität kann jedoch die Netzwerkleistung beeinträchtigen, z. B. durch erhöhte Latenz. VMs mit MRDMA
-NICs verwenden NCCL, um alle Netzwerkübertragungen auch für die schienenübergreifende Kommunikation per Bahnausgleich auszurichten. Dazu wird beispielsweise PXN verwendet, um Daten vor der Übertragung über das Netzwerk über NVlink auf eine GPU zu kopieren, die auf der Schiene ausgerichtet ist.