Die beschleunigungsoptimierte Maschinenfamilie wurde von Google Cloud entwickelt, um die erforderliche Leistung und Effizienz für GPU-beschleunigte Arbeitslasten wie künstliche Intelligenz (KI), maschinelles Lernen (ML) und Hochleistungs-Computing (HPC) zu bieten.
Die beschleunigungsoptimierte Maschinenfamilie ist in den folgenden Maschinenreihen verfügbar: A4X, A4, A3, A2 und G2. Jeder Maschinentyp innerhalb einer Reihe hat ein bestimmtes Modell und eine bestimmte Anzahl von NVIDIA-GPUs angehängt. Sie können auch einige GPU-Modelle an N1-Maschinentypen für allgemeine Zweckeall anhängen.
Empfehlung der Maschinenserie nach Arbeitslasttyp
Im folgenden Abschnitt finden Sie die empfohlene Maschinenreihe basierend auf Ihren GPU-Arbeitslasten.
Arbeitslasttyp | Empfohlener Maschinentyp |
---|---|
Modelle vortrainieren | A4X, A4, A3 Ultra, A3 Mega, A3 High und A2 Informationen dazu, wie Sie das am besten geeignete Modell ermitteln, finden Sie in der AI Hypercomputer-Dokumentation unter Recommendations for pre-training models. |
Modelle abstimmen | A4X, A4, A3 Ultra, A3 Mega, A3 High und A2 Informationen dazu, wie Sie die beste Lösung finden, finden Sie in der AI Hypercomputer-Dokumentation unter Recommendations for fine-tuning models. |
Inferenz bereitstellen | A4X, A4, A3 Ultra, A3 Mega, A3 High, A3 Edge und A2 Informationen dazu, wie Sie die beste Lösung ermitteln, finden Sie in der AI Hypercomputer-Dokumentation unter Recommendations for serving inference. |
Grafikintensive Arbeitslasten | G2 und N1+T4 |
Hochleistungs-Computing | Für Hochleistungs-Computing-Arbeitslasten eignet sich jede beschleunigungsoptimierte Maschinenreihe. Die beste Lösung hängt davon ab, wie viel Rechenaufwand an die GPU ausgelagert werden muss. Weitere Informationen finden Sie in der AI Hypercomputer-Dokumentation unter Recommendations for HPC (Empfehlungen für HPC). |
Preis- und Bereitstellungsoptionen
Für die beschleunigungsoptimierten Maschinentypen werden die angeschlossenen GPUs, die vordefinierte vCPU, der Arbeitsspeicher und der lokale SSD-Speicher (sofern vorhanden) in Rechnung gestellt. Die Rabatte, die für accelerator-optimierte Instanzen gelten können, variieren je nach der von Ihnen verwendeten Bereitstellungsoption, wie in der folgenden Tabelle zusammengefasst. Weitere Informationen zu den Preisen für beschleunigungsoptimierte Instanzen finden Sie auf der Seite „Preise für VM-Instanzen“ im Abschnitt Beschleunigungsoptimierte Maschinentypfamilie.
On Demand (Standard) | Spot-VMs | Flex-Start (Vorschau) | Reservierungen | |
---|---|---|---|---|
Unterstützte beschleunigungsoptimierte Maschinenserien | A3 Mega, A3 High, A3 Edge, A2 und G2 | A4, A3, A2 und G2 | A4, A3, A2 und G2 | Die Unterstützung variiert je nach Art der Reservierung:
|
Rabatte | Sie können Rabatte für zugesicherte Nutzung (Committed Use Discounts, CUD) für einige Ressourcen erhalten, indem Sie ressourcenbasierte Zusicherungen erwerben. GPUs und lokale SSDs, die Sie mit der On-Demand-Bereitstellungsoption verwenden, haben jedoch keinen Anspruch auf Rabatte für zugesicherte Nutzung. Wenn Sie auch für GPUs und lokale SSDs Rabatte für zugesicherte Nutzung erhalten möchten, empfehlen wir stattdessen die Bereitstellungsoption für Reservierungen. |
Spot-VMs erhalten automatisch Rabatte über die Spot-VM-Preise. |
Für VMs, die mit dem Bereitstellungsmodell „Flex-Start“ bereitgestellt werden, werden automatisch Rabatte über die Dynamic Workload Scheduler-Preise gewährt. |
Sie können CUDs für Ihre Ressourcen für beschleunigungsoptimierte Maschinentypen erhalten, indem Sie ressourcenbasierte Zusicherungen erwerben. Beachten Sie, dass für Zusicherungen für GPUs und lokale SSD-Laufwerke Reservierungen für diese Ressourcen erforderlich sind. |
Die A4X-Maschinenserie
Die A4X-Maschinenserie wird auf einer Exascale-Plattform ausgeführt, die auf der NVIDIA GB200 NVL72-Rack-Architektur basiert und bis zu 140 vCPUs und 884 GB Arbeitsspeicher hat. Diese Maschinenreihe ist für rechen- und speicherintensive, netzwerkgebundene ML-Trainings und HPC-Arbeitslasten optimiert. Die A4X-Maschinenserie ist in einem einzigen Maschinentyp verfügbar.
VM-Instanzen, die mit dem Maschinentyp A4X erstellt werden, bieten die folgenden Funktionen:
GPU-Beschleunigung mit NVIDIA GB200-Superchips: An A4X-Instanzen werden automatisch NVIDIA GB200-Superchips angehängt. Diese Superchips haben NVIDIA B200-GPUs und bieten 180 GB Arbeitsspeicher pro GPU. A4X hat zwei Sockets mit NVIDIA Grace™-CPUs mit Arm® Neoverse™ V2-Kernen. Diese CPUs sind mit vier B200-GPUs verbunden, die über eine schnelle Chip-to-Chip-Kommunikation (NVLink-C2C) verfügen.
NVIDIA Grace-CPU-Plattform: A4X-Instanzen verwenden die NVIDIA Grace-CPU-Plattform. Weitere Informationen zur Plattform finden Sie unter CPU-Plattformen.
Branchenführende NVLink-Skalierbarkeit: Multi-Node-NVLink, der auf bis zu 72 GPUs in einer einzelnen Domain skaliert werden kann. NVIDIA B200-GPUs bieten eine GPU-NVLink-Bandbreite von 1.800 GB/s bidirektional pro GPU. Bei einer All-to-All-NVLink-Topologie zwischen 4 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 130 TB/s.
Enhanced Networking mit RoCE: Bei A4X-Instanzen wird die Netzwerkleistung durch RDMA over Converged Ethernet (RoCE) gesteigert. Dazu werden NVIDIA ConnectX-7 (CX-7)-Netzwerkinterfacekarten (NICs) mit dem vierfach ausgerichteten Netzwerk von Google kombiniert, das im gesamten Rechenzentrum verfügbar ist. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erreichen die A4X-Instanzen einen viel höheren Durchsatz zwischen Instanzen in einem Cluster als A4-Instanzen.
Die CX-7-NICs sind physisch in einer vierfach schienenorientierten Netzwerktopologie isoliert. Dadurch können A4X-Instanzen in Gruppen von 72 GPUs auf bis zu Tausende von GPUs in einem einzelnen nicht blockierenden Cluster skaliert werden.
Höhere Netzwerkgeschwindigkeiten: Bietet im Vergleich zu Instanzen, die mit den A3-Maschinentypen erstellt wurden, bis zu viermal höhere Netzwerkgeschwindigkeiten.
Optimierungen bei der Virtualisierung für Datenübertragungen und ‑wiederherstellung: Die PCIe-Topologie (Peripheral Component Interconnect Express) von A4X-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können.
Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien.
Unterstützung für lokale SSD und Hyperdisk: A4X-Instanzen erhalten automatisch 12.000 GiB lokalen SSD-Speicher. Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie bis zu 512 TiB Hyperdisk an A4X-Instanzen anhängen.
Unterstützung für dichte Zuweisung und topologiebewusste Planung: Wenn Sie A4X-Instanzen über Cluster Director bereitstellen, können Sie Blöcke mit dicht zugewiesener Kapazität anfordern. Ihre Hostmaschinen werden physisch nahe beieinander zugewiesen, als Ressourcenblöcke bereitgestellt und mit einem dynamischen ML-Netzwerk verbunden, um Netzwerk-Hops zu minimieren und die niedrigste Latenz zu optimieren. Außerdem stellt Cluster Director Topologieinformationen auf Knoten- und Clusterebene bereit, die für die Jobzuweisung verwendet werden können.
A4X-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (GBps)‡ |
---|---|---|---|---|---|---|---|
a4x-highgpu-4g |
4 | 720 | 140 | 884 | 12.000 | 6 | 2.000 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A4X
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A4X-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A4X-Maschinentyp verwenden.
- Sie können den A4X-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können keinen nichtflüchtigen Speicher (regional oder zonenbasiert) auf einer VM verwenden, die einen A4X-Maschinentyp verwendet.
- Der A4X-Maschinentyp ist nur auf der NVIDIA Grace-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A4X-Maschinentyp ändern. Sie können nur neue A4X-VMs erstellen. Nachdem Sie eine VM mit einem A4X-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- Sie können Windows-Betriebssysteme nicht auf einem A4X-Maschinentyp ausführen.
- A4X-VMs unterstützen Folgendes nicht:
Unterstützte Laufwerkstypen für die A4X-Serie
A4X-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerkstyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A4X-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a4x-highgpu-4g |
128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Hyperdisk-Preise.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Sie können eine Mischung aus verschiedenen Hyperdisk-Typen mit einer VM verwenden. Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs: 257 TiB für alle Hyperdisk
Für Maschinentypen mit 32 vCPUs oder mehr: 512 TiB für alle Hyperdisk
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Größen- und ‑Anhangslimits.
Die A4-Maschinenserie
Die A4-Maschinenserie bietet Maschinentypen mit bis zu 224 vCPUs und 3.968 GB Arbeitsspeicher. A4-Instanzen bieten für die meisten GPU-beschleunigten Arbeitslasten eine bis zu dreimal höhere Leistung als frühere GPU-Instanztypen. A4 wird für ML-Trainingsarbeitslasten empfohlen, insbesondere bei großem Umfang, z. B. bei Hunderten oder Tausenden von GPUs. Die A4-Maschinenserie ist in einem einzigen Maschinentyp verfügbar.
VM-Instanzen, die mit dem Maschinentyp A4 erstellt werden, bieten die folgenden Funktionen:
GPU-Beschleunigung mit NVIDIA B200-GPUs: An A4-Instanzen werden automatisch NVIDIA B200-GPUs angehängt, die 180 GB GPU-Arbeitsspeicher pro GPU bieten.
Skalierbarer Intel Xeon-Prozessor der 5.Generation (Emerald Rapids): bietet eine kontinuierliche Turbofrequenz für einen einzelnen Kern von bis zu 4,0 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform.
Branchenführende NVLink-Skalierbarkeit: NVIDIA B200-GPUs bieten eine GPU-NVLink-Bandbreite von 1.800 GB/s bidirektional pro GPU.
Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 14, 4 TBps.
Verbesserte Netzwerkfunktionen mit RoCE: RDMA over Converged Ethernet (RoCE) steigert die Netzwerkleistung durch die Kombination von NVIDIA ConnectX-7-Netzwerkinterfacekarten (NICs) mit dem vierfach ausgerichteten Netzwerk von Google, das im gesamten Rechenzentrum eingesetzt wird. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erreichen A4-Instanzen einen viel höheren Durchsatz zwischen Instanzen in einem Cluster als die meisten A3-Instanzen, mit Ausnahme der Instanzen, die auf dem A3 Ultra-Maschinentyp ausgeführt werden.
Höhere Netzwerkgeschwindigkeiten: Bietet im Vergleich zu A2-Instanzen der vorherigen Generation bis zu viermal höhere Netzwerkgeschwindigkeiten.
Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs.
Optimierungen bei der Virtualisierung für Datenübertragungen und ‑wiederherstellung: Die PCIe-Topologie (Peripheral Component Interconnect Express) von A4-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können.
Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien.
Unterstützung für lokale SSDs und Hyperdisks: A4-Instanzen erhalten automatisch 12.000 GiB lokalen SSD-Speicher. Dies kann als schnelle Scratch Disk oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie A4-Instanzen auch bis zu 512 TiB Hyperdisk zuordnen.
Unterstützung für dichte Zuweisung und topologiebewusste Planung: Wenn Sie A4-Instanzen bereitstellen, die die von Cluster Director verfügbaren Funktionen und Dienste nutzen, können Sie Blöcke mit dicht zugewiesener Kapazität anfordern. Ihre Hostmaschinen werden physisch nahe beieinander zugewiesen, als Ressourcenblöcke bereitgestellt und mit einem dynamischen ML-Netzwerk verbunden, um Netzwerk-Hops zu minimieren und die niedrigste Latenz zu optimieren. Außerdem können Sie Topologieinformationen auf Knoten- und Clusterebene abrufen, die für die Jobzuweisung verwendet werden können.
A4-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a4-highgpu-8g |
8 | 1.440 | 224 | 3.968 | 12.000 | 10 | 3.600 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A4
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A4-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A4-Maschinentyp verwenden.
- Sie können den A4-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können keinen nichtflüchtigen Speicher (regional oder zonenbasiert) auf einer VM verwenden, die einen A4-Maschinentyp verwendet.
- Der A4-Maschinentyp ist nur auf der Emerald Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A4-Maschinentyp ändern. Sie können nur neue A4-VMs erstellen. Nachdem Sie eine VM mit einem A4-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A4-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A4-Maschinentyp ausführen.
Unterstützte Laufwerkstypen für die A4-Reihe
A4-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerkstyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A4-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | ||||||
---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a4-highgpu-8g |
128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Hyperdisk-Preise.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Wenn der Maschinentyp dies unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Größen- und Anhängelimits und Maximale Kapazität von Persistent Disk.
Die A3-Maschinenreihe
Die A3-Maschinenserie hat bis zu 224 vCPUs und 2.944 GB Arbeitsspeicher. Diese Maschinenreihe ist für rechen- und speicherintensive, netzwerkgebundene ML-Trainings und HPC-Arbeitslasten optimiert. Die A3-Maschinenserie ist in den Maschinentypen A3 Ultra, A3 Mega, A3 High und A3 Edge verfügbar.
VM-Instanzen, die mit den A3-Maschinentypen erstellt werden, bieten die folgenden Funktionen:
Funktion | A3 Ultra | A3 Mega, High, Edge |
---|---|---|
GPU-Beschleunigung | NVIDIA H200 SXM-GPUs, die 141 GB GPU-Speicher pro GPU bieten und einen größeren und schnelleren Speicher zur Unterstützung großer Sprachmodelle und HPC-Arbeitslasten bereitstellen. |
NVIDIA H100 SXM-GPUs angeschlossen. Diese bieten 80 GB GPU-Arbeitsspeicher pro GPU und sind ideal für große Transformer-basierte Sprachmodelle, Datenbanken und HPC geeignet. |
Skalierbare Intel Xeon-Prozessoren | 5.Generation des skalierbaren Intel Xeon-Prozessors (Emerald Rapids) und bietet eine kontinuierliche maximale Turbofrequenz für einen einzelnen Kern von bis zu 4,0 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform. |
4.Generation des skalierbaren Intel Xeon-Prozessors (Sapphire Rapids) und bietet eine dauerhafte maximale Turbofrequenz pro Kern von bis zu 3,3 GHz. Weitere Informationen zu diesem Prozessor finden Sie unter CPU-Plattform. |
Branchenführende NVLink-Skalierbarkeit | NVIDIA H200-GPUs bieten eine maximale GPU-NVLink-Bandbreite von 900 GB/s in einer Richtung. Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 7, 2 Terabyte pro Sekunde. |
NVIDIA H100-GPUs bieten eine maximale GPU-NVLink-Bandbreite von 450 GB/s in einer Richtung. Bei einer All-to-All-NVLink-Topologie zwischen 8 GPUs in einem System beträgt die NVLink-Gesamtbandbreite bis zu 7, 2 Terabyte pro Sekunde. |
Erweiterte Netzwerkeinstellungen | Bei diesem Maschinentyp wird die Netzwerkleistung durch RDMA over Converged Ethernet (RoCE) gesteigert, indem NVIDIA ConnectX-7-Netzwerkadapter (NICs) mit unserem Rechenzentrum-weiten, viergleisigen Netzwerk kombiniert werden. Durch die Nutzung von RDMA over Converged Ethernet (RoCE) erreicht der a3-ultragpu-8g -Maschinentyp einen viel höheren Durchsatz zwischen Instanzen in einem Cluster als andere A3-Maschinentypen.
|
|
Verbesserte Netzwerkgeschwindigkeiten | Bietet im Vergleich zur vorherigen Generation der A2-Maschinenserie eine bis zu viermal höhere Netzwerkgeschwindigkeit. Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs. |
Bietet im Vergleich zur vorherigen Generation der A2-Maschinenserie eine bis zu 2,5-mal höhere Netzwerkgeschwindigkeit. Weitere Informationen zu Netzwerken finden Sie unter Netzwerkbandbreiten und GPUs. |
Virtualisierungsoptimierungen | Die PCIe-Topologie (Peripheral Component Interconnect Express) von A3-Instanzen liefert genauere Informationen zur Lokalität, mit denen Arbeitslasten die Datenübertragungen optimieren können. Die GPUs bieten außerdem einen Funktionsebenen-Reset (FLR) für eine reibungslose Fehlerwiederherstellung und Unterstützung für atomare Vorgänge zur Verbesserung der Nebenläufigkeit in bestimmten Szenarien. |
|
Unterstützung für lokale SSDs, Persistent Disks und Hyperdisks |
Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden. Die lokale SSD ist so angehängt:
Sie können den Maschinentypen in dieser Reihe auch bis zu 512 TiB Persistent Disk- und Hyperdisk-Speicher für Anwendungen hinzufügen, die eine höhere Speicherleistung erfordern. Bei ausgewählten Maschinentypen werden auch bis zu 257 TiB Persistent Disk unterstützt. |
|
Unterstützung für Richtlinien für kompakte Platzierung | Sie haben mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich in einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Richtlinien für kompakte Platzierung. |
A3 Ultra-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3e) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-ultragpu-8g |
8 | 1128 | 224 | 2.952 | 12.000 | 10 | 3.600 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Ultra
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A3-Ultra-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A3-Ultra-Maschinentyp verwenden.
- Sie können den A3-Ultra-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können keinen nichtflüchtigen Speicher (regional oder zonenbasiert) auf einer VM verwenden, die einen A3-Ultra-Maschinentyp verwendet.
- Der A3-Ultra-Maschinentyp ist nur auf der Emerald Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-Ultra-Maschinentyp ändern. Sie können nur neue A3-Ultra-VMs erstellen. Nachdem Sie eine VM mit einem A3-Ultra-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3-Ultra-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3-Ultra-Maschinentyp ausführen.
A3 Mega-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-megagpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 9 | 1.800 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Mega
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A3 Mega-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A3-Mega-Maschinentyp verwenden.
- Sie können den A3-Mega-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3-Mega-Maschinentyp verwendet.
- Der Maschinentyp „A3 Mega“ ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-Mega-Maschinentyp ändern. Sie können nur neue A3-mega-VMs erstellen. Nachdem Sie eine VM mit einem A3-Mega-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 Mega-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3 Mega-Maschinentyp ausführen.
A3 High-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-highgpu-1g |
1 | 80 | 26 | 234 | 750 | 1 | 25 |
a3-highgpu-2g |
2 | 160 | 52 | 468 | 1.500 | 1 | 50 |
a3-highgpu-4g |
4 | 320 | 104 | 936 | 3.000 | 1 | 100 |
a3-highgpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 | 1.000 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 High
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A3-High-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A3-High-Maschinentyp verwenden.
- Sie können den A3 High-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3-High-Maschinentyp verwendet.
- Der Maschinentyp „A3 High“ ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-High-Maschinentyp ändern. Sie können nur neue A3-high-VMs erstellen. Nachdem Sie eine VM mit einem A3-High-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 High-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3 High-Maschinentyp ausführen.
- Für die Maschinentypen
a3-highgpu-1g
,a3-highgpu-2g
unda3-highgpu-4g
gelten die folgenden Einschränkungen:-
Für diese Maschinentypen müssen Sie VMs mit Spot-VMs oder einer Funktion erstellen, die den Dynamic Workload Scheduler (DWS) verwendet, z. B. Anfragen zur Größenanpassung in einer MIG. Eine detaillierte Anleitung für beide Optionen finden Sie hier:
- Wenn Sie Spot-VMs erstellen möchten, legen Sie das Bereitstellungsmodell auf
SPOT
fest, wenn Sie eine beschleunigungsoptimierte VM erstellen. - Informationen zum Erstellen einer Anfrage zur Größenänderung in einer MIG, die DWS verwendet, finden Sie unter MIG mit GPU-VMs erstellen.
- Wenn Sie Spot-VMs erstellen möchten, legen Sie das Bereitstellungsmodell auf
- Sie können Hyperdisk Balanced nicht mit diesen Maschinentypen verwenden.
- Sie können keine Reservierungen erstellen.
-
Für diese Maschinentypen müssen Sie VMs mit Spot-VMs oder einer Funktion erstellen, die den Dynamic Workload Scheduler (DWS) verwendet, z. B. Anfragen zur Größenanpassung in einer MIG. Eine detaillierte Anleitung für beide Optionen finden Sie hier:
A3 Edge-Maschinentyp
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Anzahl der physischen Netzwerkkarten | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
a3-edgegpu-8g |
8 | 640 | 208 | 1.872 | 6.000 | 5 |
|
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A3 Edge
- Sie können Kapazität nur über die unterstützten Bereitstellungsoptionen für einen A3-Edge-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A3-Edge-Maschinentyp verwenden.
- Sie können den A3-Edge-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Sie können regionale nichtflüchtige Speicher nicht auf einer VM verwenden, die einen A3-Edge-Maschinentyp verwendet.
- Der A3-Edge-Maschinentyp ist nur auf der Sapphire Rapids-CPU-Plattform verfügbar.
- Sie können den Maschinentyp einer vorhandenen VM nicht in einen A3-Edge-Maschinentyp ändern. Sie können nur neue A3-Edge-VMs erstellen. Nachdem Sie eine VM mit einem A3-Edge-Maschinentyp erstellt haben, können Sie den Maschinentyp nicht mehr ändern.
- A3 Edge-Maschinentypen unterstützen keine einzelnen Mandanten.
- Sie können Windows-Betriebssysteme nicht auf einem A3-Edge-Maschinentyp ausführen.
Unterstützte Laufwerkstypen für die A3-Reihe
A3 Ultra
A3-Ultra-VMs können folgende Blockspeichertypen verwenden:
- Hyperdisk Balanced (
hyperdisk-balanced
): Dies ist der einzige Laufwerkstyp, der für das Bootlaufwerk unterstützt wird. - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-ultragpu-8g |
128 | 128 | 128 | – | – | 8 | 32 |
* Die Nutzung von Hyperdisk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Hyperdisk-Preise.
† Dieses Limit gilt für Hyperdisk, nicht jedoch für lokale SSDs.
A3 Mega
A3 Mega-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-megagpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
A3 High
A3 High-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
): wird nur füra3-highgpu-8g
unterstützt - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen |
Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Angehängte lokale SSDs |
a3-highgpu-1g |
128 | – | 32 | 64 | 64 | – | 2 |
a3-highgpu-2g |
128 | – | 32 | 64 | 64 | – | 4 |
a3-highgpu-4g |
128 | – | 32 | 64 | 64 | 8 | 8 |
a3-highgpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
A3 Edge
A3 Edge-VMs können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk Balanced (
hyperdisk-balanced
) - Hyperdisk Balanced High Availability (
hyperdisk-balanced-high-availability
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Extrem (
hyperdisk-extreme
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD: Wird VMs, die mit einem der A3-Maschinentypen erstellt werden, automatisch hinzugefügt.
Maximale Anzahl von Laufwerken pro VM* | |||||||
---|---|---|---|---|---|---|---|
Maschinentypen | Alle Laufwerke† | Hyperdisk Balanced | Hyperdisk mit ausgeglichener Hochverfügbarkeit | Hyperdisk Durchsatz | Hyperdisk ML | Hyperdisk Extrem | Verbundene lokale SSD |
a3-edgegpu-8g |
128 | 32 | 32 | 64 | 64 | 8 | 16 |
* Die Nutzung von Hyperdisk und Persistent Disk wird zusätzlich zu den Maschinentyppreisen berechnet. Informationen zu den Laufwerkpreisen finden Sie unter Preise für Persistent Disk und Hyperdisk.
† Dieses Limit gilt für Persistent Disk und Hyperdisk, nicht jedoch für lokale SSDs.
Laufwerks- und Kapazitätslimits
Wenn der Maschinentyp dies unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Größen- und Anhängelimits und Maximale Kapazität von Persistent Disk.
Die A2-Maschinenserie
Die A2-Maschinenreihe ist in den Maschinentypen A2-Standard und A2-Ultra verfügbar. Diese Maschinentypen haben 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher.
VM-Instanzen, die mit den A2-Maschinentypen erstellt wurden, bieten die folgenden Funktionen:
GPU-Beschleunigung: Jede A2-Instanz hat NVIDIA A100-GPUs. Diese sind in den Optionen A100 mit 40 GB sowie A100 mit 80 GB verfügbar.
Branchenführende NVLink-Skalierung, die eine maximale GPU-zu-GPU-NVLink-Bandbreite von 600 Gbit/s bietet. Beispielsweise haben Systeme mit 16 GPUs eine NVLink-Bandbreite von bis zu 9,6 Terabyte pro Sekunde. Diese 16 GPUs können als einzelner Hochleistungs-Beschleuniger mit einheitlichem Arbeitsspeicher verwendet werden, um bis zu 10 petaFLOPS Rechenleistung zu liefern, und bis zu 20 PetaFLOPS Inferenz-Computing, die für künstliche Intelligenz, Deep Learning und ML-Arbeitslasten verwendet werden kann..
Höhere Rechengeschwindigkeit: Die angehängten NVIDIA A100-GPUs bieten im Vergleich zu NVIDIA V100-GPUs der vorherigen Generation eine bis zu zehnmal höhere Rechengeschwindigkeit.
Mit der A2-Maschinenserie erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Unterstützung für lokale SSDs, Persistent Disks und Hyperdisks: Für schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs, während E/A-Engpässe vermieden werden, unterstützen die A2-Maschinentypen lokale SSDs so:
- Für die A2-Standard-Maschinentypen können Sie beim Erstellen einer Instanz bis zu 3.000 GiB an lokalen SSD-Speicher hinzufügen.
- Bei den A2-Ultra-Maschinentypen wird der lokale SSD-Speicher beim Erstellen einer Instanz automatisch angehängt.
Für Anwendungen, die eine höhere Speicherleistung erfordern, können Sie auch bis zu 257 TiB Persistent Disk- und 512 TiB Hyperdisk-Volumes an A2-Instanzen anhängen.
Unterstützung der Richtlinie für kompakte Platzierung: Bietet mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich in einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
Für die A2-Maschinenreihe sind die folgenden Maschinentypen verfügbar.
A2 Ultra-Maschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 80GB. Lokale SSDs werden automatisch an Instanzen angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-ultragpu-1g |
1 | 80 | 12 | 170 | 375 | 24 |
a2-ultragpu-2g |
2 | 160 | 24 | 340 | 750 | 32 |
a2-ultragpu-4g |
4 | 320 | 48 | 680 | 1.500 | 50 |
a2-ultragpu-8g |
8 | 640 | 96 | 1.360 | 3.000 | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der Instanz getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2 Ultra
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A2-Ultra-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A2-Ultra-Maschinentyp verwenden.
- Sie können den A2-Ultra-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Die A2-Ultra-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Ultra-Maschinentyp verwendet, können Sie den Maschinentyp nicht ändern. Wenn Sie einen anderen A2-Ultra-Maschinentyp oder einen anderen Maschinentyp verwenden müssen, müssen Sie eine neue VM erstellen.
- Sie können keinen anderen Maschinentyp in einen A2-Ultra-Maschinentyp ändern. Wenn Sie eine VM benötigen, die eine A2-Ultra-Maschinenfamilie verwendet, müssen Sie eine neue VM erstellen.
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Ultra-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben.
A2-Standardmaschinentypen
Diese Maschinentypen haben eine feste Anzahl von A100-GPUs mit 40GB.
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB HBM3) |
vCPU-Anzahl† | VM-Arbeitsspeicher (GB) | Verbundene lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|
a2-highgpu-1g |
1 | 40 | 12 | 85 | Ja | 24 |
a2-highgpu-2g |
2 | 80 | 24 | 170 | Ja | 32 |
a2-highgpu-4g |
4 | 160 | 48 | 340 | Ja | 50 |
a2-highgpu-8g |
8 | 320 | 96 | 680 | Ja | 100 |
a2-megagpu-16g |
16 | 640 | 96 | 1.360 | Ja | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der Instanz getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von A2 Standard
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen A2-Standardmaschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen A2-Standardmaschinentyp verwenden.
- Sie können einen A2-Standard-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Die A2-Standardmaschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Wenn Ihre VM einen A2-Standardmaschinentyp verwendet, können Sie nur von einem A2-Standardmaschinentyp zu einem anderen A2-Standardmaschinentyp wechseln. Sie können keinen anderen Maschinentyp ändern. Weitere Informationen finden Sie unter Beschleunigeroptimierte VMs ändern.
- Sie können das Windows-Betriebssystem nicht mit den Maschinentypen <codea2-megagpu-16g< code="" dir="ltr" translate="no"> A2 Standard verwenden. Wählen Sie einen anderen A2-Standard-Maschinentyp aus, wenn Sie Windows-Betriebssysteme verwenden.</codea2-megagpu-16g<>
- Sie können die schnelle Formatierung der angehängten lokalen SSDs nicht auf Windows-VMs verwenden, die A2-Standard-Maschinentypen verwenden. Um diese lokalen SSDs zu formatieren, müssen Sie eine vollständige Formatierung mit dem diskpart-Dienstprogramm durchführen und
format fs=ntfs label=tmpfs
angeben. - A2-Standardmaschinentypen unterstützen keine einzelnen Mandanten.
Unterstützte Laufwerkstypen für die A2-Reihe
A2-Instanzen können folgende Blockspeichertypen verwenden:
- Hyperdisk ML (
hyperdisk-ml
) - Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Nichtflüchtiger Standardspeicher (
pd-standard
) - Lokale SSD: Wird automatisch an Instanzen angehängt, die mit den A2 Ultra-Maschinentypen erstellt wurden.
Wenn der Maschinentyp dies unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Größen- und Anhängelimits und Maximale Kapazität von Persistent Disk.
Die G2-Maschinenserie
Die G2-Maschinenserie ist in Standardmaschinentypen verfügbar, die haben 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Diese Maschinenserie ist für Inferenz- und Grafikarbeitslasten optimiert. Die G2-Maschinenserie ist in einem einzigen Standardmaschinentyp mit mehreren Konfigurationen verfügbar.
VM-Instanzen, die mit den G2-Maschinentypen erstellt wurden, bieten die folgenden Funktionen:
GPU-Beschleunigung: Jeder G2-Maschinentyp hat NVIDIA L4-GPUs.
Verbesserte Inferenzraten: Der G2-Maschinentyp unterstützt den Datentyp FP8 (8-Bit-Gleitkomma), was ML-Inferenzraten beschleunigt und Arbeitsspeicherbedarf reduziert.
Grafikleistung der nächsten Generation: NVIDIA L4-GPUs bieten mit RT-Kernen der dritten Generation und NVIDIA DLSS 3-Technologie (Deep Learning Super Sampling) eine bis zu dreimal höhere Grafikleistung.
Hohe Netzwerkbandbreite: Mit den G2-Maschinentypen erhalten Sie bis zu 100 Gbit/s-Netzwerkbandbreite.
Unterstützung für lokale SSD, Persistent Disk und Hyperdisk: Sie können G2-Instanzen bis zu 3.000 GiB lokalen SSD-Speicher hinzufügen. Dies kann als schnelle Scratch Disks oder zum Einspeisen von Daten in die GPUs verwendet werden, während E/A-Engpässe vermieden werden.
Sie können G2-Instanzen auch Hyperdisk- und Persistent Disk-Volumes zuordnen, wenn Anwendungen mehr nichtflüchtigen Speicher benötigen. Die maximale Speicherkapazität hängt von der Anzahl der vCPUs der VM ab. Weitere Informationen finden Sie unter Unterstützte Laufwerkstypen.
Unterstützung der Richtlinie für kompakte Platzierung: Bietet mehr Kontrolle über die physische Platzierung Ihrer Instanzen in Rechenzentren. Sie ermöglicht eine geringere Latenz und eine höhere Bandbreite für Instanzen, die sich in einer einzelnen Verfügbarkeitszone befinden. Weitere Informationen finden Sie unter Latenz mithilfe von Richtlinien für kompakte Platzierung reduzieren.
G2-Maschinentypen
Jeder G2-Maschinentyp hat eine feste Anzahl von NVIDIA L4-GPUs und vCPUs. Jeder G2-Maschinentyp hat auch einen Standardarbeitsspeicher und einen benutzerdefinierten Arbeitsspeicherbereich. Der benutzerdefinierte Arbeitsspeicherbereich definiert die Größe des Arbeitsspeichers, den Sie Ihrer VM für jeden Maschinentyp zuweisen können. Sie können Ihren benutzerdefinierten Arbeitsspeicher während der VM-Erstellung angeben.
Maschinentyp | GPU-Anzahl | GPU-Arbeitsspeicher* (GB GDDR6) | vCPU-Anzahl† | Standard-VM-Arbeitsspeicher (GB) | Benutzerdefinierter VM-Arbeitsspeicherbereich (GB) | Maximal unterstützte lokale SSD (GiB) | Maximale Netzwerkbandbreite (Gbit/s)‡ |
---|---|---|---|---|---|---|---|
g2-standard-4 |
1 | 24 | 4 | 16 | 16 bis 32 | 375 | 10 |
g2-standard-8 |
1 | 24 | 8 | 32 | 32 bis 54 | 375 | 16 |
g2-standard-12 |
1 | 24 | 12 | 48 | 48 bis 54 | 375 | 16 |
g2-standard-16 |
1 | 24 | 16 | 64 | 54 bis 64 | 375 | 32 |
g2-standard-24 |
2 | 48 | 24 | 96 | 96 bis 108 | 750 | 32 |
g2-standard-32 |
1 | 24 | 32 | 128 | 96 bis 128 | 375 | 32 |
g2-standard-48 |
4 | 96 | 48 | 192 | 192 bis 216 | 1.500 | 50 |
g2-standard-96 |
8 | 192 | 96 | 384 | 384 bis 432 | 3.000 | 100 |
* GPU-Arbeitsspeicher ist der Speicher auf einem GPU-Gerät, der zum temporären Speichern von Daten verwendet werden kann. Es ist vom Arbeitsspeicher der VM getrennt und wurde speziell für die höheren Bandbreitenanforderungen grafikintensiver Arbeitslasten entwickelt.
† Eine vCPU ist als einzelner Hardware-Hyper-Thread auf einer der verfügbaren CPU-Plattformen implementiert.
‡ Die maximale Bandbreite für ausgehenden Traffic darf die angegebene Zahl nicht überschreiten. Die tatsächliche Bandbreite für ausgehenden Traffic hängt von der Ziel-IP-Adresse und anderen Faktoren ab.
Siehe Netzwerkbandbreite.
Einschränkungen von G2
- Sie können Kapazität nur mit den unterstützten Bereitstellungsoptionen für einen G2-Maschinentyp anfordern.
- Sie erhalten weder Rabatte für kontinuierliche Nutzung noch flexible Rabatte für zugesicherte Nutzung für VMs, die einen G2-Maschinentyp verwenden.
- Sie können einen G2-Maschinentyp nur in bestimmten Regionen und Zonen verwenden.
- Die G2-Maschinentypen sind nur auf der Cascade Lake-Plattform verfügbar.
- Nichtflüchtige Standardspeicher (
pd-standard
) werden auf VMs, die G2-Standardmaschinentypen verwenden, nicht unterstützt. Informationen zu unterstützten Laufwerkstypen finden Sie unter Unterstützte Laufwerkstypen für G2. - Sie können keine GPUs mit mehreren Instanzen auf G2-Maschinentypen erstellen.
- Wenn Sie den Maschinentyp einer G2-VM ändern müssen, lesen Sie die Informationen unter Beschleunigeroptimierte VMs ändern.
- Sie können keine Deep Learning VM Images als Bootlaufwerke für VMs verwenden, die G2-Maschinentypen verwenden.
- Der aktuelle Standardtreiber für Container-Optimized OS unterstützt keine L4-GPUs, die auf G2-Maschinentypen ausgeführt werden. Container-Optimized OS unterstützt auch nur bestimmte Treiber.
Wenn Sie Container-Optimized OS auf G2-Maschinentypen verwenden möchten, lesen Sie die folgenden Hinweise:
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
525.60.13
oder höher unterstützt. Weitere Informationen finden Sie in den Versionshinweisen zu Container-Optimized OS. - Geben Sie bei der Installation des Treibers die neueste verfügbare Version an, die für die L4-GPUs funktioniert.
Beispiel:
sudo cos-extensions install gpu -- -version=525.60.13
.
- Verwenden Sie eine Container-Optimized OS-Version, die die mindestens empfohlene NVIDIA-Treiberversion
- In den folgenden Szenarien müssen Sie über die Google Cloud CLI oder REST G2-VMs erstellen:
- Sie möchten benutzerdefinierte Speicherwerte angeben.
- Sie möchten die Anzahl der sichtbaren CPU-Kerne anpassen.
Unterstützte Laufwerkstypen für die G2-Serie
G2-Instanzen können folgende Blockspeichertypen verwenden:
- Abgestimmter nichtflüchtiger Speicher (
pd-balanced
) - Nichtflüchtiger SSD-Speicher (Leistung) (
pd-ssd
) - Hyperdisk ML (
hyperdisk-ml
) - Hyperdisk Durchsatz (
hyperdisk-throughput
) - Lokale SSD
Wenn der Maschinentyp dies unterstützt, können Sie eine Mischung aus Hyperdisk- und Persistent Disk-Volumes auf einer VM verwenden. Es gelten jedoch die folgenden Einschränkungen:
- Die Gesamtzahl der Hyperdisk- und Persistent Disk-Volumes darf 128 pro VM nicht überschreiten.
Die maximale Gesamt-Laufwerkskapazität (in TiB) für alle Laufwerkstypen darf Folgendes nicht überschreiten:
Für Maschinentypen mit weniger als 32 vCPUs:
- 257 TiB für alle Hyperdisk- oder Persistent Disk-Volumes
- 257 TiB für eine Mischung aus Hyperdisk und Persistent Disk
Für Maschinentypen mit 32 vCPUs oder mehr:
- 512 TiB für alle Hyperdisk-Volume
- 512 TiB für eine Mischung aus Hyperdisk und Persistent Disk
- 257 TiB für alle Persistent Disk-Volumes
Weitere Informationen zu den Kapazitätslimits finden Sie unter Hyperdisk-Größen- und Anhängelimits und Maximale Kapazität von Persistent Disk.