In diesem Dokument werden die Maschinenfamilien, Maschinenserien und Maschinentypen beschrieben, aus denen Sie zum Erstellen einer VM-Instanz oder Bare-Metal-Instanz mit den benötigten Ressourcen auswählen können. Wenn Sie eine Compute-Instanz erstellen, wählen Sie einen Maschinentyp aus einer Maschinenfamilie aus, die die für diese Instanz verfügbaren Ressourcen bestimmt.
Sie können aus mehreren Maschinenfamilien wählen. Jede Maschinenfamilie ist weiter in Maschinenserien und vordefinierte Maschinentypen in jeder Serie unterteilt. In der N2-Serie in der Maschinenfamilie für allgemeine Zwecke können Sie beispielsweise den Maschinentyp n2-standard-4
auswählen.
Informationen zu Maschinenserien, die Spot-VMs (und VMs auf Abruf) unterstützen, finden Sie unter Bereitstellungsmodelle für Compute Engine-Instanzen.
- Für allgemeine Zwecke – das beste Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
- Speicheroptimiert: Am besten für Arbeitslasten mit geringer Kernnutzung und hoher Speicherdichte.
- Computing-optimiert – die höchste Leistung pro Kern in Compute Engine und für rechenintensive Arbeitslasten optimiert
- Speicheroptimiert – ideal für arbeitsspeicherintensive Arbeitslasten, mit mehr Arbeitsspeicher pro Kern als bei anderen Maschinenfamilien und bis zu 12 TB Arbeitsspeicher.
- Beschleunigungsoptimiert – ideal für extrem parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), z. B. maschinelles Lernen (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die beste Option für Arbeitslasten, die GPUs erfordern.
Compute Engine-Terminologie
In dieser Dokumentation werden die folgenden Begriffe verwendet:
Maschinenfamilie: Eine ausgewählte Reihe von Prozessor- und Hardwarekonfigurationen, die für bestimmte Arbeitslasten optimiert sind, z. B. Allzweck-, beschleunigeroptimierte oder speicheroptimierte Maschinen.
Maschinenserie: Maschinenfamilien werden weiter nach Serie, Generation und Prozessortyp klassifiziert.
Jede Serie konzentriert sich auf einen anderen Aspekt der Rechenleistung oder Leistung. Die E-Serie bietet beispielsweise effiziente VMs zu einem niedrigen Preis, während die C-Serie eine bessere Leistung bietet.
Die Generation wird durch eine aufsteigende Zahl angegeben. Die N1-Serie für die Maschinenfamilie für allgemeine Zwecke ist beispielsweise die ältere Version der N2-Serie. Eine höhere Generationsnummer oder Seriennummer weist normalerweise auf neuere zugrunde liegende CPU-Plattformen oder -Technologien hin. Die M3-Serie, die auf dem skalierbaren Intel Xeon-Prozessor der 3. Generation (Ice Lake) ausgeführt wird, ist beispielsweise eine neuere Generation als die M2-Serie, die auf dem skalierbaren Intel Xeon-Prozessor der 2. Generation (Cascade Lake) ausgeführt wird.
Generierung Intel Logo: AMD Arm Maschinenserie der 4. Generation N4, C4, X4, M4, A4 C4D C4A, A4X 3. Generation Maschinenserie C3, H3, Z3, M3, A3 C3D – 2. Generation Maschinenserie N2, E2, C2, M2, A2, G2 N2D, C2D, T2D, E2 T2A
Maschinentyp: Jede Maschinenserie bietet mindestens einen Maschinentyp. Jeder Maschinentyp bietet eine Reihe von Ressourcen für Ihre Compute-Instanz, z. B. vCPUs, Arbeitsspeicher, Festplatten und GPUs. Wenn ein vordefinierter Maschinentyp nicht Ihren Anforderungen entspricht, können Sie bei einigen Maschinenserien auch einen benutzerdefinierten Maschinentyp erstellen.
In den folgenden Abschnitten werden die verschiedenen Maschinentypen beschrieben.
Vordefinierte Maschinentypen
Vordefinierte Maschinentypen haben eine nicht konfigurierbare Menge an Arbeitsspeicher und vCPUs. Bei vordefinierten Maschinentypen werden verschiedene Verhältnisse von vCPU zu Arbeitsspeicher verwendet:
highcpu
: 1 bis 3 GB Arbeitsspeicher pro vCPU; in der Regel 2 GB Arbeitsspeicher pro vCPU.standard
– 3 bis 7 GB Arbeitsspeicher pro vCPU; in der Regel 4 GB Arbeitsspeicher pro vCPU.highmem
– 7 bis 14 GB Arbeitsspeicher pro vCPU; in der Regel 8 GB Arbeitsspeicher pro vCPU.megamem
– 14 bis 19 GB Arbeitsspeicher pro vCPUhypermem
: 19 bis 24 GB Arbeitsspeicher pro vCPU; in der Regel 21 GB Arbeitsspeicher pro vCPUultramem
– 24 bis 31 GB Arbeitsspeicher pro vCPU
Ein Maschinentyp c3-standard-22
hat beispielsweise 22 vCPUs und als Maschinentyp standard
auch 88 GB Arbeitsspeicher.
Maschinentypen mit lokalen SSDs
Maschinentypen mit lokalen SSDs sind ein spezieller vordefinierter Maschinentyp. Der Name des Maschinentyps endet mit -lssd
. Wenn Sie eine Compute-Instanz mit einem dieser Maschinentypen erstellen, werden automatisch Titanium-SSDs oder lokale SSD-Laufwerke an die Instanz angehängt.
Diese Maschinentypen sind für die Maschinenserien C4A, C4D, C3 und C3D verfügbar. Andere Maschinenserien unterstützen auch lokale SSD-Laufwerke, verwenden aber keinen -lssd
-Maschinentyp. Weitere Informationen dazu, welche Maschinentypen Sie mit Titanium-SSDs oder lokalen SSD-Laufwerken verwenden können, finden Sie unter Gültige Anzahl lokaler SSD-Laufwerke auswählen.
Bare-Metal-Maschinentypen
Bare Metal-Maschinentypen sind ein spezieller vordefinierter Maschinentyp. Der Name des Maschinentyps endet mit -metal
. Wenn Sie eine Compute-Instanz mit einem dieser Maschinentypen erstellen, ist kein Hypervisor auf der Instanz installiert. Sie können einer Bare-Metal-Instanz Laufwerke anhängen, genau wie bei einer VM-Instanz. Bare-Metal-Instanzen können in VPC-Netzwerken und ‑Subnetzen auf dieselbe Weise wie VM-Instanzen verwendet werden.
Diese Maschinentypen sind für die Maschinenserien C4D (Vorabversion), C3, Z3 (Vorabversion) und X4 verfügbar.
Benutzerdefinierte Maschinentypen
Wenn keiner der vordefinierten Maschinentypen Ihren Anforderungen entspricht, können Sie eine VM-Instanz mit einem benutzerdefinierten Maschinentyp für die Maschinenserien N und E in der Maschinenfamilie für allgemeine Zwecke erstellen. .
Die Nutzungskosten eines benutzerdefinierten Maschinentyps sind etwas höher als die eines gleichwertigen vordefinierten Maschinentyps. Außerdem gibt es Einschränkungen in Bezug auf die Menge an Arbeitsspeicher und vCPUs, die Sie für einen benutzerdefinierten Maschinentyp auswählen können. Die On-Demand-Preise für benutzerdefinierte Maschinentypen enthalten einen Aufschlag von 5% auf die On-Demand- und Zusicherungspreise für vordefinierte Maschinentypen.
Beim Erstellen eines benutzerdefinierten Maschinentyps können Sie die Funktion „Erweiterter Arbeitsspeicher“ verwenden. Anstatt die Standardgröße des Arbeitsspeichers basierend auf der Anzahl der ausgewählten vCPUs zu verwenden, können Sie eine Menge an Arbeitsspeicher bis zum Limit für die Maschinenserie angeben.
Weitere Informationen finden Sie unter VM mit einem benutzerdefinierten Maschinentyp erstellen.
Maschinentypen mit gemeinsam genutztem Kern
Die E2- und die N1-Serie enthalten Maschinentypen mit gemeinsam genutztem Kern. Diese Maschinentypen haben einen physischen Kern, der eine kostengünstige Methode zum Ausführen kleiner, nicht ressourcenintensiver Anwendungen sein kann.
E2: bietet 2 vCPUs für kurzzeitiges Bursting.
N1: bietet Maschinentypen mit gemeinsam genutztem Kern
f1-micro
undg1-small
, die bis zu 1 vCPU für kurzzeitiges Bursting zur Verfügung haben.
Empfehlungen für Maschinenfamilien und -serien
Die folgenden Tabellen enthalten Empfehlungen für verschiedene Arbeitslasten.
Arbeitslasten für allgemeine Zwecke | |||
---|---|---|---|
N4, N2, N2D, N1 | C4, C4A, C4D, C3, C3D | E2 | Tau T2D, Tau T2A |
Ausgewogenes Preis-Leistungs-Verhältnis für eine Vielzahl von Maschinentypen | Konstant hohe Leistung für eine Vielzahl von Arbeitslasten | Kosteneffizientes Computing für den Alltag | Optimale Leistungs-Kosten-Verhältnis pro Kern für Arbeitslasten mit horizontaler Skalierung |
|
|
|
|
Optimierte Arbeitslasten |
|||
---|---|---|---|
Speicheroptimiert | Computing-optimiert | Speicheroptimiert | Beschleunigungsoptimiert |
Z3 | H3, C2, C2D | X4, M4, M3, M2, M1 | A4X, A4, A3, A2, G2 |
Höchstes Verhältnis von Blockspeicher pro Rechenoperationen für speicherintensive Arbeitslasten | Ultra-hohe Leistung für rechenintensive Arbeitslasten | Höchstes Verhältnis von Arbeitsspeicher pro Rechenoperationen für arbeitsspeicherintensive Arbeitslasten | Für beschleunigte Hochleistungs-Computing-Arbeitslasten optimiert |
|
|
|
|
Nachdem Sie eine Compute-Instanz erstellt haben, können Sie die Empfehlungen zur Größenanpassung verwenden, um die Ressourcennutzung basierend auf Ihrer Arbeitslast zu optimieren. Weitere Informationen finden Sie unter Empfehlungen für Maschinentypen für VMs anwenden.
Anleitung für Maschinenfamilien für allgemeine Zwecke
Die Maschinenfamilie für allgemeine Zwecke bietet mehrere Maschinenserien mit dem besten Preis-Leistungs-Verhältnis für eine Vielzahl von Arbeitslasten.
Compute Engine bietet Maschinenserien für allgemeine Zwecke, die entweder in der x86- oder der ARM-Architektur ausgeführt werden.
x86
- Die C4D-Maschinenserie ist auf der AMD EPYC Turin-CPU-Plattform verfügbar und wird von Titanium unterstützt. C4D hat eine höhere maximale Boost-Frequenz als C3D und einen verbesserten IPC-Wert (Instructions Per Clock) für schnellere Datenbanktransaktionen. Durch die Nutzung von Hyperdisk-Speicher und Titanium-Netzwerken bietet C4D bis zu 55% mehr Abfragen pro Sekunde bei MySQL und 35% mehr Leistung bei Redis-Arbeitslasten im Vergleich zu C3D. C4D-Instanzen sind mit bis zu 384 vCPUs und 3 TB DDR5-Arbeitsspeicher verfügbar.
C4D ist in den Konfigurationen
highcpu
(1,875 GB pro vCPU),standard
(3,875 GB pro vCPU) undhighmem
(7,875 GB pro vCPU) verfügbar. - Die C4-Maschinenserie ist auf der Intel Emerald Rapids-CPU-Plattform verfügbar und wird von Titanium unterstützt. C4-Maschinentypen sind für eine konstant hohe Leistung optimiert und lassen sich auf bis zu 192 vCPUs mit 1,5 TB DDR5-Arbeitsspeicher skalieren. C4 ist in den Konfigurationen
highcpu
(2 GB pro vCPU),standard
(3,75 GB pro vCPU) undhighmem
(7,75 GB pro vCPU) verfügbar. - Die N4-Maschinenserie ist auf der Intel Emerald Rapids-CPU-Plattform verfügbar und wird von Titanium unterstützt. N4-Maschinentypen sind für Flexibilität und Kosten optimiert. Sie sind sowohl in vordefinierten als auch in benutzerdefinierten Formen verfügbar und können auf bis zu 80 vCPUs mit 640 GB DDR5-Arbeitsspeicher skaliert werden. N4 ist in den Konfigurationen
highcpu
(2 GB pro vCPU),standard
(4 GB pro vCPU) undhighmem
(8 GB pro vCPU) verfügbar. - Die N2-Maschinenserien haben bis zu 128 vCPUs und 8 GB Arbeitsspeicher pro vCPU und sind auf den CPU-Plattformen Intel Ice Lake und Intel Cascade Lake verfügbar.
- Die N2D-Maschinenserien haben bis zu 224 vCPUs und 8 GB Arbeitsspeicher pro vCPU und sind auf AMD EPYC Rome-Plattformen der zweiten Generation und AMD EPYC Milan-Plattformen der dritten Generation verfügbar.
- Die C3-Maschinenserie bietet bis zu 176 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der Intel Sapphire Rapids-CPU-Plattform und Titanium. C3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
- Die C3D-Maschinenserie bietet bis zu 360 vCPUs und 2, 4 oder 8 GB Arbeitsspeicher pro vCPU auf der AMD EPYC Genoa CPU-Plattform und Titanium. C3D-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
- Die E2-Maschinenserie hat bis zu 32 virtuelle Kerne (vCPUs) mit bis zu 128 GB Arbeitsspeicher und maximal 8 GB pro vCPU sowie die niedrigsten Kosten aller Maschinenserien. Die E2-Maschinenserie hat eine vordefinierte CPU-Plattform, die entweder einen Intel-Prozessor oder einen AMD EPYC Rome-Prozessor der zweiten Generation ausführt. Der Prozessor wird beim Erstellen der Instanz für Sie ausgewählt. Diese Maschinenserie bietet eine Vielzahl von Computing-Ressourcen für den günstigsten Preis in Compute Engine, insbesondere in Kombination mit Rabatten für zugesicherte Nutzung.
- Die Tau T2D-Maschinenserie bietet einen optimierten Satz von Funktionen zum Hochskalieren. Jede VM-Instanz kann bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU haben und ist auf AMD EPYC Milan-Prozessoren der dritten Generation verfügbar. Die Maschinenserie Tau T2D verwendet kein Cluster-Threading. Daher entspricht eine vCPU einem gesamten Kern.
- VMs der N1-Maschinenserie können bis zu 96 vCPUs und bis zu 6,5 GB Arbeitsspeicher pro vCPU haben und sind auf den CPU-Plattformen Intel Sandy Bridge, Ivy Bridge, Haswell, Broadwell und Skylake verfügbar.
Arm
Die C4A-Maschinenreihe ist die zweite Maschinenreihe in Google Cloud, die auf Arm-Prozessoren ausgeführt wird, und die erste, die auf Google Axion-Prozessoren ausgeführt wird, die die Arm V9-Architektur unterstützen. C4A-Instanzen werden von der Titanium-IPU mit Festplatten- und Netzwerk-Offloads unterstützt. Dadurch wird die Instanzleistung verbessert, da die Verarbeitung auf dem Host reduziert wird.
C4A-Instanzen bieten bis zu 72 vCPUs mit bis zu 8 GB Arbeitsspeicher pro vCPU in einer einzelnen UMA-Domain. C4A bietet
-lssd
-Maschinentypen mit bis zu 6 TiB Titanium SSD-Kapazität. Bei C4A-Instanzen wird kein gleichzeitiges Multithreading (SMT) verwendet. Eine vCPU in einer C4A-Instanz entspricht einem gesamten physischen Kern.Die Tau T2A-Maschinenreihe ist die erste Maschinenreihe in Google Cloud, die auf Arm-Prozessoren ausgeführt wird. Tau T2A-Maschinen sind für ein attraktives Preis-Leistungs-Verhältnis optimiert. Jede VM kann bis zu 48 vCPUs mit 4 GB Arbeitsspeicher pro vCPU haben. Die Tau T2A-Maschinenserie wird auf einem Ampere Altra-Prozessor mit 64 Kernen, einem Arm-Befehlssatz und einer Kernkernfrequenz von 3 GHz ausgeführt. Tau T2A-Maschinentypen unterstützen einen einzelnen NUMA-Knoten. Eine vCPU entspricht einem gesamten Kern.
Leitfaden zur speicheroptimierten Maschinenfamilie
Die speicheroptimierte Maschinenfamilie eignet sich am besten für leistungsstarke und flash-optimierte Arbeitslasten wie SQL-, NoSQL- und Vektordatenbanken, horizontal skalierbare Datenanalysen, Data Warehouses und Suchvorgänge sowie verteilte Dateisysteme, die schnellen Zugriff auf große Mengen an Daten benötigen, die im lokalen Speicher gespeichert sind. Die speicheroptimierte Maschinenfamilie ist darauf ausgelegt, einen hohen lokalen Speicherdurchsatz und hohe IOPS bei einer Latenz von weniger als einer Millisekunde zu bieten.
- Z3-Instanzen können bis zu 176 vCPUs, 1.408 GB Arbeitsspeicher und 36 TiB lokalen Titanium-SSD-Speicher für VM-Instanzen haben. Z3-Bare-Metal-Instanzen (Vorabversion) haben 192 vCPUs, 1.536 GB Arbeitsspeicher und 72 TiB lokale Titanium-SSD. Z3-VMs basieren auf dem skalierbaren Intel Xeon-Prozessor (Codename Sapphire Rapids) mit DDR5-Arbeitsspeicher und Titanium-Auslagerungsprozessoren. Die Z3-Maschinenreihe vereint Innovationen in den Bereichen Computing, Netzwerk und Speicher auf einer Plattform. Z3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten.
Leitfaden zur computing-optimierten Maschinenfamilie
Die computing-optimierte Maschinenfamilie ist für die Ausführung rechengebundener Anwendungen optimiert, da sie die höchste Leistung pro Kern bietet.
- H3-Instanzen bieten 88 vCPUs und 352 GB DDR5-Arbeitsspeicher. H3-Instanzen werden auf der Intel Sapphire Rapids-CPU-Plattform und Titanium-Auslagerungsprozessoren ausgeführt. H3-Instanzen sind an der zugrunde liegenden NUMA-Architektur ausgerichtet, um eine optimale, zuverlässige, konsistente Leistung zu bieten. H3 bietet Leistungsverbesserungen für eine Vielzahl von HPC-Arbeitslasten, z. B. molekulare Dynamik, Berechnungsgeographie, Finanzrisikoanalyse, Wettermodellierung, Frontend- und Backend-EDA und Berechnungsdynamik.
- C2-Instanzen bieten bis zu 60 vCPUs und 4 GB Arbeitsspeicher pro vCPU und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
- C2D-Instanzen bieten bis zu 112 vCPUs und bis zu 8 GB Arbeitsspeicher pro vCPU und sind auf der AMD EPYC Milan-Plattform der dritten Generation verfügbar.
Leitfaden zur speicheroptimierten Maschinenfamilie
Die speicheroptimierte Maschinenfamilie umfasst Maschinenreihen, die sich ideal für OLAP- und OLTP-SAP-Arbeitslasten, genomische Modellierung, elektronische Designautomatisierung und Ihre speicherintensivsten HPC-Arbeitslasten eignen. Diese Familie bietet mit bis zu 32 TB mehr Arbeitsspeicher pro Kern als jede andere Maschinenfamilie.
- X4-Bare-Metal-Instanzen bieten bis zu 1.920 vCPUs mit 17 GB Arbeitsspeicher pro vCPU. X4 hat Maschinentypen mit 16, 24 und 32 TB Arbeitsspeicher und ist auf der Intel Sapphire Rapids-CPU-Plattform verfügbar.
- M4-Instanzen bieten bis zu 224 vCPUs mit bis zu 26,5 GB Arbeitsspeicher pro vCPU und sind auf der Intel Emerald Rapids-CPU-Plattform verfügbar.
- M3-Instanzen bieten bis zu 128 vCPUs mit bis zu 30,5 GB Arbeitsspeicher pro vCPU und sind auf der Intel Ice Lake-CPU-Plattform verfügbar.
- M2-Instanzen sind als Maschinentypen mit 6 TB, 9 TB und 12 TB verfügbar und auf der Intel Cascade Lake-CPU-Plattform verfügbar.
- M1-Instanzen bieten bis zu 160 vCPUs, 14, 9 GB bis 24 GB Arbeitsspeicher pro vCPU und sind auf den CPU-Plattformen Intel Skylake und Broadwell verfügbar.
Leitfaden zur beschleunigungsoptimierten Maschinenfamilie
Die beschleunigungsoptimierte Maschinenfamilie eignet sich ideal für massenhaft parallelisierte CUDA-Computing-Arbeitslasten (Compute Unified Device Architecture), wie: Machine Learning (ML) und Hochleistungs-Computing (HPC). Diese Familie ist die optimale Wahl für Arbeitslasten, die GPUs erfordern.
Arm
- A4X-Instanzen bieten bis zu 140 vCPUs und bis zu 884 GB Arbeitsspeicher. Jeder A4X-Maschinentyp hat 4 NVIDIA B200-GPUs, die an 2 NVIDIA Grace-CPUs angehängt sind. A4X-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 2.000 GB/s.
x86
- A4-Instanzen bieten bis zu 224 vCPUs und bis zu 3.968 GB Arbeitsspeicher. Jeder A4-Maschinentyp hat 8 NVIDIA B200-GPUs. A4-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 3.600 Gbit/s und sind auf der Intel Emerald Rapids-CPU-Plattform verfügbar.
- A3-Instanzen bieten bis zu 224 vCPUs und bis zu 2.952 GB Arbeitsspeicher.
Jedem A3-Maschinentyp sind entweder 1, 2, 4 oder 8 NVIDIA H100- oder 8 H200-GPUs angehängt. A3-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 3.200 Gbit/s und sind auf den folgenden CPU-Plattformen verfügbar:
- Intel Emerald Rapids – A3 Ultra
- Intel Sapphire Rapids – A3 Mega, High und Edge
- A2-Instanzen bieten 12 bis 96 vCPUs und bis zu 1.360 GB Arbeitsspeicher. Jeder A2-Maschinentyp hat entweder 1, 2, 4, 8 oder 16 NVIDIA A100-GPUs. A2-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
- G2-Instanzen bieten 4 bis 96 vCPUs und bis zu 432 GB Arbeitsspeicher. Jedem G2-Maschinentyp sind entweder 1, 2, 4 oder 8 NVIDIA L4-GPUs angehängt. G2-Instanzen haben eine maximale Netzwerkbandbreite von bis zu 100 Gbit/s und sind auf der Intel Cascade Lake-CPU-Plattform verfügbar.
Maschinenserienvergleich
Verwenden Sie die folgende Tabelle, um jede Maschinenfamilien zu vergleichen und zu ermitteln, welche Familie für Ihre Arbeitslast geeignet ist. Wenn Sie sich danach immer noch nicht sicher sind, welche Familie für Ihre Arbeitslast am besten geeignet ist, beginnen Sie mit der Maschinenfamilie für allgemeine Zwecke. Weitere Informationen zu allen unterstützten Prozessoren finden Sie unter CPU-Plattformen.
Informationen dazu, wie sich Ihre Auswahl auf die Leistung von an Compute-Instanzen angehängten Laufwerk-Volumes auswirkt, finden Sie unter:
- Persistent Disk: Leistung von Laufwerken nach Maschinentyp und Anzahl der vCPUs
- Google Cloud Hyperdisk: Hyperdisk-Leistungsgrenzen
Vergleichen Sie die Eigenschaften verschiedener Maschinenserien von C4A bis G2. Sie können bestimmte Attribute im Feld Instanzattribute zum Vergleich auswählen auswählen, um sie für alle Maschinenserien in der folgenden Tabelle zu vergleichen.
Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Allgemeiner Zweck | Kostenoptimiert | Speicheroptimiert | Computing-optimiert | Computing-optimiert | Computing-optimiert | Speicheroptimiert | Speicheroptimiert | Speicheroptimiert | Speicheroptimiert | Speicheroptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert | Beschleunigungsoptimiert |
VM | VM | VM und Bare Metal | VM und Bare Metal | VM | VM | VM | VM | VM | VM | VM | VM | VM und Bare Metal | VM | VM | VM | Bare Metal | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM | VM |
Intel Emerald Rapids | Google Axion | AMD EPYC Turin | Intel Sapphire Rapids | AMD EPYC Genoa | Intel Emerald Rapids | Intel Cascade Lake und Ice Lake | AMD EPYC Rome und EPYC Milan | Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge | AMD EPYC Milan | Ampere Altra | Intel Skylake, Broadwell und Haswell, AMD EPYC Rome und EPYC Milan | Intel Sapphire Rapids | Intel Sapphire Rapids | Intel Cascade Lake | AMD EPYC Milan | Intel Sapphire Rapids | Intel Emerald Rapids | Intel Ice Lake | Intel Cascade Lake | Intel Skylake und Broadwell | Intel Skylake, Broadwell, Haswell, Sandy Bridge und Ivy Bridge | NVIDIA Grace | Intel Emerald Rapids | Intel Emerald Rapids | Intel Sapphire Rapids | Intel Cascade Lake | Intel Cascade Lake |
x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | Arm | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | x86 | Arm | x86 | x86 | x86 | x86 | x86 |
2 bis 192 | 1 bis 72 | 2 bis 384 | 4 bis 176 | 4 bis 360 | 2 bis 80 | 2 bis 128 | 2 bis 224 | 1 bis 96 | 1 bis 60 | 1 bis 48 | 0,25 bis 32 | 14 bis 192 | 88 | 4 bis 60 | 2 bis 112 | 960 bis 1.920 | 28 bis 224 | 32 bis 128 | 208 bis 416 | 40 bis 160 | 1 bis 96 | 140 | 224 | 224 | 208 | 12 bis 96 | 4 bis 96 |
Thread | Core | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Core | Core | Thread | Thread | Core | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Thread | Core | Thread | Thread | Thread | Thread | Thread |
2 bis 1.488 GB | 2 bis 576 GB | 3 bis 3.072 GB | 4 bis 1.408 GB | 4 bis 2.880 GB | 2 bis 640 GB | 2 bis 864 GB | 2 bis 896 GB | 1,8 bis 624 GB | 4 bis 240 GB | 4 bis 192 GB | 1 bis 128 GB | 112 bis 1.536 GB | 352 GB | 16 bis 240 GB | 4 bis 896 GB | 16.384 bis 32.768 GB | 372 bis 5.952 GB | 976 bis 3.904 GB | 5.888 bis 11.776 GB | 961 bis 3.844 GB | 3.75 bis 624 GB | 884 GB | 3.968 GB | 2.952 GB | 1.872 GB | 85 bis 1.360 GB | 16 bis 432 GB |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||
— | — | — | — | — | — | — | — | — | — | ||||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||||||
— | — | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | Intel TDX | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | — | — | <style="white-space:no-wrap;"> AMD SEV , AMD SEV-SNP </style="white-space:no-wrap;"> | — | — | — | — | — | — | — | <style="white-space:no-wrap;"> AMD SEV </style="white-space:no-wrap;"> | — | — | — | — | — | — | — | — | — | Intel TDX, NVIDIA Confidential Computing | — | — |
NVMe | NVMe | NVMe | NVMe | NVMe | NVMe | SCSI und NVMe | SCSI und NVMe | SCSI und NVMe | SCSI und NVMe | NVMe | SCSI | NVMe | NVMe | SCSI und NVMe | SCSI und NVMe | NVMe | NVMe | NVMe | SCSI | SCSI und NVMe | SCSI und NVMe | NVMe | NVMe | NVMe | NVMe | SCSI und NVMe | NVMe |
— | — | — | — | — | — | — | — | — | — | — | |||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||||||
— | — | — | — | — | — | — | — | — | — | — | — | ||||||||||||||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||||
— | — | — | — | — | — | — | — | — | |||||||||||||||||||
0 | 6 TiB | 12 TiB | 12 TiB | 12 TiB | 0 | 9 TiB | 9 TiB | 9 TiB | 0 | 0 | 0 | 36 TiB (VM), 72 TiB (Metal) | 0 | 3 TiB | 3 TiB | 0 | 0 | 3 TiB | 0 | 3 TiB | 9 TiB | 12 TiB | 12 TiB | 12 TiB | 6 TiB | 3 TiB | 3 TiB |
— | — | — | — | — | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | — | — | Zonal | Zonal | — | — | — | Zonal | Zonal | Zonal und regional | — | — | — | — | Zonal | — |
— | — | — | Zonal | Zonal | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | Zonal | Zonal | Zonal | Zonal | — | — | Zonal | Zonal | Zonal | Zonal und regional | — | — | — | Zonal | Zonal | Zonal |
— | — | — | Zonal | Zonal | — | Zonal und regional | Zonal und regional | Zonal und regional | Zonal | Zonal | Zonal und regional | Zonal | — | Zonal | Zonal | — | — | Zonal | Zonal | Zonal | Zonal und regional | — | — | — | Zonal | Zonal | Zonal |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | ||||
gVNIC | gVNIC | gVNIC und IDPF | gVNIC und IDPF | gVNIC | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC | gVNIC und VirtIO-Net | gVNIC und IDPF | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | IDPF | gVNIC | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net | gVNIC und MRDMA | gVNIC und MRDMA | gVNIC und MRDMA | gVNIC | gVNIC und VirtIO-Net | gVNIC und VirtIO-Net |
10 bis 100 Gbit/s | 10 bis 50 Gbit/s | 10 bis 100 Gbit/s | 23 bis 100 Gbit/s | 20 bis 100 Gbit/s | 10 bis 50 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | 2 bis 32 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | 1 bis 16 Gbit/s | 23 bis 100 Gbit/s | Bis zu 200 Gbit/s | 10 bis 32 Gbit/s | 10 bis 32 Gbit/s | bis zu 100 Gbit/s | 32 bis 100 Gbit/s | bis zu 32 Gbit/s | bis zu 32 Gbit/s | bis zu 32 Gbit/s | 2 bis 32 Gbit/s | bis zu 2.000 Gbit/s | bis zu 3.600 Gbit/s | bis zu 3.200 Gbit/s | bis zu 1.800 Gbit/s | 24 bis 100 Gbit/s | 10 bis 100 Gbit/s |
50 bis 200 Gbit/s | 50 bis 100 Gbit/s | 50 bis 200 Gbit/s | 50 bis 200 Gbit/s | 50 bis 200 Gbit/s | — | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s | — | — | — | — | 50 bis 200 Gbit/s | — | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s | — | 50 bis 200 Gbit/s | 50 bis 100 Gbit/s | — | — | 50 bis 100 Gbit/s | bis zu 2.000 Gbit/s | bis zu 3.600 Gbit/s | bis zu 3.200 Gbit/s | bis zu 1.800 Gbit/s | 50 bis 100 Gbit/s | 50 bis 100 Gbit/s |
0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 | 4 | 8 | 8 | 8 | 16 | 8 |
— | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | — | |||||||
ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | — | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | ressourcenbasierten CUDs und flexiblen CUDs | ressourcenbasierten CUDs und flexiblen CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs | Ressourcenbasierte CUDs |
— | — | — | — | ||||||||||||||||||||||||
GPUs und Compute-Instanzen
GPUs werden verwendet, um Arbeitslasten zu beschleunigen, und werden für A4X-, A4-, A3-, A2-, G2- und N1-Instanzen unterstützt. Bei Instanzen, die A4X-, A4-, A3-, A2- oder G2-Maschinentypen verwenden, werden die GPUs beim Erstellen der Instanz automatisch angehängt. Bei Instanzen, die N1-Maschinentypen verwenden, können Sie GPUs während oder nach der Instanzerstellung an die Instanz anhängen. GPUs können nicht mit anderen Maschinenserien verwendet werden.
Für Instanzen mit weniger angehängten GPUs ist eine Höchstanzahl von vCPUs vorgegeben. Im Allgemeinen ermöglicht es Ihnen eine höhere Anzahl von GPUs, Instanzen mit einer größeren Anzahl von vCPUs und mehr Arbeitsspeicher zu erstellen. Weitere Informationen finden Sie unter GPUs in Compute Engine.
Nächste Schritte
- VM erstellen und starten
- VM mit einem benutzerdefinierten Maschinentyp erstellen
- Kurzanleitung: Linux-VM verwenden
- Kurzanleitung: Windows-VM verwenden
- Weitere Informationen zum Anhängen von Blockspeicher an Ihre VMs.