Leistungsbenchmarks

Auf dieser Seite werden die Leistungsgrenzen eines einzelnen Google Cloud NetApp Volumes-Volumes von mehreren Client-VMs aus veranschaulicht. Anhand der Informationen auf dieser Seite können Sie die Größe Ihrer Arbeitslasten festlegen.

Zufällige E/A im Vergleich zu sequenziellen E/A

Arbeitslasten, die hauptsächlich zufällige E/A-Vorgänge umfassen, können nicht den gleichen Durchsatz wie Arbeitslasten mit sequenziellen E/A-Vorgängen erzielen.

Leistungstests

Die folgenden Testergebnisse zeigen Leistungsgrenzwerte. Bei diesen Tests hat das Volume ausreichend Kapazität, sodass der Durchsatz die Benchmarktests nicht beeinträchtigt. Wenn Sie die Kapazität eines einzelnen Volumes über die folgenden Durchsatzwerte hinaus zuweisen, führt das nicht zu einer zusätzlichen Leistungssteigerung.

Die Leistungstests wurden mit Fio durchgeführt.

Beachten Sie bei den Ergebnissen der Leistungstests Folgendes:

  • Die Leistung der Service-Levels „Standard“, „Premium“ und „Extreme“ skaliert den Durchsatz mit der Volume-Kapazität, bis die Grenzwerte erreicht sind.

  • Mit der Flex-Dienststufe mit benutzerdefinierter Leistung können Kapazität, IOPS und Durchsatz unabhängig voneinander skaliert werden.

  • IOPS-Ergebnisse dienen nur zu Informationszwecken.

  • Die Zahlen, die für die folgenden Ergebnisse verwendet werden, sind so eingerichtet, dass sie maximale Ergebnisse zeigen. Die folgenden Ergebnisse sind als Schätzung der maximal erreichbaren Zuweisung der Durchsatzkapazität zu betrachten.

  • Die Verwendung mehrerer schneller Volumes pro Projekt unterliegt möglicherweise projektbezogenen Beschränkungen.

  • Die folgenden Leistungstestergebnisse beziehen sich nur auf NFSv3, SMB oder beide Protokolltypen. Andere Protokolltypen wie NFSv4.1 wurden nicht zum Testen der Leistung von NetApp Volumes verwendet.

Volume-Durchsatzlimits für den NFSv3-Zugriff

In den folgenden Abschnitten finden Sie Details zu den Grenzwerten für den Volumendurchsatz für den NFSv3-Zugriff.

Die Tests wurden mit dem Service-Level „Flex“ mit benutzerdefinierter Leistung und dem Service-Level „Extreme“ durchgeführt. Im Folgenden sind die erfassten Ergebnisse aufgeführt.

Flex-Dienstebene mit benutzerdefinierter Leistung

Die folgenden Tests wurden mit einem einzelnen Volume in einem zonalen Speicherpool mit benutzerdefinierter Leistung vom Typ „Flex“ durchgeführt. Der Pool wurde mit dem maximalen Durchsatz und den maximalen IOPS konfiguriert und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 96 GiB Arbeitsset für jede virtuelle Maschine mit insgesamt 576 GiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • rsize- und wsize-Mount-Optionen sind auf 65536 konfiguriert

  • Die Volumegröße betrug 10 TiB mit dem Service-Level „Flex“ und benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 Gbit/s und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.300 MiB/s an reinen sequenziellen Lesevorgängen und 1.480 MiB/s an reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4304 2963 1345 464 0
Schreib-MiB/s 0 989 1344 1390 1476

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 96 TiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 576 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Mount-Optionen rsize und wsize sind auf jedem Host auf 65536 konfiguriert.

  • Die Volumegröße betrug 10 TiB mit dem Service-Level „Flex“ und benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 Gbit/s und 160.000 IOPS festgelegt.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise etwa 126.400 reine zufällige Lese-IOPS und 78.600 reine zufällige Schreib-IOPS mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 8 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 126.397 101.740 57.223 23.600 0
IOPS für Schreibvorgänge 0 33.916 57.217 70.751 78.582

Extremes Service-Level

Die folgenden Tests wurden mit einem einzelnen Volume in einem Extreme-Speicherpool durchgeführt und die Ergebnisse wurden erfasst.

Blockgröße von 64 KiB (sequenzielles E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise zwischen 5.240 MiBps für reine sequenzielle Lesevorgänge und 2.180 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4710 2050 1270 550 0
Schreib-MiB/s 0 690 1270 1650 1950

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 256 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.930 MiBps für reine sequenzielle Lesevorgänge und etwa 2.440 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 256 KiB verarbeiten kann.

Benchmark-Ergebnisse für NFS 256 KiB Sequential 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4430 2270 1470 610 0
Schreib-MiB/s 0 750 1480 1830 2200

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 380.000 reinen zufälligen Lesevorgängen und etwa 120.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 4 KiB Random 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 340.000 154.800 71.820 28.800 0
IOPS für Schreibvorgänge 0 51.570 71.820 86.580 106.200

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Red Hat 9-Betriebssystem

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die Mount-Option nconnect ist auf jedem Host für den Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 270.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.

Benchmark-Ergebnisse für NFS 8 KiB 6 n2-standard-32 Red Hat 9-VMs
100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 238.500 118.800 60.210 27.180 0
IOPS für Schreibvorgänge 0 39.690 60.210 81.450 93.600

Limits für den Volume-Durchsatz für den SMB-Zugriff

Die folgenden Abschnitte enthalten Details zu den Durchsatzlimits für Volumes für den SMB-Zugriff.

Blockgröße von 64 KiB (sequenzielles E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ n2-standard-32

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Die clientseitige Option „SMB Connect Count Per RSS Network Interface“ ist auf jeder VM mit dem Wert 16 konfiguriert.

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 5.130 MiB/s bei reinen sequenziellen Lesevorgängen und ca. 1.790 MiB/s bei reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB über SMB verarbeiten kann.

SMB 64 KiB sequenziell 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4610 2410 1310 500 0
Schreib-MiB/s 0 800 1310 1510 1600

Blockgröße von 256 KiB (sequenzielle E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 256 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host mit dem Wert 16 konfiguriert)

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt,dass ein einzelnes Volume schätzungsweise in der Lage ist,über SMB zwischen etwa 4.620 MiB/s reiner sequenzieller Lesevorgänge und etwa 1.830 MiB/s reiner sequenzieller Schreibvorgänge mit einer Blockgröße von 256 KiB zu verarbeiten.

SMB 256 KiB sequenziell 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
Lese-MiB/s 4150 2440 1380 530 0
Schreib-MiB/s 0 810 1380 1569 1643

Blockgröße von 4 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • 4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host aktiviert) für einen Wert von 16

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 390.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über SMB verarbeiten kann.

Benchmark-Ergebnisse für SMB 4 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 351.810 148.230 75.780 29.540 0
IOPS für Schreibvorgänge 0 49.360 75.780 88.650 98.370

Blockgröße von 8 KiB (zufällige E/A)

Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:

  • Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen

  • Windows 2022

  • 1 TiB-Arbeitsgruppe für jede VM, insgesamt 6 TiB

  • Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host mit dem Wert 16 konfiguriert)

  • Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.

Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 280.000 reinen zufälligen Lesevorgängen und 90.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über SMB verarbeiten kann.

Benchmark-Ergebnisse für SMB 8 KiB Random 6 n2-standard-32 Windows 2022-VMs

100% Lesen und 0% Schreiben 75% Lesen und 25% Schreiben 50% Lesen und 50% Schreiben 25% Lesen und 75% Schreiben 0% Lesen und 100% Schreiben
IOPS für Lesevorgänge 244.620 122.310 59.130 25.280 0
IOPS für Schreibvorgänge 0 40.763 59.310 75.960 76.950

Benchmark für Electronic Design Automation-Arbeitslasten

Die Unterstützung großer Volumes in NetApp Volumes bietet leistungsstarke parallele Dateisysteme, die sich ideal für Arbeitslasten zur elektronischen Designautomatisierung eignen. Diese Dateisysteme bieten bis zu 1 PiB Kapazität und liefern hohe E/A- und Durchsatzraten bei niedriger Latenz.

Für EDA-Arbeitslasten gelten unterschiedliche Leistungsanforderungen für die Frontend- und Backend-Phasen. In der Frontend-Phase werden Metadaten und IOPS priorisiert, während in der Backend-Phase der Schwerpunkt auf dem Durchsatz liegt.

Ein branchenüblicher EDA-Benchmark (Electronic Design Automation) mit gemischten Frontend- und Backend-Arbeitslasten, bei dem ein großes Volume mit mehreren NFSv3-Clients verwendet wird, die gleichmäßig auf 6 IP-Adressen verteilt sind,kann einen Durchsatz von bis zu 21,5 GiBps und bis zu 1.350.000 IOPS erreichen.

Nächste Schritte

Leistung im Blick behalten: