Auf dieser Seite werden die Leistungsgrenzen eines einzelnen Google Cloud NetApp Volumes-Volumes von mehreren Client-VMs aus veranschaulicht. Anhand der Informationen auf dieser Seite können Sie die Größe Ihrer Arbeitslasten festlegen.
Zufällige E/A im Vergleich zu sequenziellen E/A
Arbeitslasten, die hauptsächlich zufällige E/A-Vorgänge umfassen, können nicht den gleichen Durchsatz wie Arbeitslasten mit sequenziellen E/A-Vorgängen erzielen.
Leistungstests
Die folgenden Testergebnisse zeigen Leistungsgrenzwerte. Bei diesen Tests hat das Volume ausreichend Kapazität, sodass der Durchsatz die Benchmarktests nicht beeinträchtigt. Wenn Sie die Kapazität eines einzelnen Volumes über die folgenden Durchsatzwerte hinaus zuweisen, führt das nicht zu einer zusätzlichen Leistungssteigerung.
Die Leistungstests wurden mit Fio durchgeführt.
Beachten Sie bei den Ergebnissen der Leistungstests Folgendes:
Die Leistung der Service-Levels „Standard“, „Premium“ und „Extreme“ skaliert den Durchsatz mit der Volume-Kapazität, bis die Grenzwerte erreicht sind.
Mit der Flex-Dienststufe mit benutzerdefinierter Leistung können Kapazität, IOPS und Durchsatz unabhängig voneinander skaliert werden.
IOPS-Ergebnisse dienen nur zu Informationszwecken.
Die Zahlen, die für die folgenden Ergebnisse verwendet werden, sind so eingerichtet, dass sie maximale Ergebnisse zeigen. Die folgenden Ergebnisse sind als Schätzung der maximal erreichbaren Zuweisung der Durchsatzkapazität zu betrachten.
Die Verwendung mehrerer schneller Volumes pro Projekt unterliegt möglicherweise projektbezogenen Beschränkungen.
Die folgenden Leistungstestergebnisse beziehen sich nur auf NFSv3, SMB oder beide Protokolltypen. Andere Protokolltypen wie NFSv4.1 wurden nicht zum Testen der Leistung von NetApp Volumes verwendet.
Volume-Durchsatzlimits für den NFSv3-Zugriff
In den folgenden Abschnitten finden Sie Details zu den Grenzwerten für den Volumendurchsatz für den NFSv3-Zugriff.
Die Tests wurden mit dem Service-Level „Flex“ mit benutzerdefinierter Leistung und dem Service-Level „Extreme“ durchgeführt. Im Folgenden sind die erfassten Ergebnisse aufgeführt.
Flex-Dienstebene mit benutzerdefinierter Leistung
Die folgenden Tests wurden mit einem einzelnen Volume in einem zonalen Speicherpool mit benutzerdefinierter Leistung vom Typ „Flex“ durchgeführt. Der Pool wurde mit dem maximalen Durchsatz und den maximalen IOPS konfiguriert und die Ergebnisse wurden erfasst.
Blockgröße von 64 KiB (sequenzielles E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ
n2-standard-32
Red Hat 9-Betriebssystem
96 GiB Arbeitsset für jede virtuelle Maschine mit insgesamt 576 GiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.rsize
- undwsize
-Mount-Optionen sind auf 65536 konfiguriertDie Volumegröße betrug 10 TiB mit dem Service-Level „Flex“ und benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 Gbit/s und 160.000 IOPS festgelegt.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.300 MiB/s an reinen sequenziellen Lesevorgängen und 1.480 MiB/s an reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB verarbeiten kann.
Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
Lese-MiB/s | 4304 | 2963 | 1345 | 464 | 0 |
Schreib-MiB/s | 0 | 989 | 1344 | 1390 | 1476 |
Blockgröße von 8 KiB (zufällige E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ
n2-standard-32
Red Hat 9-Betriebssystem
96 TiB Arbeitsgruppe für jede virtuelle Maschine mit insgesamt 576 TiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.Die Mount-Optionen
rsize
undwsize
sind auf jedem Host auf 65536 konfiguriert.Die Volumegröße betrug 10 TiB mit dem Service-Level „Flex“ und benutzerdefinierter Leistung. Für die Tests wurde die benutzerdefinierte Leistung auf die Höchstwerte von 5.120 Gbit/s und 160.000 IOPS festgelegt.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise etwa 126.400 reine zufällige Lese-IOPS und 78.600 reine zufällige Schreib-IOPS mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.
Benchmark-Ergebnisse für NFS 8 KiB Random 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
IOPS für Lesevorgänge | 126.397 | 101.740 | 57.223 | 23.600 | 0 |
IOPS für Schreibvorgänge | 0 | 33.916 | 57.217 | 70.751 | 78.582 |
Extremes Service-Level
Die folgenden Tests wurden mit einem einzelnen Volume in einem Extreme-Speicherpool durchgeführt und die Ergebnisse wurden erfasst.
Blockgröße von 64 KiB (sequenzielles E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ
n2-standard-32
Red Hat 9-Betriebssystem
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise zwischen 5.240 MiBps für reine sequenzielle Lesevorgänge und 2.180 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 64 KiB verarbeiten kann.
Benchmark-Ergebnisse für NFS 64 KiB Sequential 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
Lese-MiB/s | 4710 | 2050 | 1270 | 550 | 0 |
Schreib-MiB/s | 0 | 690 | 1270 | 1650 | 1950 |
Blockgröße von 256 KiB (sequenzielle E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
256 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen
n2-standard-32
-MaschinenRed Hat 9-Betriebssystem
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume mit NFSv3 schätzungsweise etwa 4.930 MiBps für reine sequenzielle Lesevorgänge und etwa 2.440 MiBps für reine sequenzielle Schreibvorgänge mit einer Blockgröße von 256 KiB verarbeiten kann.
Benchmark-Ergebnisse für NFS 256 KiB Sequential 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
Lese-MiB/s | 4430 | 2270 | 1470 | 610 | 0 |
Schreib-MiB/s | 0 | 750 | 1480 | 1830 | 2200 |
Blockgröße von 4 KiB (zufällige E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen
n2-standard-32
-MaschinenRed Hat 9-Betriebssystem
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 380.000 reinen zufälligen Lesevorgängen und etwa 120.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über NFSv3 verarbeiten kann.
Benchmark-Ergebnisse für NFS 4 KiB Random 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
IOPS für Lesevorgänge | 340.000 | 154.800 | 71.820 | 28.800 | 0 |
IOPS für Schreibvorgänge | 0 | 51.570 | 71.820 | 86.580 | 106.200 |
Blockgröße von 8 KiB (zufällige E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ
n2-standard-32
Red Hat 9-Betriebssystem
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Die Mount-Option
nconnect
ist auf jedem Host für den Wert 16 konfiguriert.Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 270.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über NFSv3 verarbeiten kann.
Benchmark-Ergebnisse für NFS 8 KiB 6 n2-standard-32
Red Hat 9-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
IOPS für Lesevorgänge | 238.500 | 118.800 | 60.210 | 27.180 | 0 |
IOPS für Schreibvorgänge | 0 | 39.690 | 60.210 | 81.450 | 93.600 |
Limits für den Volume-Durchsatz für den SMB-Zugriff
Die folgenden Abschnitte enthalten Details zu den Durchsatzlimits für Volumes für den SMB-Zugriff.
Blockgröße von 64 KiB (sequenzielles E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 64 KiB für ein einzelnes Volume mit sechs virtuellen Maschinen vom Typ
n2-standard-32
Windows 2022
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Die clientseitige Option „SMB Connect Count Per RSS Network Interface“ ist auf jeder VM mit dem Wert 16 konfiguriert.
Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen ca. 5.130 MiB/s bei reinen sequenziellen Lesevorgängen und ca. 1.790 MiB/s bei reinen sequenziellen Schreibvorgängen mit einer Blockgröße von 64 KiB über SMB verarbeiten kann.
SMB 64 KiB sequenziell 6 n2-standard-32
Windows 2022-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
Lese-MiB/s | 4610 | 2410 | 1310 | 500 | 0 |
Schreib-MiB/s | 0 | 800 | 1310 | 1510 | 1600 |
Blockgröße von 256 KiB (sequenzielle E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 256 KiB für ein einzelnes Volume mit sechs virtuellen n2-standard-32-Maschinen
Windows 2022
1 TiB-Arbeitsgruppe für jede VM mit einer kombinierten Gesamtgröße von 6 TiB
Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host mit dem Wert 16 konfiguriert)
Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt,dass ein einzelnes Volume schätzungsweise in der Lage ist,über SMB zwischen etwa 4.620 MiB/s reiner sequenzieller Lesevorgänge und etwa 1.830 MiB/s reiner sequenzieller Schreibvorgänge mit einer Blockgröße von 256 KiB zu verarbeiten.
SMB 256 KiB sequenziell 6 n2-standard-32
Windows 2022-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
Lese-MiB/s | 4150 | 2440 | 1380 | 530 | 0 |
Schreib-MiB/s | 0 | 810 | 1380 | 1569 | 1643 |
Blockgröße von 4 KiB (zufällige E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
4 KiB-Blockgröße für ein einzelnes Volume mit sechs virtuellen
n2-standard-32
-MaschinenWindows 2022
1 TiB-Arbeitsgruppe für jede VM, insgesamt 6 TiB
Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host aktiviert) für einen Wert von 16
Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 390.000 reinen zufälligen Lesevorgängen und 110.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 4 KiB über SMB verarbeiten kann.
Benchmark-Ergebnisse für SMB 4 KiB Random 6 n2-standard-32
Windows 2022-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
IOPS für Lesevorgänge | 351.810 | 148.230 | 75.780 | 29.540 | 0 |
IOPS für Schreibvorgänge | 0 | 49.360 | 75.780 | 88.650 | 98.370 |
Blockgröße von 8 KiB (zufällige E/A)
Diese Ergebnisse wurden mit Fio und den folgenden Einstellungen erfasst:
Blockgröße von 8 KiB für ein einzelnes Volume mit sechs virtuellen
n2-standard-32
-MaschinenWindows 2022
1 TiB-Arbeitsgruppe für jede VM, insgesamt 6 TiB
Anzahl der SMB-Verbindungen pro RSS-Netzwerkschnittstelle (clientseitige Option auf jedem Host mit dem Wert 16 konfiguriert)
Die Volume-Größe betrug 75 TiB des Service-Levels „Extrem“.
Fio wurde mit 8 Jobs auf jeder virtuellen Maschine ausgeführt, also mit insgesamt 48 Jobs. Die folgende Tabelle zeigt, dass ein einzelnes Volume schätzungsweise zwischen 280.000 reinen zufälligen Lesevorgängen und 90.000 reinen zufälligen Schreibvorgängen mit einer Blockgröße von 8 KiB über SMB verarbeiten kann.
Benchmark-Ergebnisse für SMB 8 KiB Random 6 n2-standard-32
Windows 2022-VMs
100% Lesen und 0% Schreiben | 75% Lesen und 25% Schreiben | 50% Lesen und 50% Schreiben | 25% Lesen und 75% Schreiben | 0% Lesen und 100% Schreiben | |
---|---|---|---|---|---|
IOPS für Lesevorgänge | 244.620 | 122.310 | 59.130 | 25.280 | 0 |
IOPS für Schreibvorgänge | 0 | 40.763 | 59.310 | 75.960 | 76.950 |
Benchmark für Electronic Design Automation-Arbeitslasten
Die Unterstützung großer Volumes in NetApp Volumes bietet leistungsstarke parallele Dateisysteme, die sich ideal für Arbeitslasten zur elektronischen Designautomatisierung eignen. Diese Dateisysteme bieten bis zu 1 PiB Kapazität und liefern hohe E/A- und Durchsatzraten bei niedriger Latenz.
Für EDA-Arbeitslasten gelten unterschiedliche Leistungsanforderungen für die Frontend- und Backend-Phasen. In der Frontend-Phase werden Metadaten und IOPS priorisiert, während in der Backend-Phase der Schwerpunkt auf dem Durchsatz liegt.
Ein branchenüblicher EDA-Benchmark (Electronic Design Automation) mit gemischten Frontend- und Backend-Arbeitslasten, bei dem ein großes Volume mit mehreren NFSv3-Clients verwendet wird, die gleichmäßig auf 6 IP-Adressen verteilt sind,kann einen Durchsatz von bis zu 21,5 GiBps und bis zu 1.350.000 IOPS erreichen.