このページでは、複数のクライアント仮想マシンから 1 つの Google Cloud NetApp Volumes ボリュームのパフォーマンスの上限を示します。このページの情報を使用して、ワークロードのサイズを設定します。
ランダム I/O とシーケンシャル I/O
主にランダム I/O のワークロードは、順次 I/O ワークロードと同じスループットを実現できません。
パフォーマンス テスト
次のテスト結果は、パフォーマンスの上限を示しています。これらのテストでは、スループットがベンチマーク テストに影響しないように、ボリュームに十分な容量があります。1 つのボリュームの容量を次のスループット値を超えて割り当てても、パフォーマンスは向上しません。
パフォーマンス テストは Fio を使用して完了しました。
パフォーマンス テストの結果については、次の点を考慮してください。
Standard、Premium、Extreme の各サービスレベルのパフォーマンスは、上限に達するまでボリューム容量に比例してスループットをスケーリングします。
カスタム パフォーマンスの Flex サービスレベルでは、容量、IOPS、スループットを個別にスケーリングできます。
IOPS の結果はあくまで情報提供を目的としたものです。
次の結果を生成するために使用される数値は、最大の結果を表示するように設定されています。次の結果は、達成可能な最大スループット容量の割り当ての見積もりと見なす必要があります。
プロジェクトごとに複数の高速ボリュームを使用する場合は、プロジェクトごとの上限が適用されることがあります。
次のパフォーマンス テストの結果は、NFSv3、SMB、またはその両方のプロトコル タイプのみを対象としています。NFSv4.1 などの他のプロトコル タイプは、NetApp Volumes のパフォーマンス テストに使用されませんでした。
NFSv3 アクセスのボリューム スループットの上限
以降のセクションでは、NFSv3 アクセスのボリューム スループットの上限について詳しく説明します。
テストは、カスタム パフォーマンスの Flex サービスレベルと Extreme サービスレベルを使用して実施されました。キャプチャされた結果は次のとおりです。
カスタム パフォーマンスの Flex サービスレベル
次のテストは、Flex カスタム パフォーマンスのゾーン ストレージ プール内の単一ボリュームで実行されました。プールは最大スループットと IOPS で構成され、結果がキャプチャされました。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32
仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズRed Hat 9 OS
各仮想マシンに 96 GiB のワーキング セット(合計 576 GiB)
各ホストで
nconnect
マウント オプションが 16 の値に構成されているrsize
とwsize
のマウント オプションが 65536 に設定されているボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 Gbps と 160,000 IOPS に設定されました。
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,300 MiBps の純粋なシーケンシャル読み取りと 1,480 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。
NFS 64 KiB 順次 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り MiBps | 4304 | 2963 | 1345 | 464 | 0 |
書き込み MiBps | 0 | 989 | 1344 | 1390 | 1476 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズRed Hat 9 OS
各仮想マシンのワーキング セットは 96 TiB で、合計 576 TiB
各ホストで
nconnect
マウント オプションが 16 の値に構成されている各ホストの
rsize
とwsize
のマウント オプションが 65536 に構成されているボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 Gbps と 160,000 IOPS に設定されました。
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームが NFSv3 経由で 8 KiB ブロックサイズで約 126,400 の純粋なランダム読み取り IOPS と 78,600 の純粋なランダム書き込み IOPS を処理できると推定されることを示しています。
NFS 8 KiB ランダム 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り IOPS | 126,397 | 101,740 | 57,223 | 23,600 | 0 |
書き込み IOPS | 0 | 33,916 | 57,217 | 70,751 | 78,582 |
エクストリーム サービスレベル
次のテストは、Extreme ストレージ プール内の単一ボリュームで実行され、結果がキャプチャされました。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32
仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズRed Hat 9 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで
nconnect
マウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 5,240 MiBps の純粋なシーケンシャル読み取りと約 2,180 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。
NFS 64 KiB 順次 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り MiBps | 4710 | 2050 | 1270 | 550 | 0 |
書き込み MiBps | 0 | 690 | 1270 | 1650 | 1950 |
256 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズRed Hat 9 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで
nconnect
マウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 256 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,930 MiBps の純粋なシーケンシャル読み取りと約 2,440 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。
NFS 256 KiB 順次 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り MiBps | 4430 | 2270 | 1470 | 610 | 0 |
書き込み MiBps | 0 | 750 | 1480 | 1830 | 2200 |
4 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 4 KiB のブロックサイズRed Hat 9 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで
nconnect
マウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームが NFSv3 経由で 4 KiB のブロックサイズで約 380,000 回の純粋なランダム読み取りと約 120,000 回の純粋なランダム書き込みを処理できることを示しています。
NFS 4 KiB ランダム 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り IOPS | 340,000 | 154,800 | 71,820 | 28,800 | 0 |
書き込み IOPS | 0 | 51,570 | 71,820 | 86,580 | 106,200 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズRed Hat 9 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで
nconnect
マウント オプションが 16 の値に構成されているボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームで NFSv3 経由で 8 KiB のブロックサイズで約 270,000 の純粋なランダム読み取りと約 110,000 の純粋なランダム書き込みを処理できることを示しています。
NFS 8 KiB 6 n2-standard-32
Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り IOPS | 238,500 | 118,800 | 60,210 | 27,180 | 0 |
書き込み IOPS | 0 | 39,690 | 60,210 | 81,450 | 93,600 |
SMB アクセスのボリューム スループットの上限
以降のセクションでは、SMB アクセスのボリューム スループットの上限について詳しく説明します。
64 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 つの
n2-standard-32
仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズWindows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各仮想マシンで構成された SMB Connect Count Per RSS Network Interface クライアントサイド オプションの値が 16
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで、SMB 経由で 64 KiB のブロックサイズで約 5,130 MiBps の純粋なシーケンシャル読み取りと約 1,790 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。
SMB 64 KiB 順次 6 n2-standard-32
Windows 2022 VM
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り MiBps | 4610 | 2410 | 1310 | 500 | 0 |
書き込み MiBps | 0 | 800 | 1310 | 1510 | 1600 |
256 KiB ブロックサイズ(順次 I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズ
Windows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで SMB Connection Count Per RSS Network Interface クライアントサイド オプションが 16 に設定されている
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで、SMB 経由で 256 KiB のブロックサイズで約 4,620 MiBps の純粋なシーケンシャル読み取りと約 1,830 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。
SMB 256 KiB 順次 6 n2-standard-32
Windows 2022 VM
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り MiBps | 4150 | 2440 | 1380 | 530 | 0 |
書き込み MiBps | 0 | 810 | 1380 | 1569 | 1643 |
4 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 4 KiB のブロックサイズWindows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで SMB Connection Count Per RSS Network Interface クライアントサイド オプションが 16 の値で有効になっている
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで SMB 経由で 4 KiB のブロックサイズで約 390,000 の純粋なランダム読み取りと約 110,000 の純粋なランダム書き込みを処理できることを示しています。
SMB 4 KiB ランダム 6 n2-standard-32
Windows 2022 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り IOPS | 351,810 | 148,230 | 75,780 | 29,540 | 0 |
書き込み IOPS | 0 | 49,360 | 75,780 | 88,650 | 98,370 |
8 KiB ブロックサイズ(ランダム I/O)
これらの結果は、次の設定で Fio を使用して取得されました。
6 台の
n2-standard-32
仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズWindows 2022 OS
各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)
各ホストで 16 の値に構成された SMB 接続数(RSS ネットワーク インターフェースあたり)クライアントサイド オプション
ボリューム サイズは Extreme サービスレベルの 75 TiB でした
Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームで SMB 経由で 8 KiB のブロックサイズで約 280,000 の純粋なランダム読み取りと約 90,000 の純粋なランダム書き込みを処理できることを示しています。
SMB 8 KiB ランダム 6 n2-standard-32
Windows 2022 VM のベンチマーク結果
読み取り 100%、書き込み 0% | 75% の読み取りと 25% の書き込み | 読み取り 50%、書き込み 50% | 読み取り 25%、書き込み 75% | 読み取り 0%、書き込み 100% | |
---|---|---|---|---|---|
読み取り IOPS | 244,620 | 122,310 | 59,130 | 25,280 | 0 |
書き込み IOPS | 0 | 40,763 | 59,310 | 75,960 | 76,950 |
電子設計自動化ワークロードのベンチマーク
NetApp Volumes の大容量ボリュームのサポートにより、電子設計自動化ワークロードに最適な高パフォーマンスの並列ファイル システムが提供されます。これらのファイル システムは、最大 1 PiB の容量を提供し、低レイテンシで高い I/O とスループット率を実現します。
電子設計自動化ワークロードでは、フロントエンド フェーズとバックエンド フェーズでパフォーマンス要件が異なります。フロントエンド フェーズではメタデータと IOPS が優先され、バックエンド フェーズではスループットが重視されます。
フロントエンドとバックエンドのワークロードが混在する業界標準の電子設計自動化ベンチマークで、6 つの IP アドレスに均等に分散された複数の NFSv3 クライアントを使用して大容量のデータを処理する場合、最大 21.5 GiBps のスループットと最大 1,350,000 IOPS を実現できます。