パフォーマンスのベンチマーク

このページでは、複数のクライアント仮想マシンから 1 つの Google Cloud NetApp Volumes ボリュームのパフォーマンスの上限を示します。このページの情報を使用して、ワークロードのサイズを設定します。

ランダム I/O とシーケンシャル I/O

主にランダム I/O のワークロードは、順次 I/O ワークロードと同じスループットを実現できません。

パフォーマンス テスト

次のテスト結果は、パフォーマンスの上限を示しています。これらのテストでは、スループットがベンチマーク テストに影響しないように、ボリュームに十分な容量があります。1 つのボリュームの容量を次のスループット値を超えて割り当てても、パフォーマンスは向上しません。

パフォーマンス テストは Fio を使用して完了しました。

パフォーマンス テストの結果については、次の点を考慮してください。

  • Standard、Premium、Extreme の各サービスレベルのパフォーマンスは、上限に達するまでボリューム容量に比例してスループットをスケーリングします。

  • カスタム パフォーマンスの Flex サービスレベルでは、容量、IOPS、スループットを個別にスケーリングできます。

  • IOPS の結果はあくまで情報提供を目的としたものです。

  • 次の結果を生成するために使用される数値は、最大の結果を表示するように設定されています。次の結果は、達成可能な最大スループット容量の割り当ての見積もりと見なす必要があります。

  • プロジェクトごとに複数の高速ボリュームを使用する場合は、プロジェクトごとの上限が適用されることがあります。

  • 次のパフォーマンス テストの結果は、NFSv3、SMB、またはその両方のプロトコル タイプのみを対象としています。NFSv4.1 などの他のプロトコル タイプは、NetApp Volumes のパフォーマンス テストに使用されませんでした。

NFSv3 アクセスのボリューム スループットの上限

以降のセクションでは、NFSv3 アクセスのボリューム スループットの上限について詳しく説明します。

テストは、カスタム パフォーマンスの Flex サービスレベルと Extreme サービスレベルを使用して実施されました。キャプチャされた結果は次のとおりです。

カスタム パフォーマンスの Flex サービスレベル

次のテストは、Flex カスタム パフォーマンスのゾーン ストレージ プール内の単一ボリュームで実行されました。プールは最大スループットと IOPS で構成され、結果がキャプチャされました。

64 KiB ブロックサイズ(順次 I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 つの n2-standard-32 仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンに 96 GiB のワーキング セット(合計 576 GiB)

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • rsizewsize のマウント オプションが 65536 に設定されている

  • ボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 Gbps と 160,000 IOPS に設定されました。

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,300 MiBps の純粋なシーケンシャル読み取りと 1,480 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。

NFS 64 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り MiBps 4304 2963 1345 464 0
書き込み MiBps 0 989 1344 1390 1476

8 KiB ブロックサイズ(ランダム I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンのワーキング セットは 96 TiB で、合計 576 TiB

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • 各ホストの rsizewsize のマウント オプションが 65536 に構成されている

  • ボリューム サイズは、カスタム パフォーマンスのフレキシブル サービスレベルの 10 TiB でした。テストでは、カスタム パフォーマンスは最大値の 5,120 Gbps と 160,000 IOPS に設定されました。

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームが NFSv3 経由で 8 KiB ブロックサイズで約 126,400 の純粋なランダム読み取り IOPS と 78,600 の純粋なランダム書き込み IOPS を処理できると推定されることを示しています。

NFS 8 KiB ランダム 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り IOPS 126,397 101,740 57,223 23,600 0
書き込み IOPS 0 33,916 57,217 70,751 78,582

エクストリーム サービスレベル

次のテストは、Extreme ストレージ プール内の単一ボリュームで実行され、結果がキャプチャされました。

64 KiB ブロックサイズ(順次 I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 つの n2-standard-32 仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 64 KiB のブロックサイズを使用した場合、1 つのボリュームで約 5,240 MiBps の純粋なシーケンシャル読み取りと約 2,180 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。

NFS 64 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り MiBps 4710 2050 1270 550 0
書き込み MiBps 0 690 1270 1650 1950

256 KiB ブロックサイズ(順次 I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、NFSv3 で 256 KiB のブロックサイズを使用した場合、1 つのボリュームで約 4,930 MiBps の純粋なシーケンシャル読み取りと約 2,440 MiBps の純粋なシーケンシャル書き込みを処理できることを示しています。

NFS 256 KiB 順次 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り MiBps 4430 2270 1470 610 0
書き込み MiBps 0 750 1480 1830 2200

4 KiB ブロックサイズ(ランダム I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 4 KiB のブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームが NFSv3 経由で 4 KiB のブロックサイズで約 380,000 回の純粋なランダム読み取りと約 120,000 回の純粋なランダム書き込みを処理できることを示しています。

NFS 4 KiB ランダム 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り IOPS 340,000 154,800 71,820 28,800 0
書き込み IOPS 0 51,570 71,820 86,580 106,200

8 KiB ブロックサイズ(ランダム I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズ

  • Red Hat 9 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで nconnect マウント オプションが 16 の値に構成されている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームで NFSv3 経由で 8 KiB のブロックサイズで約 270,000 の純粋なランダム読み取りと約 110,000 の純粋なランダム書き込みを処理できることを示しています。

NFS 8 KiB 6 n2-standard-32 Red Hat 9 VM のベンチマーク結果
読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り IOPS 238,500 118,800 60,210 27,180 0
書き込み IOPS 0 39,690 60,210 81,450 93,600

SMB アクセスのボリューム スループットの上限

以降のセクションでは、SMB アクセスのボリューム スループットの上限について詳しく説明します。

64 KiB ブロックサイズ(順次 I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 つの n2-standard-32 仮想マシンを含む単一ボリュームに対する 64 KiB のブロックサイズ

  • Windows 2022 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各仮想マシンで構成された SMB Connect Count Per RSS Network Interface クライアントサイド オプションの値が 16

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで、SMB 経由で 64 KiB のブロックサイズで約 5,130 MiBps の純粋なシーケンシャル読み取りと約 1,790 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。

SMB 64 KiB 順次 6 n2-standard-32 Windows 2022 VM

読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り MiBps 4610 2410 1310 500 0
書き込み MiBps 0 800 1310 1510 1600

256 KiB ブロックサイズ(順次 I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 256 KiB のブロックサイズ

  • Windows 2022 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで SMB Connection Count Per RSS Network Interface クライアントサイド オプションが 16 に設定されている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで、SMB 経由で 256 KiB のブロックサイズで約 4,620 MiBps の純粋なシーケンシャル読み取りと約 1,830 MiBps の純粋なシーケンシャル書き込みを処理できると推定されることを示しています。

SMB 256 KiB 順次 6 n2-standard-32 Windows 2022 VM

読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り MiBps 4150 2440 1380 530 0
書き込み MiBps 0 810 1380 1569 1643

4 KiB ブロックサイズ(ランダム I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 4 KiB のブロックサイズ

  • Windows 2022 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで SMB Connection Count Per RSS Network Interface クライアントサイド オプションが 16 の値で有効になっている

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一のボリュームで SMB 経由で 4 KiB のブロックサイズで約 390,000 の純粋なランダム読み取りと約 110,000 の純粋なランダム書き込みを処理できることを示しています。

SMB 4 KiB ランダム 6 n2-standard-32 Windows 2022 VM のベンチマーク結果

読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り IOPS 351,810 148,230 75,780 29,540 0
書き込み IOPS 0 49,360 75,780 88,650 98,370

8 KiB ブロックサイズ(ランダム I/O)

これらの結果は、次の設定で Fio を使用して取得されました。

  • 6 台の n2-standard-32 仮想マシンを含む単一ボリュームに対する 8 KiB ブロックサイズ

  • Windows 2022 OS

  • 各仮想マシンに 1 TiB のワーキング セット(合計 6 TiB)

  • 各ホストで 16 の値に構成された SMB 接続数(RSS ネットワーク インターフェースあたり)クライアントサイド オプション

  • ボリューム サイズは Extreme サービスレベルの 75 TiB でした

Fio は、各仮想マシンで 8 個のジョブを実行し、合計 48 個のジョブを実行しました。次の表は、単一ボリュームで SMB 経由で 8 KiB のブロックサイズで約 280,000 の純粋なランダム読み取りと約 90,000 の純粋なランダム書き込みを処理できることを示しています。

SMB 8 KiB ランダム 6 n2-standard-32 Windows 2022 VM のベンチマーク結果

読み取り 100%、書き込み 0% 75% の読み取りと 25% の書き込み 読み取り 50%、書き込み 50% 読み取り 25%、書き込み 75% 読み取り 0%、書き込み 100%
読み取り IOPS 244,620 122,310 59,130 25,280 0
書き込み IOPS 0 40,763 59,310 75,960 76,950

電子設計自動化ワークロードのベンチマーク

NetApp Volumes の大容量ボリュームのサポートにより、電子設計自動化ワークロードに最適な高パフォーマンスの並列ファイル システムが提供されます。これらのファイル システムは、最大 1 PiB の容量を提供し、低レイテンシで高い I/O とスループット率を実現します。

電子設計自動化ワークロードでは、フロントエンド フェーズとバックエンド フェーズでパフォーマンス要件が異なります。フロントエンド フェーズではメタデータと IOPS が優先され、バックエンド フェーズではスループットが重視されます。

フロントエンドとバックエンドのワークロードが混在する業界標準の電子設計自動化ベンチマークで、6 つの IP アドレスに均等に分散された複数の NFSv3 クライアントを使用して大容量のデータを処理する場合、最大 21.5 GiBps のスループットと最大 1,350,000 IOPS を実現できます。

次のステップ

パフォーマンスをモニタリングする