ローカル SSD ディスクについて


ワークロードに高パフォーマンスで低レイテンシの一時ストレージが必要な場合は、コンピューティング インスタンスの作成時にローカル ソリッド ステート ドライブ(ローカル SSD)ディスクの使用を検討してください。ローカル SSD ディスクは、Compute Engine の常時暗号化された一時的なソリッド ステート ストレージです。Compute Engine で使用可能な他のディスクについては、ディスクタイプを選択するをご覧ください。

ローカル SSD ディスクは、次のいずれかのユースケースでストレージが必要な場合に最適です。

  • 一時データ用のキャッシュまたはストレージ
  • ハイ パフォーマンス コンピューティングやデータ分析のためのスクラッチ処理空間
  • Microsoft SQL Server の tempdb システム データベースなどの一時データ ストレージ

ローカル SSD ディスクは、Google Cloud HyperdiskPersistent Disk が提供する永続ストレージと比較して、1 秒あたりの I/O オペレーション(IOPS)に優れ、レイテンシが非常に低くなります。この低レイテンシは、ローカル SSD ディスクが、インスタンスをホストするサーバーに物理的に接続されているためです。同じ理由により、ローカル SSD ディスクでは一時的なストレージしか提供できません

ローカル SSD は一時ストレージにのみ適しているため、一時的またはエフェメラルではないデータは、Hyperdisk ボリュームまたは Persistent Disk ボリュームに保存する必要があります。

コンピューティング インスタンスでローカル SSD ディスクを使用するには、インスタンスの作成時にローカル SSD ディスクを追加します。作成後にローカル SSD ディスクをインスタンスに追加することはできません。

ローカル SSD ディスクのタイプ

ローカル SSD ディスクには次の 2 種類があります。

  • Titanium SSD: Titanium SSD は、Titanium I/O オフロード処理を使用するカスタム設計のローカル SSD ディスクであり、SSD のセキュリティ、パフォーマンス、管理を強化します。Titanium は、前世代のローカル SSD よりもストレージ IOPS、スループットが高く、レイテンシが低くなります。ストレージが最適化された Z3 マシンシリーズと汎用 C4A マシンシリーズは、Titanium SSD を使用したローカル SSD ストレージを提供します。

    Titanium SSD ディスクは、ホストサーバー内のコンピューティング インスタンスに直接接続されます。

  • ローカル SSD: ローカル SSD は、 Google Cloudの元のローカル SSD 機能です。インスタンスにアタッチされた各ローカル SSD ディスクは、375 GiB の容量を提供します。これらのディスクは、Hyperdisk や Persistent Disk よりも高いパフォーマンスを提供します。ローカル SSD ディスクは、NVMe インターフェースまたは SCSI インターフェースを使用してマウントできます。

    ローカル SSD ディスクは、ホストサーバー内のインスタンスに直接アタッチされます。

Titanium SSD が明記されていない限り、ローカル SSD ディスクの機能について説明する際の「ローカル SSD」という用語は、ローカル SSD と Titanium SSD の両方に適用されます。

パフォーマンス

ローカル SSD のパフォーマンスは、アタッチされているローカル SSD ディスクの数、選択したディスク インターフェース(NVMe または SCSI)、インスタンスのマシンタイプによって異なります。インスタンスにアタッチするローカル SSD ディスクの数が増えると、使用可能なパフォーマンスが向上します。

アタッチされたディスク数別のローカル SSD のパフォーマンス

次の表は、NVMe および SCSI アタッチのローカル SSD ディスクの最大 IOPS とスループットの一覧を示しています。インスタンスにアタッチされているローカル SSD ディスクの合計容量ごとに指標が示されています。

Titanium SSD のパフォーマンス

次の表に、C4A インスタンスと Z3 インスタンスの Titanium SSD ディスクのパフォーマンスの上限を示します。

アタッチされている
Titanium SSD ディスクの数
合計ストレージ容量(GiB) IOPS スループット
(MiBps)
読み取り 書き込み 読み取り 書き込み
1 375 150,000 75,000 650 330
2 750 300,000 150,000 1,300 660
4 1,500 600,000 300,000 2,600 1,320
6 2,250 900,000 450,000 3,900 1,980
10 3,750 1,500,000 750,000 6,500 3,300
14 5,250 2,100,000 1,050,000 9,100 4,620
16 6,000 2,400,000 1,200,000 10,400 5,280
Z3 マシンシリーズ(3 TiB ディスク)
12 36,000 6,000,000 6,000,000 36,000 30,000

NVMe ローカル SSD のパフォーマンス

次の表に、NVMe を使用してインスタンスにアタッチされたローカル SSD ディスクのパフォーマンスの上限を示します。

アタッチされている
ローカル SSD ディスクの数
合計ストレージ容量(GiB) ディスクあたりの容量(GiB) IOPS スループット
(MiBps)
読み取り 書き込み 読み取り 書き込み
1 375 375 170,000 90,000 660 350
2 750 375 340,000 180,000 1,320 700
3 1,125 375 510,000 270,000 1,980 1,050
4 1,500 375 680,000 360,000 2,650 1,400
5 1,875 375 680,000 360,000 2,650 1,400
6 2,250 375 680,000 360,000 2,650 1,400
7 2,625 375 680,000 360,000 2,650 1,400
8 3,000 375 680,000 360,000 2,650 1,400
16 6,000 375 1,600,000 800,000 6,240 3,120
24 9,000 375 2,400,000 1,200,000 9,360 4,680
32 12,000 375 3,200,000 1,600,000 12,480 6,240

SCSI ローカル SSD のパフォーマンス

次の表に、SCSI を使用してインスタンスにアタッチされたローカル SSD ディスクのパフォーマンスの上限を示します。

組み合わせた
ローカル SSD ディスクの数
保存容量(GiB) IOPS スループット
(MiBps)
読み取り 書き込み 読み取り 書き込み
1 375 100,000 70,000 390 270
2 750 200,000 140,000 780 550
3 1,125 300,000 210,000 1,170 820
4 1,500 400,000 280,000 1,560 1,090
5 1,875 400,000 280,000 1,560 1,090
6 2,250 400,000 280,000 1,560 1,090
7 2,625 400,000 280,000 1,560 1,090
8 3,000 400,000 280,000 1,560 1,090
16 6,000 900,000 800,000 6,240 3,120
24 9,000 900,000 800,000 9,360 4,680

パフォーマンスを最大化するようにインスタンスを構成する

上記のパフォーマンス レベルを達成するには、コンピューティング インスタンスを次のように構成する必要があります。

  • NVMe インターフェースを使用してローカル SSD ディスクをアタッチします。SCSI インターフェースにアタッチされたディスクはパフォーマンスが低下します。

  • 次のマシンタイプでも、これらの最大値を達成するには最低限の vCPU 数が必要です。

    • N2N2DA2 マシンタイプには、少なくとも 24 個の vCPU が必要です。
    • N1 マシンタイプには、少なくとも 32 個の vCPU が必要です。
  • インスタンスでカスタム Linux イメージを使用する場合は、そのイメージで Linux カーネルのバージョン 4.14.68 以降を使用する必要があります。Compute Engine が提供する公開イメージを使用している場合は、何も行う必要はありません。

ローカル SSD のパフォーマンスを向上できる追加のインスタンスとディスクの構成設定については、ローカル SSD のパフォーマンスの最適化をご覧ください。

ディスク インターフェースの選択の詳細については、ディスク インターフェースを選択するをご覧ください。

ローカル SSD データの永続性

Compute Engine は、特定のシナリオにおいてローカル SSD ディスク上のデータを保存します。それ以外の場合では、Compute Engine はローカル SSD データの永続性を保証しません。

以下では、これらのシナリオについて説明します。これは、インスタンスにアタッチされている各ローカル SSD ディスクに該当します。

Compute Engine がローカル SSD データを存続させるシナリオ

ローカル SSD ディスク上のデータは、次のイベントでのみ存続します。

Compute Engine がローカル SSD のデータを保持しない可能性があるシナリオ

インスタンスでホストエラーが発生し、Compute Engine が指定された時間内にインスタンスをローカル SSD ディスクに再接続できない場合、ローカル SSD ディスク上のデータが失われる可能性があります。

ローカル SSD 復元タイムアウトを使用して、データの復元を試行する時間を調整できます。タイムアウトになる前に Compute Engine がディスクに再接続できない場合、インスタンスは再起動されます。インスタンスが再起動すると、ローカル SSD データは回復不能になります。Compute Engine は、再起動されたインスタンスに空のローカル SSD ディスクをアタッチします。

ローカル SSD 復元タイムアウトは、インスタンスのホスト メンテナンス ポリシーの一部です。詳しくは、ローカル SSD 復元タイムアウトをご覧ください。

Compute Engine がローカル SSD のデータを保持しないシナリオ

ローカル SSD ディスク上のデータは、次のイベントでは保持されません。

  • ゲスト オペレーティング システムをシャットダウンし、インスタンスを強制的に停止した場合。
  • Spot VM またはプリエンプティブル VM を作成し、その VM でプリエンプション プロセスが発生した場合。
  • ホスト メンテナンス イベントで停止するようにインスタンスを構成し、そのインスタンスにホスト メンテナンス イベントが発生した場合。
  • ローカル SSD を、誤って到達不能になるような構成にした場合。
  • プロジェクト課金を無効にして、インスタンスが停止した場合。

Compute Engine がインスタンスのローカル SSD データを復元できなかった場合、以前にアタッチしていたローカル SSD ディスクごとに、マウントおよびアタッチされたローカル SSD ディスクを使用してインスタンスを再起動します。

マシンシリーズのサポート

ローカル SSD ディスクは、次のマシンシリーズで使用できます。

マシンシリーズを選択して、ローカル SSD のサポートを表示します。

マシンシリーズ ローカル SSD のサポート
C4A
C4
C3
C3D
N4
N2
N2D
N1
T2D
T2A
E2
Z3
H3
C2
C2D
X4
M3
M2
M1
N1+GPU
A3(H100)
A3(H200)
A2
G2

ただし、各マシンタイプでアタッチできるローカル SSD ディスクの数には上限があります。詳細については、有効な数のローカル SSD ディスクを選択するをご覧ください。

制限事項

ローカル SSD には次の制限があります。

  • 共有コア マシンタイプの VM では、ローカル SSD ディスクを使用できません。

  • ローカル SSD ディスクを、N4、H3、M2 E2、Tau T2A マシンタイプを使用するインスタンスにアタッチすることはできません。

  • ローカル SSD ディスクでは、顧客指定の暗号鍵または顧客管理の暗号鍵は使用できません。Compute Engine は、データがローカル SSD ストレージに書き込まれる際に、データを自動的に暗号化します。

  • スナップショット、クローン、マシンイメージ、イメージを使用してローカル SSD ディスクをバックアップすることはできません。重要なデータは Hyperdisk ボリュームまたは Persistent Disk ボリュームに保存します。

ローカル SSD の暗号化

Compute Engine は、データがローカル SSD ディスクに書き込まれる際に、データを自動的に暗号化します。ローカル SSD ディスクでは顧客指定の暗号鍵は使用できません。

ローカル SSD データのバックアップ

ローカル SSD データは、ディスク イメージ、標準スナップショット、ディスク クローンではバックアップできないため、貴重なデータは常に耐久性の高いストレージ オプションに保存することをおすすめします。

ローカル SSD ディスクのデータを保持する必要がある場合は、Persistent Disk または Google Cloud Hyperdisk をインスタンスにアタッチします。Persistent Disk または Hyperdisk をマウントした後、ローカル SSD ディスクから新しくアタッチされたディスクにデータをコピーします。

ディスク インターフェースを選択する

ローカル SSD で最適なパフォーマンスを実現するには、NVMe インターフェースを使用してインスタンスにディスクをアタッチする必要があります。SCSI インターフェースを使用すると、パフォーマンスが低下します。

選択するディスク インターフェースは、インスタンスが使用するマシンタイプと OS によっても異なります。Compute Engine で利用可能なマシンタイプには、NVMe インターフェースと SCSI インターフェースのどちらかを選択できます。また、NVMe のみ、または SCSI のみをサポートするマシンタイプもあります。同様に、Compute Engine が提供する公開 OS イメージの一部は、NVMe と SCSI の両方をサポートする場合と、どちらか一方のみをサポートする場合があります。

マシンタイプと OS イメージ別のディスク インターフェースのサポート

以降のページでは、使用可能なマシンタイプ、サポートされている公開イメージ、パフォーマンスの詳細について説明します。

  • マシンタイプ別のサポートされているインターフェース: マシンシリーズの比較をご覧ください。[比較する VM プロパティの選択] リストで、[ディスク インターフェースのタイプ] を選択します。

  • OS イメージ: Compute Engine が提供する公開 OS イメージが SCSI または NVMe をサポートしているかについては、オペレーティング システムの詳細ドキュメント内の各テーブルの [インターフェース] タブをご覧ください。

カスタム イメージでの NVMe に関する考慮事項

インスタンスでカスタム Linux イメージを使用する場合は、最適な NVMe パフォーマンスを実現するため、Linux カーネルのバージョン 4.14.68 以降を使用する必要があります。

カスタム イメージでの SCSI に関する考慮事項

既存の設定で SCSI インターフェースを使用する必要がある場合は、標準の SCSI インターフェースよりも優れたパフォーマンスを実現するために、マルチキュー SCSI を使用することを検討してください。

インポートしたカスタム イメージを使用する場合は、マルチキュー SCSI の有効化をご覧ください。

有効な数のローカル SSD ディスクを選択する

Compute Engine で利用可能な大半のマシンタイプでは、ローカル SSD ディスクをサポートしています。マシンタイプによっては、デフォルトで常に一定数のローカル SSD ディスクが組み込まれていますが、その他のマシンタイプでは特定の数のディスクを追加できます。ローカル SSD ディスクはインスタンスの作成時にのみ追加できます。作成後にローカル SSD ディスクをインスタンスに追加することはできません。

ストレージ最適化 Z3 マシンタイプを使用して作成されたインスタンスの場合、アタッチされる各 Titanium SSD ディスクの容量は 3,000 GiB です。他のすべてのマシンシリーズでは、アタッチする各ローカル SSD ディスクの容量は 375 GiB になります。

ローカル SSD ディスクを自動的にアタッチするマシンタイプ

次の表に、デフォルトでローカル SSD ディスクが含まれるマシンタイプと、インスタンスの作成時にアタッチされるディスクの数の一覧を示します。

マシンタイプ インスタンスごとに自動的にアタッチされる
ローカル SSD ディスクの数
C4A マシンタイプ
C4A マシンタイプの -lssd バリアントのみがローカル Titanium SSD をサポートします。
c4a-standard-4-lssd
c4a-highmem-4-lssd
1
c4a-standard-8-lssd
c4a-highmem-8-lssd
2
c4a-standard-16-lssd
c4a-highmem-16-lssd
4
c4a-standard-32-lssd
c4a-highmem-32-lssd
6
c4a-standard-48-lssd
c4a-highmem-48-lssd
10
c4a-standard-64-lssd
c4a-highmem-64-lssd
14
c4a-standard-72-lssd
c4a-highmem-72-lssd
16
C3 マシンタイプ
C3 マシンタイプの -lssd バリアントのみがローカル SSD をサポートします。
c3-standard-4-lssd 1
c3-standard-8-lssd 2
c3-standard-22-lssd 4
c3-standard-44-lssd 8
c3-standard-88-lssd 16
c3-standard-176-lssd 32
C3D マシンタイプ
C3D マシンタイプの -lssd バリアントのみがローカル SSD をサポートします。
c3d-standard-8-lssd
c3d-highmem-8-lssd
1
c3d-standard-16-lssd
c3d-highmem-16-lssd
1
c3d-standard-30-lssd
c3d-highmem-30-lssd
2
c3d-standard-60-lssd
c3d-highmem-60-lssd
4
c3d-standard-90-lssd
c3d-highmem-90-lssd
8
c3d-standard-180-lssd
c3d-highmem-180-lssd
16
c3d-standard-360-lssd
c3d-highmem-360-lssd
32
A3 Ultra マシンタイプ
a3-ultragpu-8g 32
A3 Mega マシンタイプ
a3-megagpu-8g 16
A3 High マシンタイプ
a3-highgpu-1g 2
a3-highgpu-2g 4
a3-highgpu-4g 8
a3-highgpu-8g 16
A3 Edge マシンタイプ
a3-edgegpu-8g 16
A2 Ultra マシンタイプ
a2-ultragpu-1g 1
a2-ultragpu-2g 2
a2-ultragpu-4g 4
a2-ultragpu-8g 8
Titanium SSD を使用する Z3 インスタンス
各ディスクのサイズは 3 TiB です。
z3-highmem-88 12
z3-highmem-176 12

複数のローカル SSD ディスクを選択する必要があるマシンタイプ

次の表に示すマシンタイプでは、新しく作成されたインスタンスにローカル SSD ディスクが自動的にアタッチされることはありません。作成後にローカル SSD ディスクをインスタンスに追加できないため、このセクションの説明に従って、インスタンスの作成時にアタッチするローカル SSD ディスクの数を決定します。

N1 マシンタイプ インスタンスごとに許可されるローカル SSD ディスクの数
T4 GPU を備えたマシンタイプ 1~8、16
その他のすべてのマシンタイプ 1~8、16、24
N2 マシンタイプ
2~10 個の vCPU を備えたマシンタイプ(境界を含む) 1、2、4、8、16、24
12~20 個の vCPU を備えたマシンタイプ(境界を含む) 2、4、8、16、24
22~40 個の vCPU を備えたマシンタイプ(境界を含む) 4、8、16、24
42~80 個の vCPU を備えたマシンタイプ(境界を含む) 8、16、24
82~128 個の vCPU を備えたマシンタイプ(境界を含む) 16、24
N2D マシンタイプ
2~16 個の vCPU を備えたマシンタイプ(境界を含む) 1、2、4、8、16、24
32 または 48 個の vCPU を備えたマシンタイプ 2、4、8、16、24
64 または 80 個の vCPU を備えたマシンタイプ 4、8、16、24
96~224 個の vCPU を備えたマシンタイプ(境界を含む) 8、16、24
C2 マシンタイプ
4 または 8 個の vCPU を備えたマシンタイプ 1、2、4、8
16 個の vCPU を備えたマシンタイプ 2、4、8
30 個の vCPU を備えたマシンタイプ 4、8
60 個の vCPU を備えたマシンタイプ 8
C2D マシンタイプ
2~16 個の vCPU を備えたマシンタイプ(境界を含む) 1、2、4、8
32 個の vCPU を備えたマシンタイプ 2、4、8
56 個の vCPU を備えたマシンタイプ 4、8
112 個の vCPU を備えたマシンタイプ 8
A2 標準マシンタイプ
a2-highgpu-1g 1、2、4、8
a2-highgpu-2g 2、4、8
a2-highgpu-4g 4、8
a2-highgpu-8g または a2-megagpu-16g 8
G2 マシンタイプ
g2-standard-4 1
g2-standard-8 1
g2-standard-12 1
g2-standard-16 1
g2-standard-24 2
g2-standard-32 1
g2-standard-48 4
g2-standard-96 8
M1 マシンタイプ
m1-ultramem-40 1~5
m1-ultramem-80 1~8
m1-megamem-96 利用不可
m1-ultramem-160 利用不可
M3 マシンタイプ
m3-ultramem-32 4、8
m3-megamem-64 4、8
m3-ultramem-64 4、8
m3-megamem-128 8
m3-ultramem-128 8
E2、C3-metal、M2、N4、Tau T2D、Tau T2A、X4 のマシンタイプ これらのマシンタイプはローカル SSD ディスクをサポートしていません。

料金

作成したローカル SSD ディスクごとに、アタッチ先のインスタンスの存続期間中、ディスクの合計容量に対して課金されます。

ローカル SSD の料金と利用可能な割引の詳細については、ローカル SSD の料金をご覧ください。

ローカル SSD ディスクと Spot VM インスタンス

ローカル SSD ディスクを使用して Spot VM またはプリエンプティブル VM を起動すると、Compute Engine はローカル SSD の使用に対して割引されたスポット料金を請求します。Spot VM またはプリエンプティブル VM にアタッチされたローカル SSD ディスクは、通常のローカル SSD ディスクと同様に動作し、同じデータ永続性特性を持ち、VM が存続する間アタッチされます。

Compute Engine では、実行開始してから 1 分以内に VM がプリエンプトされた場合、Spot VM またはプリエンプティブル VM でのローカル SSD ディスクの使用量に対して課金されません。

確約利用割引でローカル SSD ディスクを予約する

特定のゾーンでローカル SSD リソースを予約するには、Compute Engine ゾーンリソースの予約をご覧ください。

特定のゾーンのローカル SSD ディスクの確約利用割引を受けるには、ローカル SSD リソースのリソースベースのコミットメントを購入し、一致するローカル SSD リソースを指定する予約をコミットメントに関連付ける必要があります。詳細については、リソースベースのコミットメントに予約を関連付けるをご覧ください。

インスタンスでローカル SSD ディスクを使用する

コンピューティング インスタンスでローカル SSD ディスクを使用するには、次の手順を行う必要があります。

Linux インスタンスでのデバイスの命名

インスタンスにアタッチされているディスクの Linux デバイス名は、ディスクの作成時に選択したインターフェースによって異なります。lsblk オペレーティング システム コマンドを使用してディスク デバイスを表示すると、NVMe インターフェースにアタッチされているディスクの接頭辞 nvme と、SCSI インターフェースにアタッチされているディスクの接頭辞 sd が表示されます。

ディスク番号や NVMe コントローラの順序は、インスタンスを再起動しても予測不可能であり、整合性がありません。初回起動時にディスクは nvme0n1(SCSI の場合は sda)になります。2 回目の起動時、同じディスクのデバイス名は nvme2n1 または nvme0n3(SCSI の場合は sdc)になります。

アタッチされているディスクにアクセスする際は、代わりに /dev/disk/by-id/ で作成したシンボリック リンクを使用する必要があります。これらの名前は再起動後も維持されます。シンボリック リンクの詳細については、インスタンスにアタッチされているディスクのシンボリック リンクをご覧ください。

デバイス名について詳しくは、Linux インスタンスでのデバイスの命名をご覧ください。

ローカル SSD ディスクを使用する VM を停止または一時停止する

デフォルトでは、VM を停止または一時停止すると、Compute Engine は VM にアタッチされているローカル SSD ディスクのデータも破棄します。VM を再開すると、VM にアタッチされているすべてのローカル SSD ディスクが空になります。

VM の停止または一時停止時にローカル SSD データを保持する

VM を停止または一時停止するときに、VM にアタッチされているローカル SSD ディスク上のデータを保持できます。

停止オペレーションまたは一時停止オペレーションが開始されると、Compute Engine はローカル SSD ディスク データを耐久性の高いストレージにマネージド型移行を行います。VM を再開または再起動するとき、Compute Engine は保持されたデータを VM にアタッチされているローカル SSD ディスクにコピーします。VM を再開または再起動した後、ローカル SSD ディスクをファイル システムに再マウントする必要がある場合があります。

VM を再起動または再開するまで、ローカル SSD データを保持するために使用された保存容量に対して課金されます。使用された保存容量は、プロジェクトの Persistent disk standard GB 割り当てを消費します。

制限事項

  • ローカル SSD データの保持はプレビュー版のみで、Compute Engine の一般提供の利用規約の対象外です。
  • この機能は Z3 インスタンスでは使用できません。
  • 32 個を超えるローカル SSD ディスクがアタッチされている VM を停止または一時停止すると、ローカル SSD のデータは保持できません。
  • Google Cloud コンソールから VM を停止または一時停止すると、ローカル SSD のデータは保持できません。
  • ローカル SSD データの保存は時間のかかるプロセスであり、一時停止オペレーションまたは停止オペレーションの開始後にのみ開始されます。
  • Spot VM またはプリエンプティブル VM を使用していて、一時停止オペレーションまたは停止オペレーション中にローカル SSD データを保持する場合、Compute Engine が停止オペレーションまたは一時停止オペレーション中に VM をプリエンプトすると、ローカル SSD データが失われます

VM の停止時または一時停止時にローカル SSD データを保持する方法については、ローカル SSD ディスクがアタッチされているインスタンスを停止するローカル SSD ディスクがアタッチされているインスタンスを一時停止するをご覧ください。

ローカル SSD ディスクを削除する

ローカル SSD ディスクを削除または削除するには、ディスクがアタッチされている VM を削除する必要があります。VM を削除しない限り、ローカル SSD ディスクを削除することはできません。

ローカル SSD ディスクがアタッチされている VM を削除する前に、ローカル SSD ディスク上の重要なデータを Persistent Disk、Hyperdisk、または別の VM に移行してください。そうしないと、ローカル SSD ディスク上のデータが完全に失われます。

次のステップ

ローカル SSD ディスクを接続した VM を作成する方法を確認する。