アクセラレータ最適化マシン ファミリー


アクセラレータ最適化マシン ファミリーは、Google Cloud が設計し、AI、ML、ハイ パフォーマンス コンピューティング(HPC)などの GPU アクセラレーション ワークロードに必要なパフォーマンスと効率性を実現しています。

アクセラレータ最適化マシン ファミリーは、A3、A2、G2 のマシンシリーズで使用できます。シリーズ内の各マシンタイプには、特定のモデルと数の NVIDIA GPU がアタッチされています。N1 汎用マシンタイプに一部の GPU モデルをアタッチすることもできます。

ワークロード タイプ別のマシンシリーズの推奨事項

次のセクションでは、GPU ワークロードに基づいて推奨されるマシンシリーズについて説明します。

大規模な AI モデル

ワークロード タイプ 適した事例 適切な代替手段
複数(分散)サーバー トレーニング A3 Mega A3 High、A2
推論 A3 High、A3 Edge A2

大規模なモデルとトレーニングを実行するためのクラスタをプロビジョニングするには、大規模なモデルのトレーニングとファインチューニングを実行するをご覧ください。

メインストリーム モデル

ワークロード タイプ 適した事例 適切な代替手段(推奨順序)
複数(分散)サーバー トレーニング A3 Mega、A3 High
  • A2
  • G2
  • N1+V100
単一サーバー トレーニング A3 High、A3 Edge
  • A2
  • G2
  • N1+V100
推論 A3 Edge、G2
  • N1+T4
  • N1+V100

メインストリーム モデルを実行するためのクラスタをプロビジョニングするには、メインストリーム モデルのトレーニングとファインチューニングを実行するをご覧ください。

グラフィックを多用するワークロード

ワークロード タイプ 適した事例(推奨順)
動画ストリーミングとコード変換、リモート仮想ワークステーション、デジタルツイン
  • G2
  • N1+T4

グラフィックを多用するワークロード用に VM をプロビジョニングするには、こちらのオプションをご確認ください。

ハイ パフォーマンス コンピューティング

ハイ パフォーマンス コンピューティングのワークロードでは、アクセラレータ最適化マシンシリーズが適しています。最適なものは、GPU にオフロードする必要がある計算量によって異なります。

料金と割引

アクセラレータ最適化マシンタイプはすべて、次の割引と使用量のオプションをサポートしています。

アクセラレータ最適化マシンタイプは、接続されている GPU、事前定義された vCPU、メモリ、バンドルされたローカル SSD(該当する場合)に対して課金されます。アクセラレータ最適化 VM の料金の詳細については、VM インスタンスの料金ページのアクセラレータ最適化マシンタイプ ファミリーのセクションをご覧ください。

A3 マシンシリーズ

A3 マシンシリーズは、208 個の vCPU と 1,872 GB のメモリを備えています。このマシンシリーズは、コンピューティングとメモリを大量に消費する、ネットワークにバインドされた ML トレーニング、HPC ワークロード用に最適化されています。

A3 マシンシリーズには、次の機能もあります。

  • 次世代ハードウェア: 各 A3 マシンタイプには NVIDIA H100 SXM GPU がアタッチされます。この GPU は 80 GB の GPU メモリを備えており、大規模な Transformer ベースの言語モデル、データベース、HPC に最適です。

    このマシンシリーズは、第 4 世代インテル Xeon スケーラブル プロセッサ(Sapphire Rapids)を搭載し、シングルコア ターボ時に最大 3.3 GHz の周波数を維持します。

  • 業界トップクラスの NVLink スケーリング: NVIDIA H100 GPU は、一方向で 450 GB/秒のピーク GPU NVLink 帯域幅を提供します。システム内の 8 個の GPU 間のオールツーオール NVLink トポロジでは、NVLink 帯域幅の合計は最大 7.2 TB/秒です。これらの GPU は、メモリ領域を統合した単一の高性能アクセラレータとして使用可能であり、最大 25 PFLOPS の AI / DL / ML コンピューティング能力と最大 50 PFLOPS の推論コンピューティング能力を実現できます。

  • コンピューティング速度とネットワーキングの向上: A3 マシンシリーズは、前世代の A2 マシンシリーズと比較して、ネットワーキング速度が最大 2.5 倍向上しています。ネットワーキングの詳細については、ネットワーキングと A3 マシンシリーズをご覧ください。

  • 仮想化の最適化: A3 VM の Peripheral Component Interconnect Express(PCIe)トポロジは、ワークロードがデータ転送の最適化に使用できる、より正確な局所情報を提供します。

    NVIDIA H100 GPU は、障害からの正常な復旧のための関数レベルリセット(FLR)と、特定のシナリオにおける同時実行の改善のためのアトミック オペレーションのサポートも公開しています。

  • ストレージ: A3 マシンタイプを使用して作成された VM には、6,000 GiB のローカル SSD が自動的に追加されます。ローカル SSD は、高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながらデータを GPU にフィードする場合に使用できます。

    これらのシリーズのマシンタイプには、より高いストレージ パフォーマンスを必要とするアプリケーション用に、最大 257 TiB の Persistent Disk ストレージをアタッチできます。

  • コンパクト プレースメント ポリシーのサポート: データセンター内の VM の物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内で VM を配置する際、より低いレイテンシと広帯域幅を実現できます。コンパクト プレースメント ポリシーは、特定のゾーン内で、ネットワークの低レイテンシ サブセットで最大 96 台の VM をサポートします。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

A3 マシンシリーズでは、次のマシンタイプを使用できます。

A3 Mega マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps) ネットワーク プロトコル
a3-megagpu-8g 8 640 208 1,872 6,000 9 1,800 GPUDirect-TCPXO

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 High マシンタイプ

a3-highgpu-1ga3-highgpu-2ga3-highgpu-4g マシンタイプをプロビジョニングする場合は、Spot VM を使用するか、Dynamic Workload Scheduler(DWS)を使用する機能(MIG でのサイズ変更リクエストなど)を使用する必要があります。これらのオプションの詳細な手順については、以下をご覧ください。
マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps) ネットワーク プロトコル
a3-highgpu-1g 1 80 26 234 750 1 25 GPUDirect-TCPX
a3-highgpu-2g 2 160 52 468 1,500 1 50 GPUDirect-TCPX
a3-highgpu-4g 4 320 104 936 3,000 1 100 GPUDirect-TCPX
a3-highgpu-8g 8 640 208 1,872 6,000 5 800 GPUDirect-TCPX

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A3 Edge マシンタイプ

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 物理 NIC の数 最大ネットワーク帯域幅(Gbps) ネットワーク プロトコル
a3-edgegpu-8g 8 640 208 1,872 6,000 5 GPUDirect-TCPX

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご確認ください。

A3 シリーズでサポートされているディスクタイプ

A3 VM は、次のブロック ストレージ タイプを使用できます。

  • バランス Persistent Disk(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk Balanced(hyperdisk-balanced): Hyperdisk Balanced は、a3-megagpu-8ga3-highgpu-8ga3-edgegpu-8g のマシンタイプでのみサポートされます。
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Extreme(hyperdisk-extreme
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD: A3 マシンタイプを使用して作成された VM に自動的に追加されます。

A3 Mega

VM あたりの最大ディスク数*
マシン
タイプ
すべてのディスク Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-megagpu-8g 128 32 64 64 8 16

A3 High

VM あたりの最大ディスク数*
マシン
タイプ
すべてのディスク Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされた
ローカル SSD
ディスク
a3-highgpu-1g 128 なし 64 64 なし 2
a3-highgpu-2g 128 なし 64 64 なし 4
a3-highgpu-4g 128 なし 64 64 8 8
a3-highgpu-8g 128 32 64 64 8 16

A3 Edge

VM あたりの最大ディスク数*
マシンタイプ すべてのディスク Hyperdisk Balanced Hyperdisk Throughput Hyperdisk ML Hyperdisk Extreme アタッチされたローカル SSD
a3-edgegpu-8g 128 32 64 64 8 16

*Hyperdisk と Persistent Disk の使用量は、マシンタイプの料金体系とは別に課金されます。ディスクの料金については、Persistent Disk と Hyperdisk の料金をご覧ください。
この上限は Persistent Disk と Hyperdisk に適用されますが、ローカル SSD ディスクは含まれません。

ディスクと容量の上限

VM で Persistent Disk ボリュームと Hyperdisk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、VM あたりの Hyperdisk 容量の上限Persistent Disk の最大容量をご覧ください。

ネットワーキングと A3 マシンシリーズ

A3 マシンシリーズは、A2 マシンシリーズと比較してコンピューティング速度が最大 2.5 倍向上しています。a3-highgpu-8g マシンタイプでは、前世代の A2 マシンタイプと比較して 10 倍のネットワーク帯域幅を使用できます。a3-megagpu-8g マシンタイプでは、a3-highgpu-8g と比較して 2 倍のネットワーク帯域幅、A2 マシンタイプと比較して 20 倍のネットワーク帯域幅を使用できます。

  • 単一 NIC A3 VM: 1 ~ 4 個の GPU が接続されている A3 VM では、単一の物理ネットワーク インターフェース カード(NIC)のみを使用できます。
  • マルチ NIC A3 VM: 8 個の GPU が接続されている A3 VM では、複数の物理 NIC を使用できます。これらの A3 マシンタイプでは、NIC が Peripheral Component Interconnect Express(PCIe)バス上で次のように配置されます。
    • A3 Mega マシンタイプ: NIC を 8+1 で配置できます。この構成では、8 つの NIC が同じ PCIe バスを共有し、1 つの NIC が別の PCIe バス上に配置されます。
    • A3 High マシンタイプ: NIC を 4+1 で配置できます。この構成では、4 つの NIC が同じ PCIe バスを共有し、1 つの NIC が別の PCIe バス上に配置されます。
    • A3 Edge マシンタイプ: NIC を 4+1 で配置できます。この構成では、4 つの NIC が同じ PCIe バスを共有し、1 つの NIC が別の PCIe バス上に配置されます。これらの 5 つの NIC は、VM ごとに合計 400 Gbps のネットワーク帯域幅を提供します。

    同じ PCIe バスを共有する NIC のそれぞれに対し、2 つの NVIDIA H100 80 GB GPU の不均一メモリアクセス(NUMA)アライメントが使用されます。これらの NIC は、専用の高帯域幅 GPU 間通信に最適です。他のネットワーク要件には、別の PCIe バス上にある物理 NIC で適切に対応できます。

ネットワーク プロトコル

A3 マシンシリーズでは、GPUDirect-TCPX と GPUDirect-TCPXO により GPU クラスタのパフォーマンスが向上しています。

  • A3 Edge マシンタイプと A3 High マシンタイプの場合、GPUDirect-TCPX は、データパケットのペイロードを GPU メモリからネットワーク インターフェースに直接転送できるため、ネットワーク パフォーマンスが向上します。GPUDirect-TCPX を活用する a3-highgpu-8g マシンタイプは、A2 または G2 アクセラレータ最適化マシンタイプと比較して、クラスタ内の VM 間でより高いスループットを実現します。
  • A3 Mega マシンタイプでは、GPUDirect-TCPXO によって TCP プロトコル処理が SmartNIC の ACC コアにオフロードされるため、GPUDirect-TCPX を上回るパフォーマンスの向上が得られます。GPUDirect-TCPXO を活用する a3-megagpu-8g マシンタイプでは、a3-highgpu-8g マシンタイプと比較して 2 倍のネットワーク帯域幅を使用できます。

A3 シリーズの制限事項

A3 Edge、A3 High、A3 Mega マシンタイプを使用する VM には、次の制限が適用されます。

  • A3 マシンタイプを使用する VM は、継続利用割引とフレキシブル確約利用割引の対象外となります。
  • A3 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A3 マシンタイプを使用する VM では、リージョン Persistent Disk を使用できません。
  • A3 マシンシリーズは、Sapphire Rapids プラットフォームでのみ使用できます。
  • VM が A3 マシンタイプを使用している場合、マシンタイプを変更することはできません。マシンタイプを変更するには、新しい VM を作成する必要があります。
  • VM のマシンタイプを A3 マシンタイプに変更することはできません。A3 マシンタイプを使用する VM が必要な場合は、新しい VM を作成する必要があります。
  • A3 マシンタイプは、単一テナンシーをサポートしません。
  • A3 マシンタイプでは Windows オペレーティング システムを実行できません。
  • A3 マシンタイプの予約は、特定の予約からのみ可能です。
  • a3-highgpu-1ga3-highgpu-2ga3-highgpu-4g マシンタイプには、次の制限が適用されます。
    • これらのマシンタイプでは、Spot VM を使用するか、Dynamic Workload Scheduler(DWS)を使用する機能(MIG でのサイズ変更リクエストなど)を使用する必要があります。これらのオプションの詳細な手順については、以下をご覧ください。
    • これらのマシンタイプでは Hyperdisk Balanced を使用できません。
    • 予約を作成できません。
    標準プロビジョニングを使用して VM を作成しようとした場合、またはこれらのマシンタイプの予約を作成しようとすると、エラー メッセージが表示されます。

A2 マシンシリーズ

A2 マシンシリーズは、A2 標準マシンタイプと A2 Ultra マシンタイプで用意されています。これらのマシンタイプは、12~96 個の vCPU と最大 1,360 GB のメモリを備えています。

A2 マシンシリーズには、次の機能もあります。

  • NVIDIA GPU 接続: 各 A2 マシンタイプには NVIDIA A100 GPU があります。これらは、A100 40 GB と A100 80 GB の両方のオプションで利用できます。

  • 業界トップクラスの NVLink スケーリング。GPU 間で 600 GBps のピーク NVLink 帯域幅を実現します。たとえば、16 個の GPU を使用するシステムの場合、NVLink の帯域幅は合計で最大 9.6 TBps となります。これらの 16 個の GPU は、統合されたメモリ領域を備えた 1 つのハイ パフォーマンスなアクセラレータとして使用できます。これにより、最大 10 PFLOPS のコンピューティング能力と、最大 20 PFLOPS の推論コンピューティング能力を実現し、人工知能、ディープ ラーニング、機械学習のワークロードを対象として使用できます。

  • 改善したコンピューティング速度: アタッチされた NVIDIA A100 GPU は、前世代の NVIDIA V100 GPU と比較して、コンピューティング速度が最大 10 倍向上しています。

    A2 マシンシリーズでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ストレージ: 高速のスクラッチ ディスクとして、または I/O ボトルネックを防止しながら GPU にデータをフィードするために使用する場合、A2 マシンタイプは次のようにローカル SSD をサポートします。

    • A2 標準マシンタイプの場合、最大 3,000 GiB のローカル SSD を追加できます。
    • A2 Ultra マシンタイプの場合、VM の作成時にローカル SSD が自動的にアタッチされます。

    より優れたストレージ パフォーマンスを必要とするアプリケーションの場合は、最大 257 TiB の Persistent Disk ストレージを A2 VM にアタッチすることもできます。

  • コンパクト プレースメント ポリシーのサポート: データセンター内の VM の物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内で VM を配置するために、低レイテンシと高帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

A2 でサポートされているディスクタイプ

A2 VM は、次のブロック ストレージ タイプを使用できます。

  • Hyperdisk ML(hyperdisk-ml
  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)永続ディスク(pd-ssd
  • 標準 Persistent Disk(pd-standard
  • ローカル SSD: A2 Ultra マシンタイプを使用して作成された VM には自動的にアタッチされます。

VM で Persistent Disk ボリュームと Hyperdisk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、VM あたりの Hyperdisk 容量の上限Persistent Disk の最大容量をご覧ください。

A2 Ultra マシンタイプ

これらのマシンタイプには、一定の数の A100 80 GB GPU が使用されます。A2 Ultra マシンタイプを使用して作成された VM には、ローカル SSD が自動的にアタッチされます。

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
a2-ultragpu-1g 1 80 12 170 375 24
a2-ultragpu-2g 2 160 24 340 750 32
a2-ultragpu-4g 4 320 48 680 1,500 50
a2-ultragpu-8g 8 640 96 1,360 3,000 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A2 Ultra の制限事項

  • A2 Ultra マシンタイプを使用する VM は、継続利用割引とフレキシブル確約利用割引の対象外となります。
  • A2 Ultra マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 Ultra マシンタイプを使用する VM では、リージョン Persistent Disk を使用できません。
  • A2 Ultra マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • VM が A2 Ultra マシンタイプを使用している場合、マシンタイプを変更することはできません。別の A2 Ultra マシンタイプやその他のマシンタイプを使用するには、新しい VM を作成する必要があります。
  • 他のマシンタイプを A2 Ultra マシンタイプに変更することはできません。A2 Ultra マシンタイプを使用する VM が必要な場合は、新しい VM を作成する必要があります。
  • A2 Ultra マシンタイプを使用する Windows VM では、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。

A2 標準マシンタイプ

これらのマシンタイプには、固定数の A100 40 GB GPU があります。

マシンタイプ GPU 数 GPU メモリ*
(GB HBM3)
vCPU 数 VM メモリ(GB) アタッチされたローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
a2-highgpu-1g 1 40 12 85 はい 24
a2-highgpu-2g 2 80 24 170 はい 32
a2-highgpu-4g 4 160 48 340 はい 50
a2-highgpu-8g 8 320 96 680 はい 100
a2-megagpu-16g 16 640 96 1,360 はい 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

A2 標準の制限事項

  • A2 標準マシンタイプを使用する VM は、継続利用割引とフレキシブル確約利用割引の対象外となります。
  • A2 標準マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • A2 標準マシンタイプを使用する VM では、リージョン Persistent Disk を使用できません。
  • A2 標準マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • VM が A2 標準マシンタイプを使用している場合は、ある A2 標準マシンタイプから別の A2 標準マシンタイプにのみ切り替えることができます。他のマシンタイプには変更できません。詳細については、アクセラレータ最適化 VM を変更するをご覧ください。
  • <codea2-megagpu-16g< code="" dir="ltr" translate="no">A2 標準マシンタイプでは Windows オペレーティング システムを使用できません。Windows オペレーティング システムを使用する場合は、別の A2 標準マシンタイプを選択する必要があります。</codea2-megagpu-16g<>
  • A2 標準マシンタイプを使用する Windows VM では、アタッチされたローカル SSD のクイック フォーマットを行うことができません。これらのローカル SSD をフォーマットするには、diskpart ユーティリティを使用し、format fs=ntfs label=tmpfs を指定して完全フォーマットを行う必要があります。
  • A2 標準マシンタイプは、単一テナンシーをサポートしません。

G2 マシンシリーズ

G2 マシンシリーズは、4~96 個の vCPU と最大 432 GB のメモリを備えた標準マシンタイプで使用できます。このマシンシリーズは、推論とグラフィック ワークロード用に最適化されています。

G2 マシンシリーズには、次の機能もあります。

  • NVIDIA GPU をアタッチ: 各 G2 マシンタイプには NVIDIA L4 GPU がアタッチされています。

  • 推論速度の改善: G2 マシンタイプは、ML 推論速度を速め、メモリ要件を減らす FP8(8 ビット浮動小数点)データ型をサポートしています。

  • 次世代のグラフィックス パフォーマンス: NVIDIA L4 GPU は、第 3 世代 RT コアNVIDIA DLSS 3(ディープ ラーニング スーパー サンプリング)テクノロジー使用して、グラフィックス パフォーマンスを最大 3 倍向上させています。

  • 高パフォーマンスのネットワーク帯域幅: G2 マシンシリーズでは、最大 100 Gbps のネットワーク帯域幅を使用できます。

  • ストレージ: G2 VM には最大 3,000 GiB のローカル SSD を追加できます。高速のスクラッチ ディスクとして、または I/O ボトルネックを防ぎながらデータを GPU にフィードするために使用できます。

    より多くの永続ストレージを必要とするアプリケーションの場合は、Hyperdisk ボリュームと Persistent Disk ボリュームを G2 VM にアタッチすることもできます。最大ストレージ容量は、VM の vCPU の数によって異なります。詳細については、サポートされているディスクタイプをご覧ください。

  • コンパクト プレースメント ポリシーのサポート: データセンター内の VM の物理的な配置をより細かく制御できます。これにより、単一のアベイラビリティ ゾーン内で VM を配置するために、低レイテンシと高帯域幅を実現できます。詳しくは、コンパクト プレースメント ポリシーを使用してレイテンシを短縮するをご覧ください。

G2 でサポートされているディスクタイプ

G2 VM では、次のブロック ストレージ タイプを使用できます。

  • バランス永続ディスク(pd-balanced
  • SSD(パフォーマンス)Persistent Disk(pd-ssd
  • Hyperdisk ML(hyperdisk-ml
  • Hyperdisk Throughput(hyperdisk-throughput
  • ローカル SSD

VM で Persistent Disk ボリュームと Hyperdisk ボリュームを組み合わせて使用できますが、次の制限が適用されます。

  • Hyperdisk ボリュームと Persistent Disk ボリュームの合計数は、VM あたり 128 以下でなければなりません。
  • すべてのディスクタイプの最大合計ディスク容量(TiB)は、次の値を超えることができません。

    • vCPU が 32 個未満のマシンタイプの場合:

      • すべての Hyperdisk またはすべての Persistent Disk は 257 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 257 TiB
    • vCPU が 32 個以上のマシンタイプの場合:

      • すべての Hyperdisk は 512 TiB
      • Hyperdisk と Persistent Disk の組み合わせは 512 TiB
      • すべての Persistent Disk は 257 TiB

容量の上限の詳細については、VM あたりの Hyperdisk 容量の上限Persistent Disk の最大容量をご覧ください。

G2 マシンタイプ

各 G2 マシンタイプには、固定数の NVIDIA L4 GPU と vCPU がアタッチされます。各 G2 マシンタイプにはデフォルトのメモリとカスタムメモリ範囲もあります。カスタムメモリ範囲はマシンタイプごとに VM に割り当てることができるメモリの量を定義します。カスタムメモリは VM の作成時に指定できます。

マシンタイプ GPU 数 GPU メモリ*(GB GDDR6) vCPU 数 デフォルトの VM メモリ(GB) カスタム VM メモリ範囲(GB) サポート対象の最大ローカル SSD(GiB) 最大ネットワーク帯域幅(Gbps)
g2-standard-4 1 24 4 16 16~32 375 10
g2-standard-8 1 24 8 32 32~54 375 16
g2-standard-12 1 24 12 48 48~54 375 16
g2-standard-16 1 24 16 64 54~64 375 32
g2-standard-24 2 48 24 96 96~108 750 32
g2-standard-32 1 24 32 128 96~128 375 32
g2-standard-48 4 96 48 192 192~216 1,500 50
g2-standard-96 8 192 96 384 384~432 3,000 100

*GPU メモリは GPU デバイスのメモリで、データの一時的な保存に使用できます。これは VM のメモリとは別に存在し、グラフィックを多用するワークロードでの帯域幅の高い需要に対応するように設計されています。
vCPU は、利用可能な CPU プラットフォームのいずれかで単一のハードウェア ハイパースレッドとして実装されます。
最大下り(外向き)帯域幅は許容数を超えることはできません。実際の下り(外向き)帯域幅は、宛先 IP アドレスやその他の要因によって異なります。ネットワーク帯域幅をご覧ください。

G2 の制限事項

  • G2 マシンタイプを使用する VM は、継続利用割引とフレキシブル確約利用割引の対象外となります。
  • G2 マシンタイプは、特定のリージョンとゾーンでのみ使用できます。
  • G2 マシンタイプを使用する VM では、リージョン Persistent Disk を使用できません。
  • G2 マシンタイプは、Cascade Lake プラットフォームでのみ使用できます。
  • 標準 Persistent Disk(pd-standard)は、G2 標準マシンタイプを使用する VM ではサポートされません。サポートされているディスクタイプについては、G2 でサポートされているディスクタイプをご覧ください。
  • G2 マシンタイプでマルチインスタンス GPU を作成することはできません。
  • G2 VM のマシンタイプを変更する必要がある場合は、アクセラレータ最適化 VM を変更するをご覧ください。
  • G2 マシンタイプを使用する VM のブートディスクに Deep Learning VM Image を使用することはできません。
  • Container-Optimized OS の現在のデフォルト ドライバは、G2 マシンタイプで実行される L4 GPU をサポートしていません。Container-Optimized OS は、選択されたドライバのセットのみをサポートしています。 G2 マシンタイプで Container-Optimized OS を使用する場合は、次の点に注意してください。
    • 推奨される最小の NVIDIA ドライバ バージョン 525.60.13 以降をサポートする Container-Optimized OS のバージョンを使用します。詳細については、Container-Optimized OS のリリースノートをご覧ください。
    • ドライバをインストールするときに、L4 GPU で動作する最新の最新バージョンを指定します。 例: sudo cos-extensions install gpu -- -version=525.60.13
  • 次のシナリオでは、Google Cloud CLI または REST を使用して G2 VM を作成する必要があります。
    • カスタムメモリ値を指定する必要があります。
    • 表示可能な CPU コアの数をカスタマイズする必要があります。

次のステップ