マシン ファミリーのリソースと比較ガイド


このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスやベアメタル インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。コンピューティング インスタンスを作成する場合、そのインスタンスで使用可能なリソースを決めるマシン ファミリーからマシンタイプを選択します。

選択できるマシン ファミリーは複数あります。各マシン ファミリーは、さらにマシンシリーズと、各シリーズ内の事前定義されたマシンタイプに分類されます。たとえば、汎用マシン ファミリーの N2 マシンシリーズの中では、n2-standard-4 マシンタイプを選択できます。

Spot VM(およびプリエンプティブル VM)をサポートするマシンシリーズについては、Compute Engine インスタンスのプロビジョニング モデルをご覧ください。

注: これは Compute Engine のマシン ファミリーのリストです。各マシン ファミリーの詳細については、以下のページをご覧ください。
  • 汎用 - さまざまなワークロードで優れたコスト パフォーマンスを発揮します。
  • ストレージ最適化 - コアの使用量が少なく、ストレージ密度が高いワークロードに最適です。
  • コンピューティング最適化 - Compute Engine でコアあたりのパフォーマンスが最も高く、コンピューティング負荷の高いワークロードに最適です。
  • メモリ最適化 - メモリ使用量の多いワークロードに最適です。他のマシン ファミリーよりもコアあたりのメモリ容量が多く、最大で 12 TB のメモリを搭載しています。
  • アクセラレータ最適化 - 機械学習(ML)やハイ パフォーマンス コンピューティング(HPC)など、超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに理想的なファミリーです。このファミリーは、GPU を必要とするワークロードに最適です。

Compute Engine の用語

このドキュメントでは、次の用語を使用します。

  • マシン ファミリー: 特定のワークロード(汎用、アクセラレータ最適化、メモリ最適化など)に合わせて最適化されたプロセッサとハードウェアから構成される一連のセット。

  • マシンシリーズ: マシン ファミリーは、シリーズ、世代、プロセッサ タイプでさらに分類されます。

    • 各シリーズは、コンピューティング能力やパフォーマンスの異なる側面に重点を置いています。たとえば、E シリーズは低コストで効率的な VM を提供し、C シリーズはより優れたパフォーマンスを提供します。

    • 世代は昇順の数字で表されます。たとえば、汎用マシン ファミリー内の N1 シリーズは、N2 シリーズの旧バージョンです。世代やシリーズ番号が高いほど、基盤となる CPU プラットフォームやテクノロジーが新しいことを示します。たとえば、Intel Xeon スケーラブル プロセッサ第 3 世代(Ice Lake)で動作する M3 シリーズは、Intel Xeon スケーラブル プロセッサ第 2 世代(Cascade Lake)で動作する M2 シリーズよりも新しい世代です。

      世代 Intel AMD Arm
      第 4 世代マシンシリーズ N4、C4、X4、M4、A4 C4D C4A、A4X
      第 3 世代マシンシリーズ C3、H3、Z3、M3、A3 C3D なし
      第 2 世代マシンシリーズ N2、E2、C2、M2、A2、G2 N2D、C2D、T2D、E2 T2A
  • マシンタイプ: すべてのマシンシリーズには、1 つ以上のマシンタイプがあります。各マシンタイプには、コンピューティング インスタンス用のリソースの組み合わせ(vCPU、メモリ、ディスク、GPU など)が含まれています。事前定義されたマシンタイプでニーズを満たせない場合は、いくつかのマシンシリーズのカスタム マシンタイプを作成することもできます。

以下の各セクションでは、さまざまなマシンタイプについて説明します。

事前定義されたマシンタイプ

事前定義されたマシンタイプには、数が固定のメモリと vCPU が搭載されています。事前定義されたマシンタイプには、vCPU とメモリのさまざまな比率のものが存在します。

  • highcpu - vCPU あたり 1~3 GB のメモリ(通常は vCPU あたり 2 GB のメモリ)
  • standard - vCPU あたり 3~7 GB のメモリ(通常は vCPU あたり 4 GB のメモリ)
  • highmem - vCPU あたり 7~14 GB のメモリ(通常は vCPU あたり 8 GB のメモリ)
  • megamem - vCPU あたり 14~19 GB のメモリ
  • hypermem - vCPU あたり 19~24 GB のメモリ(通常は vCPU あたり 21 GB のメモリ)
  • ultramem - vCPU あたり 24~31 GB のメモリ

たとえば、c3-standard-22 マシンタイプには 22 個の vCPU があり、standard マシンタイプとして 88 GB のメモリも備えています。

ローカル SSD マシンタイプ

ローカル SSD マシンタイプは、特別な事前定義されたマシンタイプです。マシンタイプ名には lssd が含まれます。次のいずれかのマシンタイプを使用してコンピューティング インスタンスを作成すると、Titanium SSD またはローカル SSD ディスクがインスタンスに自動的にアタッチされます。

  • -lssd: C4A、C4D、C3、C3D マシンシリーズで使用できます。これらのマシンタイプは、事前定義された数の 375 GiB ローカル SSD ディスクをインスタンスにアタッチします。このマシンタイプの例としては、c4a-standard-4-lssdc3-standard-88-lssdc3d-highmem-360-lssd などがあります。
  • -standardlssd: これらのマシンタイプは、ストレージ最適化 Z3 マシンシリーズで使用できます。vCPU あたり最大 350 GiB の Titanium SSD ディスク容量を提供します。これらのマシンタイプは、中規模のデータセットに対する高性能な検索とデータ分析に推奨されます。このマシンタイプの例は z3-highmem-22-standardlssd です。
  • -highlssd: Z3 マシンシリーズで使用できます。これらのマシンタイプは、vCPU あたり 350 GiB から 600 GiB の Titanium SSD ディスク容量を提供します。これらのマシンタイプは高いパフォーマンスを提供するため、ストレージを大量に使用するストリーミングや、大規模なデータセットのデータ分析に推奨されます。このマシンタイプの例は z3-highmem-88-highlssd です。

他のマシンシリーズもローカル SSD ディスクをサポートしていますが、lssd を含むマシンタイプ名は使用しません。Titanium SSD ディスクまたはローカル SSD ディスクとともに使用できるすべてのマシンタイプのリストについては、有効な数のローカル SSD ディスクを選択するをご覧ください。

ベアメタルのマシンタイプ

ベアメタル マシンタイプは、特別な事前定義されたマシンタイプです。マシンタイプ名は、-metal で終わります。これらのマシンタイプのいずれかを使用してコンピューティング インスタンスを作成すると、インスタンスにハイパーバイザはインストールされません。VM インスタンスと同様に、ディスクをベアメタル インスタンスにアタッチできます。ベアメタル インスタンスは、VM インスタンスと同じ方法で VPC ネットワークとサブネットワークで使用できます。

これらのマシンタイプは、C4D(プレビュー)、C3、Z3(プレビュー)、X4 マシンシリーズで使用できます。

カスタム マシンタイプ

事前定義されたマシンタイプがワークロードのニーズに合わない場合は、汎用マシン ファミリーの N マシンシリーズと E マシンシリーズのカスタム マシンタイプを使用して VM インスタンスを作成できます。.

カスタム マシンタイプの使用にかかる費用は、同等の事前定義されたマシンタイプと比較して若干高くなります。また、カスタム マシンタイプで選択できるメモリ量と vCPU 数には上限があります。カスタム マシンタイプのオンデマンド料金には、事前定義されたマシンタイプのオンデマンド料金とコミットメント料金に対して 5% のプレミアムが含まれています。

カスタム マシンタイプを作成するときに、拡張メモリ機能を使用できます。選択した vCPU の数に基づくデフォルトのメモリサイズを使用する代わりに、マシンシリーズの上限までメモリ容量を指定できます。

詳細については、カスタム マシンタイプの VM を作成するをご覧ください。

共有コア マシンタイプ

E2 シリーズと N1 シリーズには、共有コア マシンタイプが含まれています。このようなマシンタイプでは物理的なコアを時分割で使用します。この方法は、小規模でリソース消費量がそれほど多くないアプリを実行する場合に費用対効果に優れていることがあります。

  • E2: 短時間のバースト用に 2 個の vCPU を備えた e2-microe2-smalle2-medium の共有コア マシンタイプを提供します。

  • N1: 短時間のバーストに使用できる最大 1 個の vCPU を備えた f1-microg1-small の共有コア マシンタイプを提供します。

詳細については、CPU バーストをご覧ください。

マシン ファミリーとシリーズの推奨事項

次の表に、ワークロードごとの推奨事項を示します。

汎用のワークロード
N4、N2、N2D、N1 C4、C4A、C4D、C3、C3D E2 Tau T2D、Tau T2A
幅広いマシンタイプでバランスの取れた価格とパフォーマンスを実現 さまざまなワークロードに対して一貫して高いパフォーマンスを実現 低コストで日々のコンピューティングを実現 スケールアウト ワークロードに最適なコアあたりのパフォーマンスと費用を実現
  • 中程度のトラフィック量のウェブサーバーとアプリサーバー
  • コンテナ化されたマイクロサービス
  • ビジネス インテリジェンス アプリ
  • 仮想デスクトップ
  • CRM アプリケーション
  • 開発環境とテスト環境
  • バッチ処理
  • ストレージとアーカイブ
  • トラフィックの多いウェブサーバーとアプリサーバー
  • データベース
  • メモリ内キャッシュ
  • 広告サーバー
  • ゲームサーバー
  • データ分析
  • メディア ストリーミングとコード変換
  • CPU ベースの ML トレーニングと推論
  • トラフィック量の少ないウェブサーバー
  • バックオフィス アプリ
  • コンテナ化されたマイクロサービス
  • マイクロサービス
  • 仮想デスクトップ
  • 開発環境とテスト環境
  • ワークロードのスケールアウト
  • ウェブサービス
  • コンテナ化されたマイクロサービス
  • メディアのコード変換
  • 大規模 Java アプリケーション

  • 最適化されたワークロード
    ストレージ最適化 コンピューティング最適化 メモリ最適化 アクセラレータ最適化
    Z3 H3、C2、C2D X4、M4、M3、M2、M1 A4X、A4、A3、A2、G2
    ストレージ使用量の多いワークロード向けに最大のブロック ストレージ対コンピューティング比率を実現 超高パフォーマンスでコンピューティング負荷の高いワークロードを実現 メモリ使用量の多いワークロード向けに最大のメモリ対コンピューティング比率を実現 高速のハイ パフォーマンス コンピューティング ワークロード向けに最適化
    • SQL、NoSQL、ベクトル データベース
    • データ分析とデータ ウェアハウス
    • 検索
    • メディア ストリーミング
    • 大規模な分散並列ファイル システム
    • 計算依存型ワークロード
    • 高性能なウェブサーバー
    • ゲームサーバー
    • ハイ パフォーマンス コンピューティング(HPC)
    • メディアのコード変換
    • ワークロードのモデリングとシミュレーション
    • AI / ML
    • 中規模から特大規模の SAP HANA インメモリ データベース
    • Redis などのインメモリ データストア
    • シミュレーション
    • Microsoft SQL Server、MySQL などのハイ パフォーマンス データベース
    • 電子設計自動化
    • 次のような生成 AI モデル:
      • 大規模言語モデル(LLM)
      • 拡散モデル
      • 敵対的生成ネットワーク(GAN)
    • Compute Unified Device Architecture(CUDA)対応の ML トレーニングと推論
    • ハイ パフォーマンス コンピューティング(HPC)
    • 超並列コンピューティング
    • BERT 自然言語処理
    • ディープ ラーニング レコメンデーション モデル(DLRM)
    • 動画のコード変換
    • リモート可視化ワークステーション

    コンピューティング インスタンスを作成したら、サイズ適正化の推奨事項を使用し、ワークロードに基づいてリソース使用量を最適化できます。詳細については、VM に推奨マシンタイプを適用するをご覧ください。

    汎用マシン ファミリー ガイド

    汎用マシン ファミリーでは、さまざまなワークロードに最適な価格性能比のマシンシリーズが複数提供されています。

    Compute Engine では、x86 アーキテクチャまたは Arm アーキテクチャのいずれかで動作する汎用マシンシリーズを提供しています。

    x86

    • C4D マシンシリーズは AMD EPYC Turin CPU プラットフォームで利用可能で、Titanium を搭載しています。C4D は C3D と比較して最大ブースト周波数が高く、1 クロックあたりの処理命令数(IPC)が向上しているため、データベース トランザクションの速度が向上します。Hyperdisk ストレージと Titanium ネットワーキングを活用することで、C4D は C3D と比較して、MySQL での秒間クエリ数が最大 55% 増加し、Redis ワークロードのパフォーマンスが 35% 向上します。C4D インスタンスは、最大 384 個の vCPU と 3 TB の DDR5 メモリで使用できます。C4D は、highcpu(vCPU あたり 1.875 GB)、standard(vCPU あたり 3.875 GB)、highmem(vCPU あたり 7.875 GB)の構成で利用できます。
    • C4 マシンシリーズは Intel Emerald Rapids CPU プラットフォームで利用可能で、Titanium を搭載しています。C4 マシンタイプは、一貫して高いパフォーマンスを提供し、1.5 TB の DDR5 メモリで最大 192 個の vCPU までスケールアップするように最適化されています。C4 は、highcpu(vCPU あたり 2 GB)、standard(vCPU あたり 3.75 GB)、highmem(vCPU あたり 7.75 GB)の構成で利用できます。
    • N4 マシンシリーズは Intel Emerald Rapids CPU プラットフォームで利用可能で、Titanium を搭載しています。N4 マシンタイプは、事前定義されたシェイプとカスタム シェイプの両方で柔軟性とコストの面で最適化されており、640 GB の DDR5 メモリで最大 80 個の vCPU にスケールアップできます。N4 は、highcpu(vCPU あたり 2 GB)、standard(vCPU あたり 4 GB)、highmem(vCPU あたり 8 GB)の構成で利用できます。
    • N2 マシンシリーズは最大 128 基の vCPU、vCPU あたり 8 GB のメモリを備え、Intel Ice Lake と Cascade Lake CPU プラットフォームで使用できます。
    • N2D マシンシリーズは、最大 224 基の vCPU、vCPU あたり 8 GB のメモリを備え、第 2 世代の AMD EPYC Rome および第 3 世代 AMD EPYC Milan プラットフォームで使用できます。
    • C3 マシンシリーズは、最大 176 基の vCPU、vCPU あたり 2、4 または 8 GB のメモリを備え、Intel Sapphire Rapids CPU プラットフォームと Titanium で使用できます。C3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • C3D マシンシリーズは、最大 360 基の vCPU、vCPU あたり 2、4、または 8 GB のメモリを備え、AMD EPYC Genoa CPU プラットフォームと Titanium で使用できます。C3D インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • E2 マシンシリーズは最大 32 基の仮想コア(vCPU)と 128 GB のメモリ(vCPU あたり最大 8 GB)を備え、すべてのマシンシリーズの中で最も低コストです。E2 マシンシリーズには、Intel プロセッサまたは第 2 世代の AMD EPYC™ Rome プロセッサを実行する CPU プラットフォームが事前に定義されています。このプロセッサは、インスタンスを作成する際に選択されます。このマシンシリーズには、特に確約利用割引と組み合わせることで Compute Engine の最低価格となるさまざまなコンピューティング リソースが用意されています。
    • Tau T2D マシンシリーズには、スケールアウト用に最適化された機能セットが用意されています。各 VM インスタンスは最大 60 個の vCPU、vCPU あたり 4 GB のメモリを備え、第 3 世代の AMD EPYC Milan プロセッサで使用できます。Tau T2D マシンシリーズはクラスタ スレッディングを使用しないため、vCPU はコア全体に相当します。
    • N1 マシンシリーズの VM は、最大 96 個の vCPU、vCPU あたり最大 6.5 GB のメモリを備え、Intel Sandy Bridge、Ivy Bridge、Haswell、Broadwell、Skylake CPU のプラットフォームで使用できます。

    Arm

    • C4A マシンシリーズは、Arm プロセッサで動作する Google Cloudの 2 番目のマシンシリーズであり、Arm V9 アーキテクチャをサポートする Google Axion プロセッサで動作する最初のマシンシリーズです。C4A インスタンスは、ディスクとネットワークのオフロードを備えた Titanium IPU を搭載しています。これにより、オンホスト処理が削減され、インスタンスのパフォーマンスが向上します。

      C4A インスタンスは最大 72 個の vCPU、vCPU あたり最大 8 GB のメモリを備え、単一の UMA ドメインを提供します。C4A には、最大 6 TiB の Titanium SSD 容量を備えた -lssd マシンタイプがあります。C4A インスタンスは同時マルチスレッディング(SMT)を使用しません。C4A インスタンスの vCPU は、物理コア全体に相当します。

    • Tau T2A マシンシリーズは Arm プロセッサで動作する Google Cloudで最初のマシンシリーズですTau T2A マシンは、パフォーマンスを魅力的な価格で提供するように最適化されています。各 VM には最大 48 基の vCPU、vCPU あたり 4 GB のメモリを搭載できます。Tau T2A マシンシリーズは、Arm 命令セットを備えた 64 コアの Ampere Altra プロセッサで動作し、全コア周波数は 3 GHz です。Tau T2A マシンタイプは単一の NUMA ノードをサポートし、vCPU はコア全体に相当します。

    ストレージ最適化マシン ファミリー ガイド

    ストレージ最適化マシン ファミリーは、SQL、NoSQL、ベクトル データベース、スケールアウト データ分析、データ ウェアハウス、検索、分散ファイル システムなど、ローカル ストレージに保存されている大量のデータに高速にアクセスする必要がある高パフォーマンスでフラッシュ最適化ワークロードに最適です。ストレージ最適化マシン ファミリーは、ミリ秒以下のレイテンシで高いローカル ストレージ スループットと IOPS を提供するように設計されています。

    • Z3 standardlssd インスタンスには、最大 176 個の vCPU、1,408 GB のメモリ、36 TiB の Titanium SSD を搭載できます。
    • Z3 highlssd インスタンスには、最大 88 個の vCPU、704 GB のメモリ、36 TiB の Titanium SSD を搭載できます。
    • Z3 ベアメタル インスタンス(プレビュー版)には、192 個の vCPU、1,536 GB のメモリ、72 TiB のローカル Titanium SSD が搭載されています。

    Z3 は、DDR5 メモリと Titanium オフロード プロセッサを備えた Intel Xeon スケーラブル プロセッサ(コードネーム Sapphire Rapids)で動作します。Z3 は、コンピューティング、ネットワーキング、ストレージの最新のイノベーションを 1 つのプラットフォームに統合しています。Z3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。

    コンピューティング最適化マシン ファミリー ガイド

    コンピューティング最適化マシン ファミリーは、コアあたりの最大のパフォーマンスを提供することによってコンピューティング依存型のアプリケーションを実行するように最適化されています。

    • H3 インスタンスは、88 個の vCPU と 352 GB の DDR5 メモリを提供します。H3 インスタンスは、Intel Sapphire Rapids CPU プラットフォームと Titanium オフロード プロセッサで実行されます。H3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。H3 は、分子動力学、計算地球科学、金融リスク分析、気象モデリング、フロントエンドとバックエンドの EDA、計算流体力学など、さまざまな HPC ワークロードのパフォーマンスを向上させます。
    • C2 インスタンスは、最大 60 個の vCPU、vCPU あたり 4 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。
    • C2D インスタンスは、最大 112 個の vCPU、vCPU あたり最大 8 GB のメモリを備え、第 3 世代の AMD EPYC Milan プラットフォームで使用できます。

    メモリ最適化マシン ファミリー ガイド

    メモリ最適化マシン ファミリーには、OLAP と OLTP SAP のワークロード、ゲノム モデリング、電子設計自動化、最も多くのメモリを消費する HPC ワークロードに最適なマシンシリーズが用意されています。このファミリーは他のマシン ファミリーより 1 コアあたりのメモリ容量が大きく、最大 32 TB です。

    • X4 ベアメタル インスタンスは、最大 1,920 個の vCPU と vCPU あたり 17 GB のメモリを備えます。X4 には、16 TB、24 TB、32 TB のメモリを備えたマシンタイプがあり、Intel Sapphire Rapids CPU プラットフォームで使用できます。
    • M4 インスタンスは最大 224 個の vCPU、vCPU あたり最大 26.5 GB のメモリを備え、Intel Emerald Rapids CPU プラットフォームで使用できます。
    • M3 インスタンスは最大 128 個の vCPU、vCPU あたり最大 30.5 GB のメモリを備え、インテルの Ice Lake CPU プラットフォームで使用できます。
    • M2 インスタンスは 6 TB、9 TB、12 TB の各マシンタイプで使用できます。また、Intel Cascade Lake CPU プラットフォームで使用できます。
    • M1 インスタンスは、最大 160 個の vCPU、vCPU あたり 14.9 GB~24 GB のメモリを備え、Intel Skylake プラットフォームと Broadwell CPU プラットフォームで使用できます。

    アクセラレータ最適化マシン ファミリー ガイド

    アクセラレータ最適化マシン ファミリーは、機械学習(ML)とハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このファミリーは、GPU を必要とするワークロードに最適な選択肢です。

    Arm

    • A4X インスタンスは、最大 140 個の vCPU と最大 884 GB のメモリを備えています。各 A4X マシンタイプには、2 つの NVIDIA Grace CPU に 4 つの NVIDIA B200 GPU が接続されています。A4X インスタンスの最大ネットワーク帯域幅は 2,000 Gbps です。

    x86

    • A4 インスタンスは、最大 224 個の vCPU と最大 3,968 GB のメモリを備えています。各 A4 マシンタイプには、8 個の NVIDIA B200 GPU が割り当てられています。A4 インスタンスの最大ネットワーク帯域幅は 3,600 Gbps で、Intel Emerald Rapids CPU プラットフォームで使用できます。
    • A3 インスタンスは、最大 224 個の vCPU と最大 2,952 GB のメモリを備えています。各 A3 マシンタイプには、1、2、4、または 8 個の NVIDIA H100 GPU または 8 個の H200 GPU が割り当てられています。A3 インスタンスの最大ネットワーク帯域幅は 3,200 Gbps で、次の CPU プラットフォームで使用できます。
      • Intel Emerald Rapids - A3 Ultra
      • Intel Sapphire Rapids - A3 Mega、High、Edge
    • A2 インスタンスは、12~96 個の vCPU と、最大 1,360 GB のメモリを備えています。各 A2 マシンタイプには、1、2、4、8、または 16 個の NVIDIA A100 GPU が割り当てられています。A2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。
    • G2 インスタンスは、4~96 個の vCPU と最大 432 GB のメモリを備えています。各 G2 マシンタイプには、1、2、4、または 8 個の NVIDIA L4 GPU が割り当てられています。G2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。

    マシンシリーズの比較

    次の表を使用して各マシン ファミリーを比較し、ワークロードに適したものを判断してください。このセクションを確認してもワークロードに最適なファミリーが不明な場合は、汎用マシン ファミリーから始めてください。サポートされているすべてのプロセッサの詳細については、CPU プラットフォームをご覧ください。

    選択内容がコンピューティング インスタンスにアタッチされているディスク ボリュームのパフォーマンスに与える影響については、以下をご覧ください。

    C4A から G2 までの異なるマシンシリーズの特性を比較します。「比較するインスタンス プロパティを選択する」で特定のプロパティを選択すると、以下の表ですべてのマシンシリーズのプロパティを比較できます。

    汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 コスト最適化 ストレージ最適化 コンピューティング最適化 コンピューティング最適化 コンピューティング最適化 メモリ最適化 メモリ最適化 メモリ最適化 メモリ最適化 メモリ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化
    VM VM VM とベアメタル VM とベアメタル VM VM VM VM VM VM VM VM VM とベアメタル VM VM VM ベアメタル VM VM VM VM VM VM VM VM VM VM VM
    Intel Emerald Rapids Google Axion AMD EPYC Turin Intel Sapphire Rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake、Ice Lake AMD EPYC Rome、EPYC Milan Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake、Broadwell、Haswell、AMD EPYC Rome、EPYC Milan Intel Sapphire Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Sapphire Rapids Intel Emerald Rapids Intel Ice Lake Intel Cascade Lake Intel Skylake、Broadwell Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge NVIDIA Grace Intel Emerald Rapids Intel Emerald Rapids Intel Sapphire Rapids Intel Cascade Lake Intel Cascade Lake
    x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86
    2~192 1~72 2~384 4~176 4~360 2~80 2~128 2~224 1~96 1~60 1~48 0.25~32 8~192 88 4~60 2~112 960~1,920 28~224 32~128 208~416 40~160 1~96 140 224 224 208 12~96 4~96
    スレッド コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド コア コア スレッド スレッド コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド コア スレッド スレッド スレッド スレッド スレッド
    2~1,488 GB 2~576 GB 3~3,072 GB 8~1,408 GB 8~2,880 GB 2~640 GB 2~864 GB 2~896 GB 1.8~624 GB 4~240 GB 4~192 GB 1~128 GB 64~1,536 GB 352 GB 16~240 GB 4~896 GB 16,384~32,768 GB 372~5,952 GB 976~3,904 GB 5,888~11,776 GB 961~3,844 GB 3.75~624 GB 884 GB 3,968 GB 2,952 GB 1,872 GB 85~1,360 GB 16~432 GB
    <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV  AMD SEV-SNP </style="white-space:no-wrap;"> <style="white-space:no-wrap;"> AMD SEV  </style="white-space:no-wrap;"> Intel TDX, NVIDIA Confidential Computing
    NVMe NVMe NVMe NVMe NVMe NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe NVMe SCSI NVMe NVMe SCSI、NVMe SCSI、NVMe NVMe NVMe NVMe SCSI SCSI、NVMe SCSI、NVMe NVMe NVMe NVMe NVMe SCSI、NVMe NVMe
    0 6 TiB 12 TiB 12 TiB 12 TiB 0 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB(VM)、72 TiB(Metal) 0 3 TiB 3 TiB 0 0 3 TiB 0 3 TiB 9 TiB 12 TiB 12 TiB 12 TiB 6 TiB 3 TiB 3 TiB
    ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン
    ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン
    ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン
    gVNIC gVNIC gVNIC と IDPF gVNIC と IDPF gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC と IDPF gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net IDPF gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC と MRDMA gVNIC と MRDMA gVNIC と MRDMA gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net
    10~100 Gbps 10~50 Gbps 10~100 Gbps 23~100 Gbps 20~100 Gbps 10~50 Gbps 10~32 Gbps 10~32 Gbps 2~32 Gbps 10~32 Gbps 10~32 Gbps 1~16 Gbps 23~100 Gbps 最大 200 Gbps 10~32 Gbps 10~32 Gbps 最大 100 Gbps 32~100 Gbps 最大 32 Gbps 最大 32 Gbps 最大 32 Gbps 2~32 Gbps 最大 2,000 Gbps 最大 3,600 Gbps 最大 3,200 Gbps 最大 1,800 Gbps 24~100 Gbps 10~100 Gbps
    50~200 Gbps 50~100 Gbps 50~200 Gbps 50~200 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 最大 2,000 Gbps 最大 3,600 Gbps 最大 3,200 Gbps 最大 1,800 Gbps 50~100 Gbps 50~100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 4 8 8 8 16 8
    リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD

    GPU とコンピューティング インスタンス

    GPU はワークロードの高速化に使用され、A4X、A4、A3、A2、G2、N1 インスタンスでサポートされています。A4X、A4、A3、A2、G2 マシンタイプを使用するインスタンスでは、インスタンスを作成すると GPU が自動的に割り当てられます。N1 マシンタイプを使用するインスタンスでは、インスタンスの作成中または作成後に GPU をインスタンスに割り当てることができます。GPU を他のマシンシリーズと一緒に使用することはできません。

    割り当てられている GPU が少ないインスタンスは、vCPU の最大数に制限されます。一般的に、GPU の数が多いほど、vCPU 数が多くメモリサイズが大きいインスタンスを作成できます。詳細については、Compute Engine の GPU をご覧ください。

    次のステップ