マシン ファミリーのリソースと比較ガイド


このドキュメントでは、必要なリソースを備えた仮想マシン(VM)インスタンスやベアメタル インスタンスを作成するために選択できるマシン ファミリー、マシンシリーズ、マシンタイプについて説明します。コンピューティング インスタンスを作成する場合、そのインスタンスで使用可能なリソースを決めるマシン ファミリーからマシンタイプを選択します。

選択できるマシン ファミリーは複数あります。各マシン ファミリーは、さらにマシンシリーズと、各シリーズ内の事前定義されたマシンタイプに分類されます。たとえば、汎用マシン ファミリーの N2 マシンシリーズの中では、n2-standard-4 マシンタイプを選択できます。

M2、M3、X4 マシンシリーズと C3 ベアメタル マシンタイプを除き、すべてのマシンシリーズは Spot VM(およびプリエンプティブル VM)をサポートしています。

注: これは Compute Engine のマシン ファミリーのリストです。各マシン ファミリーの詳細については、以下のページをご覧ください。
  • 汎用 - さまざまなワークロードで優れたコスト パフォーマンスを発揮します。
  • ストレージ最適化 - コアの使用量が少なく、ストレージ密度が高いワークロードに最適です。
  • コンピューティング最適化 - Compute Engine でコアあたりのパフォーマンスが最も高く、コンピューティング負荷の高いワークロードに最適です。
  • メモリ最適化 - メモリ使用量の多いワークロードに最適です。他のマシン ファミリーよりもコアあたりのメモリ容量が多く、最大で 12 TB のメモリを搭載しています。
  • アクセラレータ最適化 - 機械学習(ML)やハイ パフォーマンス コンピューティング(HPC)など、超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに理想的なファミリーです。このファミリーは、GPU を必要とするワークロードに最適です。

Compute Engine の用語

このドキュメントでは、次の用語を使用します。

  • マシン ファミリー: 特定のワークロードに合わせて最適化されたプロセッサとハードウェアから構成される一連の組み合わせ。

  • マシンシリーズ: マシン ファミリーは、シリーズ、世代、プロセッサ タイプでさらに分類されます。

    • 各シリーズは、コンピューティング能力やパフォーマンスの異なる側面に重点を置いています。たとえば、E シリーズは低コストで効率的な VM を提供し、C シリーズはより優れたパフォーマンスを提供します。
    • 世代は昇順の数字で表されます。たとえば、汎用マシン ファミリー内の N1 シリーズは、N2 シリーズの旧バージョンです。世代やシリーズ番号が高いほど、基盤となる CPU プラットフォームやテクノロジーが新しいことを示します。たとえば、Intel Xeon スケーラブル プロセッサ第 3 世代(Ice Lake)で動作する M3 シリーズは、Intel Xeon スケーラブル プロセッサ第 2 世代(Cascade Lake)で動作する M2 シリーズよりも新しい世代です。
生成 Intel AMD Arm
第 4 世代マシンシリーズ N4、C4、X4 なし C4A
第 3 世代マシンシリーズ C3、H3、Z3、M3、A3 C3D なし
第 2 世代マシンシリーズ N2、E2、C2、M2、A2、G2 N2D、C2D、T2D、E2 T2A
  • マシンタイプ: すべてのマシンシリーズには、1 つ以上のマシンタイプがあります。各マシンタイプには、コンピューティング インスタンス用のリソースの組み合わせ(vCPU、メモリ、ディスク、GPU など)が含まれています。事前定義されたマシンタイプでニーズを満たせない場合は、いくつかのマシンシリーズのカスタム マシンタイプを作成することもできます。

以下の各セクションでは、さまざまなマシンタイプについて説明します。

事前定義されたマシンタイプ

事前定義されたマシンタイプには、数が固定のメモリと vCPU が搭載されています。事前定義されたマシンタイプには、vCPU とメモリのさまざまな比率のものが存在します。

  • highcpu - vCPU あたり 1~3 GB のメモリ(通常は vCPU あたり 2 GB のメモリ)
  • standard - vCPU あたり 3~7 GB のメモリ(通常は vCPU あたり 4 GB のメモリ)
  • highmem - vCPU あたり 7~14 GB のメモリ(通常は vCPU あたり 8 GB のメモリ)
  • megamem - vCPU あたり 14 ~ 19 GB のメモリ
  • hypermem - vCPU あたり 19 ~ 24 GB のメモリ(通常は vCPU あたり 21 GB のメモリ)
  • ultramem - vCPU あたり 24 ~ 31 GB のメモリ

たとえば、c3-standard-22 マシンタイプには 22 個の vCPU があり、standard マシンタイプとして 88 GB のメモリも備えています。

ローカル SSD マシンタイプ

ローカル SSD マシンタイプは、特別な事前定義されたマシンタイプです。マシンタイプ名は、-lssd で終わります。これらのマシンタイプのいずれかを使用してコンピューティング インスタンスを作成すると、ローカル SSD ディスクがインスタンスに自動的にアタッチされます。

これらのマシンタイプは、C3 マシンシリーズと C3D マシンシリーズで使用できます。他のマシンシリーズもローカル SSD ディスクをサポートしていますが、-lssd マシンタイプは使用しません。ローカル SSD ディスクとともに使用できるマシンタイプの詳細については、有効な数のローカル SSD ディスクを選択するをご覧ください。

ベアメタルのマシンタイプ

ベアメタル マシンタイプは、特別な事前定義されたマシンタイプです。マシンタイプ名は、-metal で終わります。これらのマシンタイプのいずれかを使用してコンピューティング インスタンスを作成すると、インスタンスにハイパーバイザはインストールされません。VM インスタンスと同様に、Hyperdisk ストレージをベアメタル インスタンスにアタッチできます。ベアメタル インスタンスは、VM インスタンスと同じ方法で VPC ネットワークとサブネットワークで使用できます。

これらのマシンタイプは、C3 マシンシリーズと X4 マシンシリーズで使用できます。

カスタム マシンタイプ

事前定義されたマシンタイプがワークロードのニーズに合わない場合は、汎用マシン ファミリーの N マシンシリーズと E マシンシリーズのカスタム マシンタイプを使用して VM インスタンスを作成できます。

カスタム マシンタイプの使用にかかる費用は、同等の事前定義されたマシンタイプと比較して若干高くなります。また、カスタム マシンタイプで選択できるメモリ量と vCPU 数には上限があります。カスタム マシンタイプのオンデマンド料金には、事前定義されたマシンタイプのオンデマンド料金とコミットメント料金に対して 5% のプレミアムが含まれています。

拡張メモリ(カスタム マシンタイプでのみ使用可能)を使用すると、vCPU ベースの制限を受けることなく、カスタム マシンタイプのメモリ容量を指定できます。指定された vCPU の数に基づくデフォルトのメモリサイズを使用するのではなく、マシンシリーズの上限まで拡張メモリを指定できます。

詳細については、カスタム マシンタイプの VM を作成するをご覧ください。

共有コア マシンタイプ

E2 シリーズと N1 シリーズには、共有コア マシンタイプが含まれています。このようなマシンタイプでは物理的なコアを時分割で使用します。この方法は、小規模でリソース消費量がそれほど多くないアプリを実行する場合に費用対効果に優れていることがあります。

  • E2: 短時間のバースト用に 2 個の vCPU を提供します。

  • N1: 短時間のバーストに使用できる最大 1 個の vCPU を備えた f1-microg1-small の共有コア マシンタイプを提供します。

マシン ファミリーとシリーズの推奨事項

次の表に、ワークロードごとの推奨事項を示します。

汎用のワークロード
N4、N2、N2D、N1 C4A、C4、C3、C3D E2 Tau T2D、Tau T2A
幅広いマシンタイプでバランスの取れた価格とパフォーマンスを実現 さまざまなワークロードに対して一貫して高いパフォーマンスを実現 低コストで日々のコンピューティングを実現 スケールアウト ワークロードに最適なコアあたりのパフォーマンスと費用を実現
  • 中程度のトラフィック量のウェブサーバーとアプリサーバー
  • コンテナ化されたマイクロサービス
  • ビジネス インテリジェンス アプリ
  • 仮想デスクトップ
  • CRM アプリケーション
  • 開発環境とテスト環境
  • バッチ処理
  • ストレージとアーカイブ
  • トラフィックの多いウェブサーバーとアプリサーバー
  • データベース
  • メモリ内キャッシュ
  • 広告サーバー
  • ゲームサーバー
  • データ分析
  • メディア ストリーミングとコード変換
  • CPU ベースの ML トレーニングと推論
  • トラフィック量の少ないウェブサーバー
  • バックオフィス アプリ
  • コンテナ化されたマイクロサービス
  • マイクロサービス
  • 仮想デスクトップ
  • 開発環境とテスト環境
  • ワークロードのスケールアウト
  • ウェブサービス
  • コンテナ化されたマイクロサービス
  • メディアのコード変換
  • 大規模 Java アプリケーション

  • 最適化されたワークロード
    ストレージ最適化 コンピューティング最適化 メモリ最適化 アクセラレータ最適化
    Z3 H3、C2、C2D X4、M3、M2、M1 A3、A2、G2
    ストレージ使用量の多いワークロード向けに最大のブロック ストレージ対コンピューティング比率を実現 超高パフォーマンスでコンピューティング負荷の高いワークロードを実現 メモリ使用量の多いワークロード向けに最大のメモリ対コンピューティング比率を実現 高速のハイ パフォーマンス コンピューティング ワークロード向けに最適化
    • ファイル サーバー
    • フラッシュに最適化されたデータベース
    • スケールアウト分析
    • その他のデータベース
    • 計算依存型ワークロード
    • 高性能なウェブサーバー
    • ゲームサーバー
    • ハイ パフォーマンス コンピューティング(HPC)
    • メディアのコード変換
    • ワークロードのモデリングとシミュレーション
    • AI / ML
    • 中規模から特大規模の SAP HANA インメモリ データベース
    • Redis などのインメモリ データストア
    • シミュレーション
    • Microsoft SQL Server、MySQL などのハイ パフォーマンス データベース
    • 電子設計自動化
    • 次のような生成 AI モデル:
      • 大規模言語モデル(LLM)
      • 拡散モデル
      • 敵対的生成ネットワーク(GAN)
    • Compute Unified Device Architecture(CUDA)対応の ML トレーニングと推論
    • ハイ パフォーマンス コンピューティング(HPC)
    • 超並列コンピューティング
    • BERT 自然言語処理
    • ディープ ラーニング レコメンデーション モデル(DLRM)
    • 動画のコード変換
    • リモート可視化ワークステーション

    コンピューティング インスタンスを作成したら、サイズ適正化の推奨事項を使用し、ワークロードに基づいてリソース使用量を最適化できます。詳細については、VM に推奨マシンタイプを適用するをご覧ください。

    汎用マシン ファミリー ガイド

    汎用マシン ファミリーでは、さまざまなワークロードに対して最適な価格性能比で複数のマシン シリーズが提供されます。

    Compute Engine では、x86 アーキテクチャまたは Arm アーキテクチャのいずれかで動作する汎用マシン シリーズを提供しています。

    x86

    • C4 マシンシリーズは Intel Emerald Rapids CPU プラットフォームで利用可能で、Titanium を搭載しています。C4 マシンタイプは、一貫して高いパフォーマンスを提供し、1.5 TB の DDR5 メモリで最大 192 個の vCPU までスケールアップするように最適化されています。C4 は、highcpu(vCPU あたり 2 GB)、standard(vCPU あたり 3.75 GB)、highmem(vCPU あたり 7.75 GB)の構成で利用できます。
    • N4 マシンシリーズは Intel Emerald Rapids CPU プラットフォームで利用可能で、Titanium を搭載しています。N4 マシンタイプは、事前定義されたシェイプとカスタム シェイプの両方で柔軟性とコストの面で最適化されており、640 GB の DDR5 メモリで最大 80 個の vCPU にスケールアップできます。N4 は、highcpu(vCPU あたり 2 GB)、standard(vCPU あたり 4 GB)、highmem(vCPU あたり 8 GB)の構成で利用できます。
    • N2 マシンシリーズは最大 128 基の vCPU、vCPU あたり 8 GB のメモリを備え、Intel Ice Lake と Cascade Lake CPU プラットフォームで使用できます。
    • N2D マシンシリーズは、最大 224 基の vCPU、vCPU あたり 8 GB のメモリを備え、第 2 世代の AMD EPYC Rome および第 3 世代 AMD EPYC Milan プラットフォームで使用できます。
    • C3 マシンシリーズは、最大 176 基の vCPU、vCPU あたり 2、4 または 8 GB のメモリを備え、Intel Sapphire Rapids CPU プラットフォームと Titanium で使用できます。C3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • C3D マシンシリーズは、最大 360 基の vCPU、vCPU あたり 2、4、または 8 GB のメモリを備え、AMD EPYC Genoa CPU プラットフォームと Titanium で使用できます。C3D インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。
    • E2 マシンシリーズは最大 32 基の仮想コア(vCPU)と 128 GB のメモリ(vCPU あたり最大 8 GB)を備え、すべてのマシンシリーズの中で最も低コストです。E2 マシンシリーズには、Intel プロセッサまたは第 2 世代の AMD EPYC™ Rome プロセッサを実行する CPU プラットフォームが事前に定義されています。このプロセッサは、インスタンスを作成する際に選択されます。このマシンシリーズには、特に確約利用割引と組み合わせることで Compute Engine の最低価格となるさまざまなコンピューティング リソースが用意されています。
    • Tau T2D マシンシリーズには、スケールアウト用に最適化された機能セットが用意されています。各 VM インスタンスは最大 60 個の vCPU、vCPU あたり 4 GB のメモリを備え、第 3 世代の AMD EPYC Milan プロセッサで使用できます。Tau T2D マシンシリーズはクラスタ スレッディングを使用しないため、vCPU はコア全体に相当します。
    • N1 マシンシリーズの VM は、最大 96 個の vCPU、vCPU あたり最大 6.5 GB のメモリを備え、Intel Sandy Bridge、Ivy Bridge、Haswell、Broadwell、Skylake CPU のプラットフォームで使用できます。

    Arm

    • C4A マシンシリーズは、Arm プロセッサで動作する Google Cloud の 2 番目のマシンシリーズであり、Arm V9 アーキテクチャをサポートする Google Axion CPU で動作する最初のマシンシリーズです。C4A VM は、ネットワーク オフロードを備えた Titanium IPU を搭載しています。これにより、オンホスト処理が削減され、VM のパフォーマンスが向上します。

      C4A VM には最大 72 個の vCPU を搭載でき、vCPU あたり最大 8 GB のメモリを備え、単一の UMA ドメインをサポートできます。C4A VM は同時マルチスレッディング(SMT)を使用しません。C4A インスタンス内の vCPU はコア全体に相当します。

    • Tau T2A マシンシリーズは Arm プロセッサで動作する Google Cloud 初のマシンシリーズですTau T2A マシンは、パフォーマンスを魅力的な価格で提供するように最適化されています。各 VM には最大 48 基の vCPU、vCPU あたり 4 GB のメモリを搭載できます。Tau T2A マシンシリーズは、Arm 命令セットを備えた 64 コアの Ampere Altra プロセッサで動作し、全コア周波数は 3 GHz です。Tau T2A マシンタイプは単一の NUMA ノードをサポートし、vCPU はコア全体に相当します。

    ストレージ最適化マシン ファミリー ガイド

    ストレージ最適化マシン ファミリーは、水平方向のスケールアウト データベース、ログ分析、データ ウェアハウス サービス、その他のデータベースに最適かつ便利です。このファミリーは、高密度で高性能なローカル SSD を提供します。

    • Z3 インスタンスには、最大 176 個の vCPU、1,408 GB のメモリ、36 TiB のローカル SSD を搭載できます。Z3 は、DDR5 メモリと Titanium オフロード プロセッサを備えた Intel Xeon スケーラブル プロセッサ(コードネーム Sapphire Rapids)で動作します。Z3 は、コンピューティング、ネットワーキング、ストレージの最新のイノベーションを 1 つのプラットフォームに統合しています。Z3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。

    コンピューティング最適化マシン ファミリー ガイド

    コンピューティング最適化マシン ファミリーは、コアあたりの最大のパフォーマンスを提供することによってコンピューティング依存型のアプリケーションを実行するように最適化されています。

    • H3 インスタンスは、88 個の vCPU と 352 GB の DDR5 メモリを提供します。H3 インスタンスは、Intel Sapphire Rapids CPU プラットフォームと Titanium オフロード プロセッサで実行されます。H3 インスタンスは基盤となる NUMA アーキテクチャと連携して、最適で信頼性の高い、一貫したパフォーマンスを提供します。H3 は、分子動力学、計算地球科学、金融リスク分析、気象モデリング、フロントエンドとバックエンドの EDA、計算流体力学など、さまざまな HPC ワークロードのパフォーマンスを向上させます。
    • C2 インスタンスは、最大 60 個の vCPU、vCPU あたり 4 GB のメモリを備え、Intel Cascade Lake CPU プラットフォームで使用できます。
    • C2D インスタンスは、最大 112 個の vCPU、vCPU あたり最大 8 GB のメモリを備え、第 3 世代の AMD EPYC Milan プラットフォームで使用できます。

    メモリ最適化マシン ファミリー ガイド

    メモリ最適化マシン ファミリーには、OLAP と OLTP SAP のワークロード、ゲノム モデリング、電子設計自動化、最も多くのメモリを消費する HPC ワークロードに最適なマシンシリーズが用意されています。このファミリーは他のマシン ファミリーより 1 コアあたりのメモリ容量が大きく、最大 32 TB です。

    • X4 ベアメタル インスタンスは、最大 1,920 個の vCPU と vCPU あたり 17 GB のメモリを備えます。X4 には、16 TB、24 TB、32 TB のメモリを備えたマシンタイプがあり、Intel Sapphire Rapids CPU プラットフォームで使用できます。
    • M3 インスタンスは最大 128 個の vCPU、vCPU あたり最大 30.5 GB のメモリを備え、インテルの Ice Lake CPU プラットフォームで使用できます。
    • M2 インスタンスは 6 TB、9 TB、12 TB の各マシンタイプで使用できます。また、Intel Cascade Lake CPU プラットフォームで使用できます。
    • M1 インスタンスは、最大 160 個の vCPU、vCPU あたり 14.9 GB~24 GB のメモリを備え、Intel Skylake プラットフォームと Broadwell CPU プラットフォームで使用できます。

    アクセラレータ最適化マシン ファミリー ガイド

    アクセラレータ最適化マシン ファミリーは、機械学習(ML)とハイ パフォーマンス コンピューティング(HPC)などの超並列 CUDA(Compute Unified Device Architecture)コンピューティング ワークロードに最適です。このファミリーは、GPU を必要とするワークロードに最適な選択肢です。

    • A3 インスタンスは、最大 208 個の vCPU と vCPU あたり 9 GB のメモリを備えています。各 A3 マシンタイプには、1、2、4、8 個の NVIDIA H100 GPU が接続されています。A3 の最大ネットワーク帯域幅は 1,800 Gbps で、Intel Sapphire Rapids CPU プラットフォームで使用できます。
    • A2 インスタンスは、12 ~ 96 個の vCPU、最大 1,360 GB のメモリを備えています。各 A2 マシンタイプには、1、2、4、8、または 16 個の NVIDIA A100 GPU が接続されています。A2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。
    • G2 インスタンスは、4 ~ 96 個の vCPU と最大 432 GB のメモリを備えています。各 G2 マシンタイプには、1、2、4、または 8 個の NVIDIA L4 GPU がアタッチされています。G2 インスタンスの最大ネットワーク帯域幅は 100 Gbps で、Intel Cascade Lake CPU プラットフォームで使用できます。

    マシン シリーズの比較

    次の表は、マシン ファミリーの比較と、ワークロードに適したカテゴリを判断にご利用ください。このセクションを確認しても、ワークロードに最適なファミリーが不明な場合は、汎用マシン ファミリーから使用を始めてください。サポートされているすべてのプロセッサの詳細については、CPU プラットフォームをご覧ください。

    選択内容がコンピューティング インスタンスにアタッチされているディスク ボリュームのパフォーマンスに与える影響については、以下をご覧ください。

    C4A から G2 までの異なるマシンシリーズの特性を比較します。[比較するインスタンス プロパティを選択する] フィールドで特定のプロパティを選択すると、以下の表ですべてのマシンシリーズのプロパティを比較できます。

    汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 汎用 コスト最適化 ストレージ最適化 コンピューティング最適化 コンピューティング最適化 コンピューティング最適化 メモリ最適化 メモリ最適化 メモリ最適化 メモリ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化 アクセラレータ最適化
    Google Axion Intel Emerald Rapids Intel Sapphire Rapids AMD EPYC Genoa Intel Emerald Rapids Intel Cascade Lake、Ice Lake AMD EPYC Rome、EPYC Milan Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge AMD EPYC Milan Ampere Altra Intel Skylake、Broadwell、Haswell、AMD EPYC Rome、EPYC Milan Intel Sapphire Rapids Intel Sapphire Rapids Intel Cascade Lake AMD EPYC Milan Intel Sapphire Rapids Intel Ice Lake Intel Cascade Lake Intel Skylake、Broadwell Intel Skylake、Broadwell、Haswell、Sandy Bridge、Ivy Bridge Intel Sapphire Rapids Intel Cascade Lake Intel Cascade Lake
    Arm x86 x86 x86 x86 x86 x86 x86 x86 Arm x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86 x86
    1 ~ 72 2~192 4~176 4~360 2~80 2~128 2~224 1~96 1~60 1~48 0.25~32 88 または 176 88 4~60 2~112 960~1,920 32~128 208~416 40~160 1~96 208 12~96 4~96
    コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド コア コア スレッド スレッド コア スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド スレッド
    2 ~ 576 GB 2~1,488 GB 8~1,408 GB 8~2,880 GB 2~640 GB 2~864 GB 2~896 GB 1.8~624 GB 4~240 GB 4~192 GB 1~128 GB 704 または 1,408 GB 352 GB 16~240 GB 4~896 GB 16,384~32,768 GB 976~3,904 GB 5,888~11,776 GB 961~3,844 GB 3.75~624 GB 1,872 GB 85~1,360 GB 16~432 GB
    -
    -
    VM VM VM とベアメタル VM VM VM VM VM VM VM VM VM VM VM VM ベアメタル VM VM VM VM VM VM VM
    -
    -
    -
    NVMe NVMe NVMe NVMe NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe SCSI、NVMe NVMe SCSI NVMe NVMe SCSI、NVMe SCSI、NVMe NVMe NVMe SCSI SCSI、NVMe SCSI、NVMe NVMe SCSI、NVMe NVMe
    -
    -
    ゾーンとリージョン(プレビュー ゾーン ゾーンとリージョン(プレビュー ゾーンとリージョン(プレビュー ゾーン - ゾーン - ゾーン ゾーンとリージョン(プレビュー ゾーン ゾーン -
    -
    0 0 12 TiB 12 TiB 0 9 TiB 9 TiB 9 TiB 0 0 0 36 TiB 0 3 TiB 3 TiB 0 3 TiB 0 3 TiB 9 TiB 6 TiB 3 TiB 3 TiB
    - ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン
    - ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン
    - ゾーン ゾーン ゾーン、リージョン ゾーン、リージョン ゾーン、リージョン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン ゾーン、リージョン ゾーン ゾーン ゾーン
    - -
    gVNIC gVNIC gVNIC と IDPF gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net IDPF gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC、VirtIO-Net gVNIC gVNIC、VirtIO-Net gVNIC、VirtIO-Net
    10~50 Gbps 10~100 Gbps 23~100 Gbps 20~100 Gbps 10~50 Gbps 10~32 Gbps 10~32 Gbps 2~32 Gbps 10~32 Gbps 10~32 Gbps 1~16 Gbps 23~100 Gbps 最大 200 Gbps 10~32 Gbps 10~32 Gbps 最大 100 Gbps 最大 32 Gbps 最大 32 Gbps 最大 32 Gbps 2~32 Gbps 最大 1,800 Gbps 24~100 Gbps 10~100 Gbps
    50~100 Gbps 50~200 Gbps 50~200 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 50~200 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 50~100 Gbps 最大 1,800 Gbps 50~100 Gbps 50~100 Gbps
    0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 8 8 16 8
    -
    リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD、フレキシブル CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD リソースベースの CUD
    1.28 1.46 1.00 2.29 1.04 1.43 1.50 1.00 0.96

    GPU とコンピューティング インスタンス

    GPU はワークロードの高速化に使用され、N1、A3、A2、G2 VM インスタンスでサポートされます。N1 マシンタイプを使用する VM では、VM の作成中または作成後に GPU を VM に接続できます。A3、A2、G2 マシンタイプを使用する VM では、VM を作成すると GPU が自動的に接続されます。GPU を他のマシンシリーズと一緒に使用することはできません。

    GPU 数が少ないインスタンスの場合は、vCPU の最大数に制限されます。一般的に、GPU の数が多いほど、vCPU 数が多くメモリサイズが大きいインスタンスを作成できます。詳細については、Compute Engine の GPU をご覧ください。

    次のステップ