Autopilot でのリソース リクエスト


このページでは、Google Kubernetes Engine(GKE)Autopilot ワークロードに指定できるリソースの最大リクエスト、最小リクエスト、デフォルトのリクエストと、Autopilot がワークロードの安定性を維持するためにこれらのリクエストを自動的に変更する方法について説明します。

Autopilot リソース リクエストの概要

Autopilot は、ワークロード構成に指定したリソース リクエストを使用して、ワークロードを実行するノードを構成します。Autopilot は、ワークロードが使用するコンピューティング クラスまたはハードウェア構成に基づいて、リソースの最小リクエストと最大リクエストを適用します。一部のコンテナのリクエストを指定していない場合、Autopilot は、コンテナが正常に実行されるようにデフォルト値を割り当てます。

Autopilot クラスタにワークロードをデプロイすると、選択したコンピューティング クラスまたはハードウェア構成(GPU など)で許容される最小値と最大値に対してワークロード構成が GKE により検証されます。リクエストが最小値未満の場合は、Autopilot によりワークロード構成が自動的に変更され、リクエストが許容範囲内に導かれます。リクエストが最大値より大きい場合、Autopilot はワークロードを拒否し、エラー メッセージが表示されます。

次のリストでは、リソース リクエストのカテゴリの概要を示します。

  • デフォルトのリソース リクエスト: ワークロードに独自のリクエストを指定しない場合、Autopilot によって追加されます。
  • リソースの最小リクエストと最大リクエスト: Autopilot は、リクエストがこうした制限内に入るようにするために、指定されたリクエストを検証します。リクエストが制限を超えると、Autopilot によってワークロード リクエストが変更されます。
  • ワークロードの分離と期間延長のリクエスト: Autopilot には、互いに分離しているワークロードや GKE が開始した強制排除からの保護を強化した Pod ごとに別々のデフォルト値と最小値があります。
  • DaemonSet のリソース リクエスト: Autopilot では、DaemonSet のコンテナに異なるデフォルト値、最小値、最大値があります。

リソースのリクエスト方法

Autopilot では、リソースを Pod 仕様でリクエストします。リクエストできるサポート対象の最小リソースと最大リソースは、Pod が実行されるノードのハードウェア構成によって変わります。特定のハードウェア構成をリクエストする方法については、次のページをご覧ください。

デフォルトのリソース リクエスト

Pod 内の一部のコンテナにリソース リクエストを指定しない場合、Autopilot はデフォルト値を適用します。これらのデフォルト値は、多くの小規模なワークロードに適しています。

さらに、Autopilot は、選択したコンピューティング クラスやハードウェア構成に関係なく、次のデフォルト リソース リクエストを適用します。

  • DaemonSet のコンテナ

    • CPU: 50 mCPU
    • メモリー: 100 MiB
    • エフェメラルストレージ: 100 MiB
  • その他すべてのコンテナ

    • エフェメラルストレージ: 1 GiB

Autopilot によるクラスタの上限の詳細については、割り当てと上限をご覧ください。

コンピューティング クラスのデフォルト リクエスト

Autopilot では、コンピューティング クラスで実行される Pod の Pod 仕様で定義されていないリソースには、次のデフォルト値が適用されます。一方のリクエストのみを設定し、もう一方を空白のままにすると、GKE は最小リクエストと最大リクエストのセクションで定義されている CPU とメモリの比率を使用して、欠落しているリクエストを比率に沿う値に設定します。

コンピューティング クラス リソース デフォルト リクエスト
汎用(デフォルト) CPU 0.5 vCPU
メモリ 2 GiB
アクセラレータ アクセラレータのデフォルトのリソース セクションをご覧ください。
バランス CPU 0.5 vCPU
メモリ 2 GiB
パフォーマンス CPU
  • C3 マシンシリーズ: 2 vCPU
  • ローカル SSD を使用した C3 マシンシリーズ: 2 vCPU
  • C3D マシンシリーズ: 2 vCPU
  • ローカル SSD を使用した C3D マシンシリーズ: 4 vCPU
  • H3 マシンシリーズ: 80 vCPU
  • C2 マシンシリーズ: 2 vCPU
  • C2D マシンシリーズ: 2 vCPU
  • T2A マシンシリーズ: 2 vCPU
  • T2D マシンシリーズ: 2 vCPU
メモリ
  • C3 マシンシリーズ: 8 GiB
  • ローカル SSD を使用した C3 マシンシリーズ: 8 GiB
  • C3D マシンシリーズ: 8 GiB
  • ローカル SSD を使用した C3D マシンシリーズ: 16 GiB
  • H3 マシンシリーズ: 320 GiB
  • C2 マシンシリーズ: 8 GiB
  • C2D マシンシリーズ: 8 GiB
  • T2A マシンシリーズ: 8 GiB
  • T2D マシンシリーズ: 8 GiB
エフェメラル ストレージ
  • C3 マシンシリーズ: 1 GiB
  • ローカル SSD を使用した C3 マシンシリーズ: 1 GiB
  • C3D マシンシリーズ: 1 GiB
  • ローカル SSD を使用した C3D マシンシリーズ: 1 GiB
  • H3 マシンシリーズ: 1 GiB
  • C2 マシンシリーズ: 1 GiB
  • C2D マシンシリーズ: 1 GiB
  • T2A マシンシリーズ: 1 GiB
  • T2D マシンシリーズ: 1 GiB
スケールアウト CPU 0.5 vCPU
メモリ 2 GiB

アクセラレータのデフォルト リクエスト

次の表に、Pod 仕様の requests フィールドに値が指定されていない Pod に GKE が割り当てるデフォルト値を示します。この表は、Accelerator コンピューティング クラスを使用する Pod に適用されます。これは、Autopilot クラスタでアクセラレータを実行する推奨の方法です。

アクセラレータ リソース トータルのデフォルト リクエスト
NVIDIA H100 Mega(80 GB)GPU
nvidia-h100-mega-80gb
CPU
  • 8 GPU: 200 vCPU
メモリ
  • 8 GPU: 1,400 GiB
エフェメラル ストレージ
  • 8 GPU: 1 GiB
NVIDIA H100(80 GB)GPU
nvidia-h100-80gb
CPU
  • 8 GPU: 200 vCPU
メモリ
  • 8 GPU: 1,400 GiB
エフェメラル ストレージ
  • 8 GPU: 1 GiB
NVIDIA A100(40 GB)GPU
nvidia-tesla-a100
CPU
  • 1 GPU: 9 vCPU
  • 2 GPU: 20 vCPU
  • 4 GPU: 44 vCPU
  • 8 GPU: 92 vCPU
  • 16 GPU: 92 vCPU
メモリ
  • 1 GPU: 60 GiB
  • 2 GPU: 134 GiB
  • 4 GPU: 296 GiB
  • 8 GPU: 618 GiB
  • 16 GPU: 1,250 GiB
NVIDIA A100(80 GB)GPU
nvidia-a100-80gb
CPU
  • 1 GPU: 9 vCPU
  • 2 GPU: 20 vCPU
  • 4 GPU: 44 vCPU
  • 8 GPU: 92 vCPU
メモリ
  • 1 GPU: 134 GiB
  • 2 GPU: 296 GiB
  • 4 GPU: 618 GiB
  • 8 GPU: 1250 GiB
一時ストレージ
  • 1 GPU: 1 GiB
  • 2 GPU: 1 GiB
  • 4 GPU: 1 GiB
  • 8 GPU: 1 GiB
NVIDIA L4 GPU
nvidia-l4
CPU
  • 1 GPU: 2 vCPU
  • 2 GPU: 21 vCPU
  • 4 GPU: 45 vCPU
  • 8 GPU: 93 vCPU
メモリ
  • 1 GPU: 7 GiB
  • 2 GPU: 78 GiB
  • 4 GPU: 170 GiB
  • 8 GPU: 355 GiB
NVIDIA T4 GPU
nvidia-tesla-t4
CPU
  • 1 GPU: 0.5 vCPU
  • 4 GPU: 0.5 vCPU
メモリ
  • 1 GPU: 2 GiB
  • 4 GPU: 2 GiB
TPU Trillium(v6e)(プレビュー)
tpu-v6e-slice(単一ホスト)
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB
TPU Trillium(v6e)(プレビュー)
tpu-v6e-slice(マルチホスト)
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB
TPU v5e
tpu-v5-lite-device(単一ホスト)
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB
TPU v5e
tpu-v5-lite-podslice(マルチホスト)
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB
TPU v5p
tpu-v5p-slice
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB
TPU v4
tpu-v4-podslice
CPU すべてのトポロジ: 1 mCPU
メモリ すべてのトポロジ: 1 MiB

アクセラレータ コンピューティング クラスなしのサポートされている GPU

アクセラレータ コンピューティング クラスを使用しない場合は、次の GPU のみがサポートされます。これらの GPU のデフォルトのリソース リクエストは、アクセラレータ コンピューティング クラスと同じです。

  • NVIDIA A100(40 GB)
  • NVIDIA A100(80 GB)
  • NVIDIA L4
  • NVIDIA Tesla T4

リソースの最小リクエストと最大リクエスト

デプロイ構成でリクエストされるリソースの合計は、Autopilot で許可されていてサポートされている最小値と最大値の範囲内にある必要があります。次の条件が適用されます。

  • エフェメラル ストレージ リクエスト:

    • エフェメラル ストレージは、ノードにローカル SSD が接続されていない限り、VM ブートディスクを使用します。

      A100(80 GB)GPU、H100(80 GB)GPU、Z3 マシンシリーズなど、ローカル SSD を含むコンピューティング ハードウェアは、ローカル SSD のサイズからシステム オーバーヘッドを差し引いた最大リクエストをサポートします。このシステム オーバーヘッドの詳細については、ローカル SSD に基づくエフェメラル ストレージをご覧ください。

    • GKE バージョン 1.29.3-gke.1038000 以降では、ハードウェアにローカル SSD が含まれていない限り、Performance クラスの Pod とハードウェア アクセラレータ Pod は、最大 56 Ti のエフェメラル ストレージ リクエストをサポートしています。

      GKE バージョンに関係なく、他のすべての Autopilot Pod では、Pod 内のすべてのコンテナのエフェメラル ストレージ リクエストの合計は、特に指定しない限り 10 MiB ~ 10 GiB の範囲でなければなりません。

    • 大規模なボリュームの場合は、汎用のエフェメラル ボリュームを使用します。エフェメラル ストレージと同等の機能とパフォーマンスを提供し、どの GKE ストレージ オプションで使用しても高い汎用性があります。たとえば、pd-balanced を使用する汎用エフェメラル ボリュームの最大サイズは 64 TiB です。

  • DaemonSet Pod の場合、最小リソース リクエストは次のとおりです。

    • バーストをサポートするクラスタ: Pod あたり 1 mCPU、Pod あたり 2 MiB のメモリ、Pod 内のコンテナあたり 10 MiB のエフェメラル ストレージ。
    • バーストをサポートしていないクラスタ: Pod あたり 10 mCPU、Pod あたり 10 MiB のメモリ、Pod 内のコンテナあたり 10 MiB のエフェメラル ストレージ。

    クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

  • クラスタがバーストをサポートしている場合、Autopilot は Pod CPU リクエストに 0.25 vCPU の増分は適用しません。クラスタがバーストをサポートしていない場合、Autopilot は CPU リクエストを 0.25 vCPU に切り上げます。クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

  • CPU とメモリの比率は、選択したコンピューティング クラスまたはハードウェア構成で許容される範囲内になければなりません。CPU とメモリの比率が許容範囲を超えている場合、Autopilot は小さい方のリソースを自動的に増加させます。たとえば、Scale-Out クラスで実行されている Pod に 1 vCPU と 16 GiB のメモリ(比率 1:16)をリクエストすると、Autopilot は、CPU リクエストを 4 vCPU に増加させ、比率は 1:4 になります。

コンピューティング クラスの最小値と最大値

Autopilot がサポートするコンピューティング クラスごとの CPU とメモリの最小値、最大値と許容される比率を次の表に示します。

コンピューティング クラス CPUとメモリの比率(vCPU:GiB) リソース 最小 最大
汎用(デフォルト) 1:1~1:6.5 CPU

この値は、クラスタがバーストをサポートしているかどうかによって異なります。

  • バーストをサポートするクラスタ: 50m CPU
  • バーストをサポートしていないクラスタ: 250m CPU

クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

30 vCPU
メモリ

この値は、クラスタがバーストをサポートしているかどうかによって異なります。

  • バーストをサポートするクラスタ: 52 MiB
  • バーストをサポートしていないクラスタ: 512 MiB

クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

110 GiB
アクセラレータ アクセラレータの最小値と最大値をご覧ください。
バランス 1:1~1:8 CPU 0.25 vCPU

222 vCPU

最小 CPU プラットフォームが選択されている場合:

  • Intel プラットフォーム: 126 vCPU
  • AMD プラットフォーム: 222 vCPU
メモリ 0.5 GiB

851 GiB

最小 CPU プラットフォームが選択されている場合:

  • Intel プラットフォーム: 823 GiB
  • AMD プラットフォーム: 851 GiB
パフォーマンス なし CPU 0.001 vCPU
  • C3 マシンシリーズ: 174 vCPU
  • ローカル SSD を使用した C3 マシンシリーズ: 174 vCPU
  • C3D マシンシリーズ: 358 vCPU
  • ローカル SSD を使用した C3D マシンシリーズ: 358 vCPU
  • H3 マシンシリーズ: 86 vCPU
  • C2 マシンシリーズ: 58 vCPU
  • C2D マシンシリーズ: 110 vCPU
  • T2A マシンシリーズ: 46 vCPU
  • T2D マシンシリーズ: 58 vCPU
メモリ 1 MiB
  • C3 マシンシリーズ: 1,345 GiB
  • ローカル SSD を使用した C3 マシンシリーズ: 670 GiB
  • C3D マシンシリーズ: 2,750 GiB
  • ローカル SSD を使用した C3D マシンシリーズ: 1,375 GiB
  • H3 マシンシリーズ: 330 GiB
  • C2 マシンシリーズ: 218 GiB
  • C2D マシンシリーズ: 835 GiB
  • T2A マシンシリーズ: 172 GiB
  • T2D マシンシリーズ: 218 GiB
エフェメラル ストレージ 10 MiB
  • C3 マシンシリーズ: 250 GiB
  • ローカル SSD を使用した C3 マシンシリーズ: 10,000 GiB
  • C3D マシンシリーズ: 250 GiB
  • ローカル SSD を使用した C3D マシンシリーズ: 10,000 GiB
  • H3 マシンシリーズ: 250 GiB
  • C2 マシンシリーズ: 250 GiB
  • C2D マシンシリーズ: 250 GiB
  • T2A マシンシリーズ: 250 GiB
  • T2D マシンシリーズ: 250 GiB

バージョン 1.29.3-gke.1038000 以降では、ハードウェアにローカル SSD が含まれていない限り、エフェメラル ストレージ リクエストの最大値を 56 Ti に指定できます。

スケールアウト 1:4 CPU 0.25 vCPU
  • arm64: 43 vCPU
  • amd64: 54 vCPU
メモリ 1 GiB
  • arm64: 172 GiB
  • amd64: 216 GiB

Autopilot Pod でコンピューティング クラスをリクエストする方法については、Autopilot Pod のコンピューティング クラスを選択するをご覧ください。

アクセラレータの最小値と最大値

次のセクションでは、GPU や TPU などのハードウェア アクセラレータを使用する Pod の CPU とメモリの最小値、最大値、許容される比率について説明します。

特に指定されていない限り、バージョン 1.28.6-gke.1369000 以降と 1.29.1-gke.1575000 以降では、サポートされるエフェメラル ストレージの最大値は 122 GiB です。それより前のバージョンでは、サポートされるエフェメラル ストレージの最大値は 10 GiB です。

アクセラレータ コンピューティング クラスの最小値と最大値

次の表に、アクセラレータ コンピューティング クラスを使用する Pod の最小リソース リクエストと最大リソース リクエストを示します。これは、GKE Autopilot クラスタでアクセラレータを実行するために推奨される方法です。アクセラレータ コンピューティング クラスでは、GKE は CPU とメモリのリクエストの比率を適用しません。

アクセラレータ タイプ リソース 最小 最大
NVIDIA H100 Mega(80 GB)
nvidia-h100-mega-80gb
CPU
  • 8 GPU: 0.001 vCPU
  • 8 GPU: 206 vCPU
メモリ
  • 8 GPU: 1 MiB
  • 8 GPU: 1,795 GiB
エフェメラル ストレージ
  • 8 GPU: 10 MiB
  • 8 GPU: 5,250 GiB
NVIDIA H100(80GB)
nvidia-h100-80gb
CPU
  • 8 GPU: 0.001 vCPU
  • 8 GPU: 206 vCPU
メモリ
  • 8 GPU: 1 MiB
  • 8 GPU: 1,795 GiB
エフェメラル ストレージ
  • 8 GPU: 10 MiB
  • 8 GPU: 5,250 GiB
NVIDIA A100(40GB)
nvidia-tesla-a100
CPU 0.001 vCPU
  • 1 GPU: 11 vCPU
  • 2 GPU: 22 vCPU
  • 4 GPU: 46 vCPU
  • 8 GPU: 94 vCPU
  • 16 GPU: 94 vCPU

A100(80GB)GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ 1 MiB
  • 1 GPU: 74 GiB
  • 2 GPU: 148 GiB
  • 4 GPU: 310 GiB
  • 8 GPU: 632 GiB
  • 16 GPU: 1264 GiB

A100 GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB 超えないようにする必要があります。

NVIDIA A100(80GB)
nvidia-a100-80gb
CPU 0.001 vCPU
  • 1 GPU: 11 vCPU
  • 2 GPU: 22 vCPU
  • 4 GPU: 46 vCPU
  • 8 GPU: 94 vCPU

A100(80GB)GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ 1 MiB
  • 1 GPU: 148 GiB
  • 2 GPU: 310 GiB
  • 4 GPU: 632 GiB
  • 8 GPU: 1264 GiB

A100(80GB)GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB を超えないようにする必要があります。

エフェメラル ストレージ 512 MiB
  • 1 GPU: 280 GiB
  • 2 GPU: 585 GiB
  • 4 GPU: 1220 GiB
  • 8 GPU: 2,540 GiB
NVIDIA L4
nvidia-l4
CPU 0.001 vCPU
  • 1 GPU: 31 vCPU
  • 2 GPU: 23 vCPU
  • 4 GPU: 47 vCPU
  • 8 GPU: 95 vCPU

L4 GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ 1 MiB
  • 1 GPU: 115 GiB
  • 2 GPU: 83 GiB
  • 4 GPU: 177 GiB
  • 8 GPU: 363 GiB

L4 GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB を超えないようにする必要があります。

NVIDIA Tesla T4
nvidia-tesla-t4
CPU 0.001 vCPU
  • 1 GPU: 46 vCPU
  • 2 GPUs: 46 vCPU
  • 4 GPUs: 94 vCPU
メモリ 1 MiB
  • 1 GPU: 287.5 GiB
  • 2 GPU: 287.5 GiB
  • 4 GPU: 587.5 GiB
TPU v5e
tpu-v5-lite-device
CPU 0.001 vCPU
  • 1x1 トポロジ: 24 vCPU
  • 2x2 トポロジ: 112 vCPU
  • 2x4 トポロジ: 224 vCPU
メモリ 1 MiB
  • 1x1 トポロジ: 48 GiB
  • 2x2 トポロジ: 192 GiB
  • 2x4 トポロジ: 384 GiB
エフェメラル ストレージ 10 MiB 56 TiB
TPU v5e
tpu-v5-lite-podslice
CPU 0.001 vCPU
  • 1x1 トポロジ: 24 vCPU
  • 2x2 トポロジ: 112 vCPU
  • 2x4 トポロジ(4 チップ リクエスト): 112 vCPU
  • 2x4 トポロジ(8 チップ リクエスト): 224 vCPU
  • 4x4 トポロジ: 112 vCPU
  • 4x8 トポロジ: 112 vCPU
  • 8x8 トポロジ: 112 vCPU
  • 8x16 トポロジ: 112 vCPU
  • 16x16 トポロジ: 112 vCPU
メモリ 1 MiB
  • 1x1 トポロジ: 48 GiB
  • 2x2 トポロジ: 192 GiB
  • 2x4 トポロジ(4 チップ リクエスト): 192 GiB
  • 2x4 トポロジ(8 チップ リクエスト): 384 GiB
  • 4x4 トポロジ: 192 GiB
  • 4x8 トポロジ: 192 GiB
  • 8x8 トポロジ: 192 GiB
  • 8x16 トポロジ: 192 GiB
  • 16x16 トポロジ: 192 GiB
エフェメラル ストレージ 10 MiB 56 TiB
TPU v5p
tpu-v5p-slice
CPU 0.001 vCPU 280 vCPU
メモリ 1 MiB 448 GiB
エフェメラル ストレージ 10 MiB 56 TiB
TPU v4
tpu-v4-podslice
CPU 0.001 vCPU 240 vCPU
メモリ 1 MiB 407 GiB
エフェメラル ストレージ 10 MiB 56 TiB

Autopilot Pod で GPU をリクエストする方法については、Autopilot に GPU ワークロードをデプロイするをご覧ください。

コンピューティング クラスなしの GPU の最小値と最大値

次の表に、アクセラレータ コンピューティング クラスを使用しない Pod の最小リソース リクエストと最大リソース リクエストを示します。

GPU のタイプ CPU とメモリの比率(vCPU:GiB) リソース 最小 最大
NVIDIA A100(40GB)
nvidia-tesla-a100
未適用 CPU
  • 1 GPU: 9 vCPU
  • 2 GPU: 20 vCPU
  • 4 GPU: 44 vCPU
  • 8 GPU: 92 vCPU
  • 16 GPU: 92 vCPU
  • 1 GPU: 11 vCPU
  • 2 GPU: 22 vCPU
  • 4 GPU: 46 vCPU
  • 8 GPU: 94 vCPU
  • 16 GPU: 94 vCPU

A100(80GB)GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ
  • 1 GPU: 60 GiB
  • 2 GPU: 134 GiB
  • 4 GPU: 296 GiB
  • 8 GPU: 618 GiB
  • 16 GPU: 1250 GiB
  • 1 GPU: 74 GiB
  • 2 GPU: 148 GiB
  • 4 GPU: 310 GiB
  • 8 GPU: 632 GiB
  • 16 GPU: 1264 GiB

A100 GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB 超えないようにする必要があります。

NVIDIA A100(80GB)
nvidia-a100-80gb
未適用 CPU
  • 1 GPU: 9 vCPU
  • 2 GPU: 20 vCPU
  • 4 GPU: 44 vCPU
  • 8 GPU: 92 vCPU
  • 1 GPU: 11 vCPU
  • 2 GPU: 22 vCPU
  • 4 GPU: 46 vCPU
  • 8 GPU: 94 vCPU

A100(80GB)GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ
  • 1 GPU: 134 GiB
  • 2 GPU: 296 GiB
  • 4 GPU: 618 GiB
  • 8 GPU: 1250 GiB
  • 1 GPU: 148 GiB
  • 2 GPU: 310 GiB
  • 4 GPU: 632 GiB
  • 8 GPU: 1264 GiB

A100(80GB)GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB を超えないようにする必要があります。

一時ストレージ
  • 1 GPU: 512 MiB
  • 2 GPU: 512 MiB
  • 4 GPU: 512 MiB
  • 8 GPU: 512 MiB
  • 1 GPU: 280 GiB
  • 2 GPU: 585 GiB
  • 4 GPU: 1220 GiB
  • 8 GPU: 2,540 GiB
NVIDIA L4
nvidia-l4
  • 1 GPU: 1:3.5~1:4
  • 2、4、8 GPU: 未適用
CPU
  • 1 GPU: 2 vCPU
  • 2 GPU: 21 vCPU
  • 4 GPU: 45 vCPU
  • 8 GPU: 93 vCPU
  • 1 GPU: 31 vCPU
  • 2 GPU: 23 vCPU
  • 4 GPU: 47 vCPU
  • 8 GPU: 95 vCPU

L4 GPU ノードで実行されるすべての DaemonSet の CPU リクエストの合計は、2 vCPU を超えないようにする必要があります。

メモリ
  • 1 GPU: 7 GiB
  • 2 GPU: 78 GiB
  • 4 GPU: 170 GiB
  • 8 GPU: 355 GiB
  • 1 GPU: 115 GiB
  • 2 GPU: 83 GiB
  • 4 GPU: 177 GiB
  • 8 GPU: 363 GiB

L4 GPU ノードで実行されるすべての DaemonSet のメモリ リクエストの合計は、14 GiB を超えないようにする必要があります。

NVIDIA Tesla T4
nvidia-tesla-t4
1:1~1:6.25 CPU 0.5 vCPU
  • 1 GPU: 46 vCPU
  • 2 GPUs: 46 vCPU
  • 4 GPUs: 94 vCPU
メモリ 0.5 GiB
  • 1 GPU: 287.5 GiB
  • 2 GPU: 287.5 GiB
  • 4 GPU: 587.5 GiB

Autopilot Pod で GPU をリクエストする方法については、Autopilot に GPU ワークロードをデプロイするをご覧ください。

ワークロードの分離と期間延長のリソース リクエスト

Autopilot を使用すると、次のような方法を使用して Kubernetes のスケジュール設定と強制排除の動作を操作できます。

  • taint と tolerationノードセレクタを使用して、特定の Pod が特定のノードにのみ配置されるようにします。詳細については、GKE でワークロードの分離を構成するをご覧ください。
  • Pod の反アフィニティを使用して、Pod が同じノード上に配置されないようにします。これらのメソッドを使用してスケジューリング動作を制御するワークロードのデフォルトと最小のリソース リクエストは、使用しないワークロードよりも高くなります。
  • アノテーションを使用して、ノードの自動アップグレードとスケールダウン イベントによって強制排除から Pod を最大 7 日間保護します。詳細については、Autopilot Pod の実行時間を延長するをご覧ください。

指定したリクエストが最小値未満の場合、Autopilot の動作は、使用したメソッドに基づいて次のように変化します。

  • taint、toleration、セレクタ、期間延長の Pod: Autopilot は、Pod のスケジュールを設定するときにリクエストを増やすように Pod を変更します。
  • Pod の反アフィニティ: Autopilot は Pod を拒否し、エラー メッセージが表示されます。

次の表に、デフォルトのリクエストと、指定できる最小のリソース リクエストを示します。構成またはコンピューティング クラスがこのテーブルにない場合、Autopilot は特別な最小値またはデフォルト値を適用しません。

コンピューティング クラス リソース Default 最小
汎用 CPU 0.5 vCPU 0.5 vCPU
メモリ 2 GiB 0.5 GiB
バランス CPU vCPU 2 個 1 vCPU
メモリ 8 GiB 4 GiB
スケールアウト CPU 0.5 vCPU 0.5 vCPU
メモリ 2 GiB 2 GiB

初期コンテナ

Init コンテナは連続で実行され、アプリケーション コンテナを開始する前に完了する必要があります。Autopilot init コンテナにリソース リクエストを指定しない場合、GKE は各 init コンテナに対して Pod が利用できるトータルのリソースを割り当てます。この動作は GKE Standard では異なります。各 init コンテナは、Pod がスケジュールされているノードで使用可能な未割り当てリソースを使用できます。

アプリケーション コンテナとは異なり、GKE では Autopilot 初期コンテナにリソース リクエストを指定しないことをおすすめします。これにより、各コンテナは Pod で使用可能なすべてのリソースを取得できます。リクエストするリソースがデフォルトより少ない場合は、初期コンテナを制限します。Autopilot のデフォルトよりも多くのリソースをリクエストすると、Pod の存続期間に対して請求額が増える可能性があります。

Autopilot でリソース制限を設定する

Kubernetes では、Pod 仕様のリソースに requestslimits の両方を設定できます。Pod の動作は、次の表に示すように、limitsrequests と異なるかどうかによって異なります。

値の設定 Autopilot の動作
requestslimits と等しい Pod は Guaranteed QoS クラスを使用します。
requests は設定、limits は未設定

動作は、クラスタがバーストをサポートしているかどうかによって異なります。

  • バースト機能をサポートするクラスタ: Pod は、使用可能なバースト可能な容量までバーストできます。
  • バーストをサポートしていないクラスタ: GKE は limitsrequests に設定します。

クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

requests は未設定、limits は設定 Autopilot は、requestslimits の値に設定します。これは Kubernetes のデフォルトの動作です。

変更前:

resources:
  limits:
    cpu: "400m"

変更後:

resources:
  requests:
    cpu: "400m"
  limits:
    cpu: "400m"
requestslimits より小さい

動作は、クラスタがバーストをサポートしているかどうかによって異なります。

  • バースト機能をサポートするクラスタ: Pod は、limits で指定された値までバーストできます。
  • バーストをサポートしていないクラスタ: GKE は limitsrequests に設定します。

クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

requestslimits より大きい Autopilot は、requestslimits の値に設定します。

変更前:

resources:
  requests:
    cpu: "450m"
  limits:
    cpu: "400m"

変更後:

resources:
  requests:
    cpu: "400m"
  limits:
    cpu: "400m"
requests は未設定、limits は未設定

Autopilot は、requests をコンピューティング クラスまたはハードウェア構成のデフォルト値に設定します。

limits の動作は、クラスタがバーストをサポートしているかどうかによって異なります。

  • バーストをサポートするクラスタ: Autopilot は limits を設定しません。
  • バーストをサポートしていないクラスタ: GKE は limitsrequests に設定します。

クラスタがバーストをサポートしているかどうかを確認するには、GKE でのバーストの可用性をご覧ください。

ほとんどの場合、ワークロードに適切なリソース リクエストと同等の上限を設定します。

起動時やトラフィックの増加時など、定常状態よりも一時的に多くのリソースを必要とするワークロードの場合は、リクエストよりも高い上限を設定して Pod をバーストできるようにします。詳細については、GKE で Pod バーストを構成するをご覧ください。

Autopilot での自動リソース管理

ワークロードに指定したリソース リクエストが許可された範囲外の場合、または一部のコンテナ用のリソースをリクエストしない場合、Autopilot は、許可された範囲に適合するようにワークロード構成を変更します。Autopilot は、リクエストが指定されていないコンテナにデフォルト値を適用したうえで、リソース比率とリソースのスケールアップ要件を計算します。

  • リクエストがない: 一部のコンテナでリソースをリクエストしない場合、Autopilot はコンピューティング クラスまたはハードウェア構成のデフォルトのリクエストを適用します。
  • CPUとメモリの比率: Autopilot は、小さい方のリソースをスケールアップして、比率が許容範囲内になるようにします。
  • エフェメラルストレージ: Autopilot は、各コンテナで必要な最小サイズを満たすようにエフェメラルストレージ リクエストを変更します。すべてのコンテナにわたるストレージ リクエストの累積値は、最大許容値を超えることはできません。1.28.6-gke.1317000 より前では、値が最大値を超えると、Autopilot はリクエストされたエフェメラル ストレージをスケールダウンします。バージョン 1.28.6-gke.1317000 以降では、Autopilot はワークロードを拒否します。
  • 最小数を下回るリクエスト: 選択したハードウェア構成で許容される最小リソース数よりも少ないリソースをリクエストすると、Autopilot は、少なくとも最小リソース値をリクエストするように Pod を自動的に変更します。

デフォルトでは、Autopilot が最小またはデフォルトのリソース値を満たすようにリソースを自動的にスケーリングすると、GKE は追加の容量を Pod マニフェストの最初のコンテナに割り当てます。GKE バージョン 1.27.2-gke.2200 以降では、Pod マニフェストの annotations フィールドに次のコードを追加して、追加のリソースを特定のコンテナに割り当てるように GKE に指示できます。

autopilot.gke.io/primary-container: "CONTAINER_NAME"

CONTAINER_NAME は、コンテナの名前に置き換えます。

リソースの変更の例

次のシナリオ例では、実行中の Pod とコンテナの要件を満たすように Autopilot がワークロード構成を変更する方法を示します。

単一コンテナで 0.05 vCPU 未満の場合

コンテナ数 元のリクエスト 変更されたリクエスト
1 CPU: 30 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
CPU: 50 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB

複数のコンテナの合計 CPU が 0.05 vCPU 未満の場合

コンテナ数 元のリクエスト 変更されたリクエスト
1 CPU: 10 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
CPU: 30 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
2 CPU: 10 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
CPU: 10 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
3 CPU: 10 mvCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
CPU: 10 mCPU
メモリ: 0.5 GiB
エフェメラル ストレージ: 10 MiB
Pod リソースの合計 CPU: 50 mCPU
メモリ: 1.5 GiB
エフェメラル ストレージ: 30 MiB

単一コンテナで、リクエストされた CPU に対してメモリが低すぎる場合

この例では、メモリが CPU の量に対して少なすぎます。(最小比は 1 vCPU : 1 GiB)CPU とメモリの許容最小比は 1:1 です。この値より小さい場合は、メモリ リクエストが引き上げられます。

コンテナ数 元のリクエスト 変更されたリクエスト
1 CPU: 4 vCPU
メモリ: 1 GiB
エフェメラル ストレージ: 10 MiB
CPU: 4 vCPU
メモリ: 4 GiB
エフェメラル ストレージ: 10 MiB
Pod リソースの合計 CPU: 4 vCPU
メモリ: 4 GiB
エフェメラル ストレージ: 10 MiB

次のステップ