このページでは、Standard クラスタのノードで実行可能な Pod の最大数を構成する方法について説明します。この値により、Google Kubernetes Engine(GKE)上のノードに割り振られる IP アドレス範囲の大きさが決まります。ノードで実行される Pod には、そのノードの割り当てられた CIDR 範囲から IP アドレスが割り振られます。
スケジューリングを行う際、GKE はノードあたりの Pod の最大数を使用して、Pod をスケジュールするのに十分な容量があるかどうかを判断します。ノードに割り当てられ、まだ終了していない Pod(Failed
または Succeeded
フェーズ)のみがこの容量としてカウントされます。
Autopilot クラスタでは、ノードの最大数は事前構成済みで不変であるため、このページの手順は適用されません。
始める前に
作業を始める前に、次のことを確認してください。
- Google Kubernetes Engine API を有効にする。 Google Kubernetes Engine API の有効化
- このタスクに Google Cloud CLI を使用する場合は、gcloud CLI をインストールして初期化する。すでに gcloud CLI をインストールしている場合は、
gcloud components update
を実行して最新のバージョンを取得する。
制限事項
- VPC ネイティブ クラスタでは、ノードあたりの最大 Pod 数のみ構成できます。
- ノードの作成は、Pod のアドレス範囲内の使用可能なアドレスの数に限定されます。Pod のアドレス範囲のデフォルト サイズ、最小サイズ、最大サイズについては、IP アドレス範囲の計画表をご覧ください。また、不連続マルチ Pod CIDR を使用して、Pod の IP アドレスを追加することもできます。
各クラスタでは、
kube-system
Namespace に kube-proxy などの kube-system Pod を作成する必要があります。ノードあたりの最大 Pod 数を減らす場合は、ワークロード Pod とシステム Pod の両方を考慮する必要があります。クラスタ内のシステム Pod を一覧表示するには、次のコマンドを実行します。kubectl get pods --namespace kube-system
ノードあたりの最大 Pod 数を構成する
クラスタまたはノードプールの作成時にノードあたりの最大ポッド数を構成できます。クラスタまたはノードプールの作成後に、この設定を変更することはできません。
ただし、Pod の IP アドレスが不足している場合は、不連続マルチ Pod CIDR を使用して、Pod の IP アドレス範囲を追加作成できます。
クラスタの作成時に Pod アドレス範囲のサイズを設定するには、gcloud CLI または Google Cloud コンソールを使用します。
gcloud
gcloud CLI を使用してデフォルトのノードごとの最大 Pod 数を設定するには、次のコマンドを実行します。
gcloud container clusters create CLUSTER_NAME \
--enable-ip-alias \
--cluster-ipv4-cidr=10.0.0.0/21 \
--services-ipv4-cidr=10.4.0.0/19 \
--create-subnetwork=name='SUBNET_NAME',range=10.5.32.0/27 \
--default-max-pods-per-node=MAXIMUM_PODS \
--location=COMPUTE_LOCATION
次のように置き換えます。
CLUSTER_NAME
: 新しいクラスタの名前。SUBNET_NAME
: クラスタの新しいサブネットワークの名前。MAXIMUM_PODS
: クラスタのノードあたりのデフォルトの最大 Pod 数。256
まで構成できます。省略した場合は、Kubernetes によってデフォルト値の110
が割り当てられます。COMPUTE_LOCATION
: 新しいクラスタの Compute Engine のロケーション。
コンソール
Google Cloud コンソールで [Google Kubernetes Engine] ページに移動します。
[add_box 作成] をクリックします。
新しいクラスタを構成します。
ナビゲーション パネルの [クラスタ] の下の [ネットワーキング] をクリックします。
[VPC ネイティブのトラフィック ルーティングを有効にする(エイリアス IP を使用)] チェックボックスが選択されていることを確認します。
ナビゲーション パネルで、[ノードプール] の下の [ノード] をクリックします。
[ノードあたりの最大 Pod 数] フィールドを
110
に設定します。GKE はこの値を使用して、ノードに割り当てられている IP アドレス範囲のサイズを調整します。[作成] をクリックします。
クラスタのノードあたりの最大 Pod 数を構成すると、Kubernetes はこの値を使用してノードに CIDR 範囲を割り当てます。Pod のクラスタの セカンダリ IP アドレス範囲とノードに割り当てられた CIDR 範囲に基づいて、クラスタの最大ノード数を計算できます。
たとえば、Pod のデフォルトの最大数を 110
に設定し、Pod のセカンダリ IP アドレス範囲を /21
に設定すると、Kubernetes は /24
の CIDR 範囲をクラスタのノードに割り当てます。これにより、そのクラスタには、最大 2(24-21) = 23 = 8
個のノードが存在できるようになります。
同様に、Pod のデフォルトの最大数を 8
に設定し、Pod のクラスタのセカンダリ IP アドレス範囲を /21
に設定すると、Kubernetes は /28
の CIDR 範囲をノードに割り当てます。これにより、そのクラスタには、最大 2(28-21) = 27 = 128
個のノードが存在できるようになります。
既存のクラスタの新しいノードプールに Pod の最大数を構成する
既存のクラスタにノードプールを作成するときに、ノードあたりの最大 Pod 数を指定することもできます。新しいノードプールを作成すると、クラスタレベルでノードあたりのデフォルトの最大 Pod 数が構成されていない既存のクラスタでも、IP アドレスの割り振りを最適化できます。
ノードプール レベルで Pod の最大数を設定すると、クラスタレベルのデフォルトの最大値がオーバーライドされます。ノードプールの作成時にノードあたりの最大 Pod 数を構成しない場合は、クラスタレベルの最大数が適用されます。
gcloud
gcloud container node-pools create POOL_NAME \
--cluster=CLUSTER_NAME \
--max-pods-per-node=MAXIMUM_PODS
次のように置き換えます。
POOL_NAME
: 新しいノードプールの名前。CLUSTER_NAME
: ノードプールを作成するクラスタの名前。MAXIMUM_PODS
: ノードプール内の Pod の最大数。
Console
Google Cloud コンソールで Google Kubernetes Engine のページに移動します。
クラスタのリストで、変更するクラスタの名前をクリックします。
add_box [ノードプールを追加] をクリックします。
ナビゲーション パネルで [ノード] をクリックします。
[ネットワーキング] で、[ノードあたりの最大 Pod 数] フィールドに値を入力します。GKE はこの値を使用して、ノードに割り当てられている IP アドレス範囲のサイズを調整します。
ノードあたりのデフォルトの最大 Pod 数について
デフォルトでは、GKE は Standard クラスタでノードあたり最大 110 の Pod が可能ですが、Standard クラスタはノードあたり最大 256 の Pod が可能になるように構成できます。Autopilot クラスタは、予想されるワークロード Pod の密度に基づいて、ノードあたりの最大 Pod 数を 8~256 の範囲から選択します。Kubernetes は、各 Pod に一意の IP アドレスが指定されるように、各ノードに IP アドレスの範囲(CIDR ブロック)を割り当てます。CIDR ブロックのサイズは、ノードあたりの最大 Pod 数に対応します。
Standard クラスタの Pod CIDR 範囲
Standard クラスタで、デフォルトの 1 ノードあたり最大 110 個の Pod の場合、Kubernetes は各ノードに /24 CIDR ブロック(256 アドレス)を割り当てます。ノードで作成できる Pod の最大数の 2 倍以上の利用可能な IP アドレスを指定することで、ノードの Pod が追加 / 削除される際、Kubernetes による IP アドレスの再利用を抑制できます。
ノードあたりの Pod 数は 256 がハードリミットですが、ノードの Pod 数は削減できます。ノードに割り当てられる CIDR ブロックのサイズは、ノードあたりの最大 Pod 数によって異なります。ブロックには、ノードあたりの最大 Pod 数の少なくとも 2 倍のアドレス範囲があります。
次の表では、ノードあたりの最大 Pod 数別に、CIDR ブロックのサイズと、Kubernetes がノードに割り振る IP アドレスの最大数を示します。
ノードあたりの最大 Pod 数 | ノードあたりの CIDR 範囲 | IP アドレスの数 |
---|---|---|
8 | /28 | 16 |
9~16 | /27 | 32 |
17~32 | /26 | 64 |
33~64 | /25 | 128 |
65~128 | /24 | 256 |
129 - 256 | /23 | 512 |
Autopilot クラスタの Pod の CIDR 範囲
GKE Autopilot クラスタでは、ノードあたりの Pod の最大数と関連付けられた CIDR ブロックの割り当ては動的です。つまり、GKE バージョンとワークロード密度によって異なります。
GKE Autopilot バージョン 1.28 以前: ノードあたりの最大 Pod 数は 32 に固定されています。これにより、/26 CIDR ブロック(64 個の IP アドレス)が各ノードに割り当てられます。
GKE Autopilot バージョン 1.28 以降: ノードあたりの最大 Pod 数は動的であり、8~256 の範囲で指定できます。各 Pod に一意の IP アドレスが割り振られるように、CIDR ブロックサイズが適宜調整されます。
Autopilot クラスタのノードあたりの最大 Pod 数が動的であるため、リソースを効率的に使用できます。クラスタはワークロードの要件に自動的に適応し、ノードごとに適切な数の Pod と IP アドレスを割り振ります。
初期クラスタサイズとノードあたりの最大 Pod 数の構成に適合するように、Pod に適切なセカンダリ IP アドレス範囲を選択します。IP アドレスの指定は慎重に計画することをおすすめします。ただし、クラスタのスケーリング時に IP アドレスが不足すると、IP アドレスが追加されるまでスケーリングが停止します。必要に応じて、後でセカンダリ範囲を追加できます。クラスタの作成後に IP アドレス範囲を追加する方法について詳しくは、VPC ネットワークにセカンダリ範囲を追加するをご覧ください。
一般的には、クラスタ内の Pod 密度の増加と変化に柔軟に対応できるように、/16 の範囲(例: cluster-ipv4-cidr=240.0.0.0/16)を指定することをおすすめします。
Autopilot クラスタのネットワーク構成を計画する際は、次の点を考慮してください。
- Pod 密度: ワークロードで必要となる可能性があるクラスタの Pod の最大数を考慮します。
- CIDR 範囲: クラスタサイズと Pod の密度に関する要件の両方に適合する Pod のセカンダリ IP アドレス範囲を選択します。
- 柔軟性: /16 などの大きな CIDR 範囲を指定すると、将来の Pod 密度の増加と変更に対してより柔軟に対応できます。
CIDR 範囲を慎重に計画することで、Autopilot クラスタがニーズに合わせて初期スケーリングできるようにします。ただし、クラスタの増大に伴って IP アドレスの制限が発生した場合は、セカンダリ範囲を追加して、さらなるスケーリングをサポートできます。
Pod の最大数を減らす
ノードあたりの最大 Pod 数を減らすと、IP アドレス空間全体の各ノードに必要な部分が少なくなるため、クラスタにより多くのノードを指定できます。あるいは、クラスタの作成時に Pod により小さい IP アドレス空間を指定すると、クラスタ内で同じ数のノードをサポートできます。
ノードあたりの最大 Pod 数を減らすと、必要な IP アドレスが少ない、より小さなクラスタを作成することもできます。たとえば、ノードあたりのポッド数が 8 の場合、各ノードに /28 CIDR が付与されます。これらの IP アドレス範囲と、定義したサブネットとセカンダリ範囲によって、クラスタを正常に作成するために必要な IP アドレスの数が決まります。
クラスタの作成時およびノードプールの作成時にノードあたりの最大 Pod 数を構成できます。
次のステップ
- VPC ネイティブ クラスタの作成方法を確認する。
- 追加の Pod IP アドレスをクラスタに追加する方法を確認する。
- GKE への移行時の IP アドレス管理戦略を確認する。
- GKE IP アドレスの使用率の分析情報を確認する。