このドキュメントでは、kubeception を使用してバージョン 1.29 ユーザー クラスタを Controlplane V2 に移行する方法について説明します。クラスタのバージョンが 1.30 以降の場合は、推奨機能へのクラスタの移行を計画するの説明に従って操作することをおすすめします。
1.29: プレビュー
1.28: 利用不可
ユーザー クラスタ コントロール プレーンについて
Google Distributed Cloud バージョン 1.13 より前は、ユーザー クラスタのコントロール プレーンは管理クラスタ内の 1 つ以上のノードで実行されていました。この種類のコントロール プレーンは kubeception と呼ばれます。バージョン 1.13 では、新しいユーザー クラスタ用に Controlplane V2 が導入されました。コントロール プレーン V2 が有効になっている場合、ユーザー クラスタのコントロール プレーンはユーザー クラスタ自体で実行されます。
Controlplane V2 には、次のメリットがあります。
障害の分離。管理クラスタの障害は、ユーザー クラスタに影響を与えません。
運用上の分離。管理クラスタのアップグレードでユーザー クラスタのダウンタイムは発生しません。
デプロイの分離。管理クラスタとユーザー クラスタを、異なる障害発生ドメインまたは地理的な場所に配置できます。たとえば、エッジ ロケーションのユーザー クラスタが、管理クラスタとは異なる地理的な場所にある場合があります。
要件
ユーザー クラスタを Controlplane V2 に移行するには、ユーザー クラスタが次の要件を満たしている必要があります。
ユーザー クラスタはバージョン 1.29 以降である必要があります。管理クラスタとノードプールは、ユーザー クラスタより 1 つまたは 2 つ前のマイナー バージョンにする必要があります。必要に応じて、クラスタをアップグレードします。
ユーザー クラスタで Dataplane V2 が有効になっている必要があります。このフィールドは不変です。クラスタで Dataplane V2 が有効になっていない場合、Controlplane V2 に移行することはできません。
ユーザー クラスタは、MetalLB または手動ロードバランサを使用するように構成する必要があります。ユーザー クラスタで SeeSaw ロードバランサを使用している場合は、MetalLB に移行できます。
IP アドレス計画のドキュメントを確認し、ユーザー クラスタのコントロール プレーン ノードに十分な IP アドレスがあることを確認します。コントロール プレーン ノードには静的 IP アドレスが必要です。新しいコントロール プレーン仮想 IP(VIP)には追加の IP アドレスが必要になります。
移行を準備する
ユーザー クラスタで Secret の常時暗号化が有効になっている場合は、移行を開始する前に、Secret の常時暗号化を無効にして Secret を復号するの手順に沿って操作する必要があります。そうしないと、新しい Controlplane V2 クラスタは Secret を復号できません。
移行を開始する前に、次のコマンドを実行して、Secret の常時暗号化が有効になったことがあるかどうかを確認します。
kubectl --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ get onpremusercluster USER_CLUSTER_NAME \ -n USER_CLUSTER_NAME-gke-onprem-mgmt \ -o jsonpath={.spec.secretsEncryption}
前のコマンドの出力が空の場合、Secret の常時暗号化は有効になっていないため、移行を開始できます。
前述のコマンドの出力が空でない場合、Secret の常時暗号化が以前に有効にされていました。移行する前に、次のセクションの手順に沿って、新しい Controlplane V2 クラスタが Secret を復号できるようにする必要があります。
次の例は、空でない出力を示しています。
{"generatedKeyVersions":{"keyVersions":[1]}}
必要に応じて、Secret の常時暗号化を無効にして Secret を復号する
Secret の常時暗号化を無効にして Secret を復号するには、次の操作を行います。
ユーザー クラスタの構成ファイルで、Secret の常時暗号化を無効にするには、
secretsEncryption
セクションにdisabled: true
フィールドを追加します。secretsEncryption: mode: GeneratedKey generatedKey: keyVersion: KEY_VERSION disabled: true
クラスタを更新します。
gkectl update cluster --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG
次のように置き換えます。
ADMIN_CLUSTER_KUBECONFIG
: 管理クラスタの kubeconfig ファイルのパスUSER_CLUSTER_CONFIG
: ユーザー クラスタの構成ファイルのパス
次のように、特定の DaemonSet でローリング アップデートを行います。
kubectl --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ rollout restart statefulsets kube-apiserver \ -n USER_CLUSTER_NAME
ユーザー クラスタ内のすべての Secret のマニフェストを YAML 形式で取得します。
kubectl --kubeconfig USER_CLUSTER_KUBECONFIG \ get secrets -A -o yaml > SECRETS_MANIFEST.yaml
すべての Secret が平文として etcd に保存されるように、ユーザー クラスタ内のすべての Secret を再適用します。
kubectl --kubeconfig USER_CLUSTER_KUBECONFIG \ apply -f SECRETS_MANIFEST.yaml
これで、Controlplane V2 への移行を開始できます。移行が完了したら、クラスタで Secret の常時暗号化を有効にできます。
ユーザー クラスタの構成ファイルを更新する
ユーザー クラスタ構成ファイルを次のように変更します。
enableControlplaneV2
を true に設定します。必要に応じて、Controlplane V2 ユーザー クラスタのコントロール プレーンを高可用性(HA)にします。非 HA クラスタから HA クラスタに変更するには、
masterNode.replicas
を 1 から 3 に変更します。ユーザー クラスタ コントロール プレーン ノードの静的 IP アドレスを
network.controlPlaneIPBlock.ips
セクションに追加します。network.controlPlaneIPBlock
セクションにネットマスクとゲートウェイを入力します。network.hostConfig
セクションが空白の場合は、入力します。ユーザー クラスタで手動ロード バランシングを使用する場合は、次のセクションで説明するようにロードバランサを構成します。
ユーザー クラスタで手動ロード バランシングを使用している場合は、
loadBalancer.manualLB.controlPlaneNodePort
とloadBalancer.manualLB.konnectivityServerNodePort
を 0 に設定します。Controlplane V2 が有効になっているときに、この機能は必要ありません。loadBalancer.vips.controlPlaneVIP
フィールドを更新して、コントロール プレーン VIP の新しい IP アドレスを指定します。コントロール プレーン ノードの IP アドレスと同じ VLAN に存在する必要があります。移行のためにクラスタを更新する場合を除き、以前のフィールドはすべて不変です。すべての設定を再度確認してください。
gkectl diagnose cluster
を実行し、コマンドで検出された問題を修正します。gkectl diagnose cluster --kubeconfig=ADMIN_CLUSTER_KUBECONFIG \ --cluster-name=USER_CLUSTER_NAME
次のように置き換えます。
ADMIN_CLUSTER_KUBECONFIG
: 管理クラスタの kubeconfig ファイルのパスUSER_CLUSTER_NAME
: ユーザー クラスタの名前。
手動ロードバランサの構成を調整する
ユーザー クラスタで手動ロード バランシングを使用している場合は、このセクションで説明する操作を行います。それ以外の場合は、このセクションをスキップします。
CPv2 ユーザー クラスタのロードバランサの構成と同様に、network.controlPlaneIPBlock セクションで指定した 3 つの新しいコントロールプレーン ノード IP アドレスそれぞれに、ロードバランサでマッピングを構成します。
- (ingressVIP:80) -> (NEW_NODE_IP_ADDRESS:ingressHTTPNodePort)
- (ingressVIP:443) -> (NEW_NODE_IP_ADDRESS:ingressHTTPNodePort)
クラスタを更新します。
次のコマンドを実行して、クラスタを Controlplane V2 に移行します。
gkectl update cluster \ --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG
次のように置き換えます。
ADMIN_CLUSTER_KUBECONFIG
: 管理クラスタの kubeconfig ファイルのパス。USER_CLUSTER_CONFIG
: ユーザー クラスタの構成ファイルのパス
このコマンドは、次のことを行います。
ControlPlane V2 を有効にして、新しいクラスタのコントロール プレーンを作成します。
kubeception クラスタの Kubernetes コントロール プレーンを停止します。
kubeception クラスタの etcd スナップショットを作成します。
kubeception クラスタのユーザー クラスタ コントロール プレーン ノードをオフにします。障害復旧(Kubeception クラスタへのフォールバック)のため、移行が完了するまでノードは削除されません。
前述の etcd スナップショットを使用して、新しいコントロール プレーンでクラスタデータを復元します。
kubeception クラスタのノードプール ノードを新しいコントロール プレーンに接続します。新しい
controlPlaneVIP
を使用してアクセスできます。復元されたユーザー クラスタを調整して、ControlPlane V2 が有効になっているクラスタの最終状態を満たします。
注
移行中、ユーザー クラスタのワークロードはダウンタイムなしで実行されます。
移行中、ユーザー クラスタのコントロール プレーンでダウンタイムが発生します。具体的には、ステップ 2 からステップ 6 の完了まで、コントロール プレーンは使用できません(Google のテストではダウンタイムは 7 分未満ですが、実際の長さはインフラストラクチャによって異なります)。
移行が完了すると、kubeception クラスタのユーザー クラスタ コントロール プレーン ノードが削除されます。管理クラスタで network.ipMode.type が static に設定されている場合、管理クラスタの構成ファイルから未使用の静的 IP を削除して
gkectl update admin
を実行すると、未使用の静的 IP の一部をリサイクルできます。kubectl get nodes -o wide
を使用して管理クラスタ ノード オブジェクトを一覧取得し、使用中の IP を確認できます。
移行後
移行前に Secret の常時暗号化を無効にした場合は、次の手順でこの機能を再度有効にします。
ユーザー クラスタの構成ファイルで、
secretsEncryption.generatedKey.disabled
を false に設定します。例:secretsEncryption: mode: GeneratedKey generatedKey: keyVersion: KEY_VERSION disabled: false
ユーザー クラスタを更新します。
gkectl update cluster --kubeconfig ADMIN_CLUSTER_KUBECONFIG \ --config USER_CLUSTER_CONFIG