Fehler beim Erstellen oder Upgraden von Clustern beheben

Auf dieser Seite wird beschrieben, wie Sie Probleme im Zusammenhang mit der Installation oder dem Upgrade von Google Distributed Cloud-Clustern beheben.

Wenn Sie weitere Unterstützung benötigen, wenden Sie sich an den Cloud Customer Care.

Installationsprobleme

Die folgenden Abschnitte können Ihnen möglicherweise bei der Behebung von Problemen bei der Installation von Google Distributed Cloud helfen.

Vorübergehende Fehlermeldungen

Der Installationsprozess für Google Distributed Cloud ist eine kontinuierliche Abgleichsschleife. Während der Installation werden möglicherweise vorübergehende Fehlermeldungen im Log angezeigt.

Wenn die Installation erfolgreich abgeschlossen wurde, können diese Fehler einfach ignoriert werden. Im Folgenden finden Sie eine Liste typischer Fehlerprotokollmeldungen:

  Internal error occurred: failed calling webhook "webhook.cert-manager.io": Post
  https://cert-manager-webhook.cert-manager.svc:443/mutate?timeout=10s:
  dial tcp IP_ADDRESS:443: connect: connection refused
  Internal error occurred: failed calling webhook "vcluster.kb.io": Post
  https://webhook-service.kube-system.svc:443/validate-baremetal-cluster-gke-io-v1-cluster?timeout=30s:
  dial tcp IP_ADDRESS:443: connect: connection refused
  Failed to register cluster with GKE Hub; gcloud output: error running command
  'gcloud container fleet memberships register CLUSTER_NAME  --verbosity=error --quiet':
  error: exit status 1, stderr: 'ERROR: (gcloud.container.hub.memberships.register)
  Failed to check if the user is a cluster-admin: Unable to connect to the server: EOF
  Get
  https://127.0.0.1:34483/apis/infrastructure.baremetal.cluster.gke.io/v1/namespaces/cluster-
  cluster1/baremetalmachines: dial tcp 127.0.0.1:34483: connect: connection refused"
  Create Kind Cluster "msg"="apply run failed" "error"="unable to recognize \"/tmp/kout088683152\": no matches for kind \"NetworkLogging\" in version \"networking.gke.io/v1alpha1\""
  Create Kind Cluster "msg"="apply run failed" "error"="unable to recognize \"/tmp/kout869681888\": no matches for kind \"Provider\" in version \"clusterctl.cluster.x-k8s.io/v1alpha3\""

Wenn Ihr Google Cloud-Dienstkontoschlüssel abgelaufen ist, werden die folgenden Fehlermeldungen von bmctl angezeigt:

Error validating cluster config: 3 errors occurred:
        * GKEConnect check failed: Get https://gkehub.googleapis.com/v1beta1/projects/project/locations/global/memberships/admin: oauth2: cannot fetch token: 400 Bad Request
Response: {"error":"invalid_grant","error_description":"Invalid JWT Signature."}
        * ClusterOperations check failed: Post https://cloudresourcemanager.googleapis.com/v1/projects/project:testIamPermissions?alt=json&prettyPrint=false: oauth2: cannot fetch token: 400 Bad Request
Response: {"error":"invalid_grant","error_description":"Invalid JWT Signature."}
        * GCR pull permission for bucket: artifacts.anthos-baremetal-release.appspot.com failed: Get https://storage.googleapis.com/storage/v1/b/artifacts.anthos-baremetal-release.appspot.com/iam/testPermissions?alt=json&permissions=storage.objects.get&permissions=storage.objects.list&prettyPrint=false: oauth2: cannot fetch token: 400 Bad Request
Response: {"error":"invalid_grant","error_description":"Invalid JWT Signature."}

Sie müssen einen neuen Dienstkontoschlüssel generieren.

Bootstrap-Cluster zum Beheben von Problemen verwenden

Wenn Google Distributed Cloud selbstverwaltete (Administrator-, Hybrid- oder Standalone-)Cluster erstellt, wird ein Kubernetes in Docker (Art) Cluster bereitgestellt, der vorübergehend die zum Erstellen von Clustern erforderlichen Kubernetes-Controller hostet. Dieser vorübergehende Cluster wird als Bootstrap-Cluster bezeichnet. Nutzercluster werden von ihrem verwaltenden Administrator- oder Hybridcluster ohne Verwendung eines Bootstrap-Clusters erstellt und aktualisiert.

Wenn in Ihrer Bereitstellung bereits ein Artcluster vorhanden ist und Sie versuchen, einen Cluster zu installieren, löscht Google Distributed Cloud den vorhandenen Artcluster. Der Löschvorgang erfolgt erst, nachdem die Installation oder das Upgrade erfolgreich war. Wenn Sie den vorhandenen Artcluster beibehalten möchten, verwenden Sie das Flag --keep-bootstrap-cluster von bmctl.

Google Distributed Cloud erstellt eine Konfigurationsdatei für den Bootstrap-Cluster unter WORKSPACE_DIR/.kindkubeconfig. Sie können eine Verbindung zum Bootstrap-Cluster nur während der Erstellung und des Upgrades des Clusters herstellen.

Der Bootstrap-Cluster muss auf ein Docker-Repository zugreifen, um Images abrufen zu können. Die Registry verwendet standardmäßig Container Registry, es sei denn, Sie verwenden eine private Registry. Während der Clustererstellung erstellt bmctl die folgenden Dateien:

  • bmctl-workspace/config.json: enthält Anmeldedaten für das Google Cloud-Dienstkonto für den Registry-Zugriff. Die Anmeldedaten werden aus dem Feld gcrKeyPath in der Clusterkonfigurationsdatei abgerufen.

  • bmctl-workspace/config.toml: Enthält die containerd-Konfiguration im kind-Cluster.

Bootstrap-Clusterlogs prüfen

So beheben Sie Fehler beim Bootstrap-Cluster:

  • Stellen Sie während der Clustererstellung und -aktualisierung eine Verbindung zum Bootstrap-Cluster her.
  • Rufen Sie die Logs des Bootstrap-Clusters ab.

Sie finden die Logs auf dem Computer, auf dem Sie bmctl ausführen, in den folgenden Ordnern:

  • bmctl-workspace/CLUSTER_NAME/log/create-cluster-TIMESTAMP/bootstrap-cluster/
  • bmctl-workspace/CLUSTER_NAME/log/upgrade-cluster-TIMESTAMP/bootstrap-cluster/

Ersetzen Sie CLUSTER_NAME und TIMESTAMP durch den Namen Ihres Clusters und die Zeit des entsprechenden Systems.

Um die Logs direkt vom Bootstrap-Cluster abzurufen, können Sie während der Clustererstellung und -aktualisierung den folgenden Befehl ausführen:

docker exec -it bmctl-control-plane bash

Der Befehl öffnet ein Terminal innerhalb des Containers der bmctl-Steuerungsebene, der im Bootstrap-Cluster ausgeführt wird.

Prüfen Sie die Logs kubelet und containerd mit den folgenden Befehlen und suchen Sie in der Ausgabe nach Fehlern oder Warnungen:

journalctl -u kubelet
journalctl -u containerd

Probleme beim Clusterupgrade

Wenn Sie Google Distributed Cloud-Cluster upgraden, können Sie den Fortschritt überwachen und den Status Ihrer Cluster und Knoten prüfen.

Anhand der folgenden Anleitung können Sie feststellen, ob das Upgrade wie gewohnt fortgesetzt wird oder ein Problem auftritt.

Upgrade-Fortschritt überwachen

Verwenden Sie den Befehl kubectl describe cluster, um den Status eines Clusters während des Upgrades anzusehen:

kubectl describe cluster CLUSTER_NAME \
    --namespace CLUSTER_NAMESPACE \
    --kubeconfig ADMIN_KUBECONFIG

Ersetzen Sie die folgenden Werte:

  • CLUSTER_NAME: der Name Ihres Clusters.
  • CLUSTER_NAMESPACE: der Namespace Ihres Clusters.
  • ADMIN_KUBECONFIG: die kubeconfig-Datei des Administrators.
    • Standardmäßig verwenden Administrator-, Hybrid- und Standalone-Cluster ein direktes Upgrade. Wenn Sie das Flag --use-bootstrap=true mit dem Befehl bmctl upgrade verwenden, verwendet der Upgradevorgang einen Bootstrap-Cluster. Um den Upgradefortschritt bei Verwendung eines Bootstrap-Clusters zu prüfen, geben Sie den Pfad zur kubeconfig-Datei des Bootstrap-Clusters an, .kindkubeconfig. Diese Datei befindet sich im Arbeitsbereichsverzeichnis.

Sehen Sie sich den Abschnitt Status der Ausgabe an, der eine Aggregation des Cluster-Upgrade-Status enthält. Wenn der Cluster einen Fehler meldet, verwenden Sie die folgenden Abschnitte, um die Ursache des Problems zu beheben.

Prüfen, ob die Knoten bereit sind

Verwenden Sie den Befehl kubectl get nodes, um den Status von Knoten in einem Cluster während des Upgrades anzusehen:

kubectl get nodes --kubeconfig KUBECONFIG

Sehen Sie sich in der Befehlsantwort die Spalten VERSION und AGE an, um zu prüfen, ob ein Knoten den Upgradeprozess erfolgreich abgeschlossen hat. VERSION ist die Kubernetes-Version für den Cluster. Die Kubernetes-Version für eine bestimmte Google Distributed Cloud-Version finden Sie unter Versionsverwaltung.

Wenn der Knoten NOT READY anzeigt, versuchen Sie, den Knoten zu verbinden und den Kubelet-Status zu prüfen:

systemctl status kubelet

Sie können auch die Kubelet-Logs prüfen:

journalctl -u kubelet

Prüfen Sie die Ausgabe des Kubelet-Status und der Logs zu Nachrichten, die angeben, warum der Knoten ein Problem hat.

Prüfen, welcher Knoten aktualisiert wird

Mit dem Befehl kubectl get baremetalmachines können Sie prüfen, für welchen Knoten im Cluster gerade ein Upgrade durchgeführt wird:

kubectl get baremetalmachines --namespace CLUSTER_NAMESPACE \
    --kubeconfig ADMIN_KUBECONFIG

Ersetzen Sie die folgenden Werte:

  • CLUSTER_NAMESPACE: der Namespace Ihres Clusters.
  • ADMIN_KUBECONFIG: die kubeconfig-Datei des Administrators.
    • Wenn ein Bootstrap-Cluster für ein Administrator-, Hybrid- oder Standalone-Upgrade verwendet wird, geben Sie die kubeconfig-Datei des Bootstrap-Clusters an (bmctl-workspace/.kindkubeconfig).

Die folgende Beispielausgabe zeigt, dass der Knoten, der aktualisiert wird, über eine ABM VERSION verfügt, die sich von der DESIRED ABM VERSION unterscheidet:

NAME         CLUSTER    READY   INSTANCEID               MACHINE      ABM VERSION   DESIRED ABM VERSION
10.200.0.2   cluster1   true    baremetal://10.200.0.2   10.200.0.2   1.13.0        1.14.0
10.200.0.3   cluster1   true    baremetal://10.200.0.3   10.200.0.3   1.13.0        1.13.0

Prüfen, welche Knoten gerade per Drain beendet werden

Während des Upgrades werden Knoten von Pods entleert und die Planung ist deaktiviert, bis der Knoten erfolgreich aktualisiert wurde. Verwenden Sie den Befehl kubectl get nodes, um festzustellen, welche Knoten per Drain beendet werden:

kubectl get nodes --kubeconfig USER_CLUSTER_KUBECONFIG | grep "SchedulingDisabled"

Ersetzen Sie USER_CLUSTER_KUBECONFIG durch den Pfad zur Kubeconfig-Datei des Nutzerclusters.

Die Spalte STATUS wird mit grep gefiltert, sodass nur Knoten angezeigt werden, die SchedulingDisabled berichten. Dieser Status zeigt an, dass die Knoten per Drain beendet werden.

Sie können den Knotenstatus auch vom Administratorcluster aus prüfen:

kubectl get baremetalmachines -n CLUSTER_NAMESPACE \
  --kubeconfig ADMIN_KUBECONFIG

Ersetzen Sie die folgenden Werte:

  • CLUSTER_NAMESPACE: der Namespace Ihres Clusters.
  • ADMIN_KUBECONFIG: die kubeconfig-Datei des Administrators.
    • Wenn ein Bootstrap-Cluster für ein Administrator-, Hybrid- oder Standalone-Upgrade verwendet wird, geben Sie die kubeconfig-Datei des Bootstrap-Clusters an (bmctl-workspace/.kindkubeconfig).

Für den Knoten, der per Drain beendet wird, wird der Status unter der Spalte MAINTENANCE angezeigt.

Prüfen, warum ein Knoten seit langer Zeit per Drain beendet wurde

Verwenden Sie eine der Methoden im vorherigen Abschnitt, um den Knoten, der geleert wird, mithilfe des Befehls kubectl get nodes zu identifizieren. Verwenden Sie den Befehl kubectl get pods und filtern Sie nach diesem Knotennamen, um zusätzliche Details anzusehen:

kubectl get pods --all-namespaces -o wide --field-selector spec.nodeName=NODE_NAME

Ersetzen Sie NODE_NAME durch den Namen des Knoten, der per Drain beendet wird. Die Ausgabe gibt eine Liste von Pods zurück, die hängen bleiben oder langsam per Drain beendet werden. Das Upgrade wird auch bei hängen gebliebenen Pods fortgesetzt, wenn der Draining-Prozess auf einem Knoten länger als 20 Minuten dauert.

Ab Version 1.29 verwendet der Knotenausgleich-Prozess die Eviction API, die PodDisruptionBudgets (PDBs) berücksichtigt.

Die folgenden PDB-Einstellungen können zu Problemen mit dem Knotenausgleich führen:

  • Pods, die von mehreren PDBs verwaltet werden

  • Statische PDB-Konfigurationen wie die folgenden:

    • maxUnavailable == 0
    • minUnavailable >= Replikate insgesamt

    Die Gesamtzahl der Replikate ist schwierig aus der PDB-Ressource zu ermitteln, da sie in einer übergeordneten Ressource definiert ist, z. B. in einem Deployment, ReplicaSet oder StatefulSet. Der Abgleich von PDBs mit Pods verläuft ausschließlich anhand des selector in ihrer Konfiguration. Wenn Sie feststellen möchten, ob eine statische PDB-Konfiguration ein Problem verursacht, sollten Sie zuerst untersuchen, ob pdb.Status.ExpectPods <= pdb.Status.DesiredHealthy ist, und dann prüfen, ob eine der erwähnten statischen Konfigurationen dies zulässt.

Laufzeitverstöße, z. B. wenn der berechnete Wert DisruptionsAllowed für eine PDB-Ressource 0 ist, können auch den Knotenausgleich blockieren. Wenn Sie PodDisruptionBudget-Objekte konfiguriert haben, die keine zusätzlichen Unterbrechungen zulassen, werden Knotenupgrades nach wiederholten Versuchen möglicherweise nicht auf die Version der Steuerungsebene aktualisiert. Zur Vermeidung dieses Fehlers empfehlen wir eine vertikale Skalierung von Deployment oder HorizontalPodAutoscaler, damit der Knoten unter Berücksichtigung der PodDisruptionBudget-Konfiguration entleert wird.

Wenn Sie alle PodDisruptionBudget-Objekte sehen möchten, die keine Unterbrechungen zulassen, verwenden Sie folgenden Befehl:

kubectl get poddisruptionbudget --all-namespaces \
    -o jsonpath='{range .items[?(@.status.disruptionsAllowed==0)]}{.metadata.name}/{.metadata.namespace}{"\n"}{end}'

Pods auf Fehler prüfen

Upgrades können fehlschlagen, wenn ein Pod upgrade-first-node- oder upgrade-node-IP-Adressen der Steuerungsebene enthält. Dieses Verhalten ist in der Regel darauf zurückzuführen, dass die statischen Pods nicht fehlerfrei sind.

  1. Prüfen Sie die statischen Pods mit dem Befehl crictl ps -a und suchen Sie nach Kubernetes- oder etcd-Pods, die abstürzen. Wenn fehlgeschlagene Pods vorhanden sind, überprüfen Sie die Logs für die Pods, um festzustellen, warum sie abstürzen.

    Hier einige Möglichkeiten für Absturzschleifen:

    • Berechtigungen oder Eigentümer von Dateien, die in statischen Pods bereitgestellt werden, sind nicht korrekt.
    • Die Verbindung zur virtuellen IP-Adresse funktioniert nicht.
    • Probleme mit etcd.
  2. Wenn der Befehl crictl ps nicht funktioniert oder nichts zurückgibt, prüfen Sie den Status kubelet und containerd. Verwenden Sie die Befehle systemctl status SERVICE und journalctl -u SERVICE, um sich die Logs anzusehen.

Nächste Schritte