Les vérifications préliminaires sont une mesure préventive qui permet d'identifier les problèmes avant de lancer une opération de cluster majeure, telle que la création ou la mise à niveau de clusters. Lorsque ces vérifications s'exécutent automatiquement avant une opération, aucune modification n'est apportée à vos clusters, sauf si toutes les vérifications préliminaires sont concluantes. Vous pouvez également exécuter des vérifications préliminaires à la demande.
Ce document décrit chaque vérification, dans quelles circonstances elle s'exécute automatiquement, comment et quand l'exécuter manuellement, et comment interpréter les résultats.
Dans Google Distributed Cloud, vous pouvez exécuter des vérifications préliminaires dans différentes situations :
Google Distributed Cloud exécute des vérifications préliminaires lorsque vous créez ou mettez à niveau des clusters et des ressources de pool de nœuds avec
bmctl
. En cas d'échec des vérifications, aucune modification n'est effectuée. Vous pouvez également contourner ces vérifications ou les exécuter explicitement.Google Distributed Cloud exécute également des vérifications préliminaires internes lorsqu'un cluster d'administrateur ou hybride crée ou met à jour des ressources Kubernetes sur des clusters d'utilisateur. Les vérifications sont exécutées avant que les modifications ne soient appliquées aux clusters d'utilisateur concernés. En cas d'échec des vérifications, aucune modification n'est effectuée.
Ressources personnalisées PreflightCheck
Lorsqu'une vérification préliminaire s'exécute, Google Distributed Cloud crée une ressource personnalisée PreflightCheck
. Les ressources personnalisées PreflightCheck
sont persistantes et fournissent un enregistrement des activités et des résultats des vérifications préliminaires.
Pour récupérer des ressources personnalisées PreflightCheck
, procédez comme suit :
Obtenez la liste des vérifications préalables exécutées pour un cluster donné :
kubectl get preflightchecks --kubeconfig ADMIN_KUBECONFIG --namespace CLUSTER_NAMESPACE
Remplacez les éléments suivants :
ADMIN_KUBECONFIG
: chemin d'accès au fichier kubeconfig du cluster d'administrateurCLUSTER_NAMESPACE
: espace de noms du cluster
La réponse liste les ressources par espace de noms. Vous pouvez exécuter
kubectl get preflightchecks
sur tous les espaces de noms pour obtenir une liste complète. Pour chaque ressource, la réponse indique son âge et si les vérifications préalables ont réussi ou non. L'exemple de réponse suivant affiche les ressourcesPreflightCheck
pour l'espace de nomscluster-test-admin001
.NAMESPACE NAME PASS AGE cluster-test-admin001 test-admin001 true 52d cluster-test-admin001 test-admin001jkm4q true 52d cluster-test-admin001 test-admin001k79t7 true 6d20h cluster-test-admin001 upgrade-cluster-20231106-222746 true 6d20h
Récupérez les détails d'une ressource personnalisée
PreflightCheck
spécifique :kubectl describe preflightchecks --kubeconfig ADMIN_KUBECONFIG --namespace CLUSTER_NAMESPACE
Remplacez les éléments suivants :
ADMIN_KUBECONFIG
: chemin d'accès au fichier kubeconfig du cluster d'administrateurCLUSTER_NAMESPACE
: espace de noms du cluster
L'exemple de réponse de commande suivant affiche une ressource
PreflightCheck
pour une vérification préliminaire réussie qui a été exécutée lors de la création du cluster :Name: create-cluster-20230922-175006 Namespace: cluster-test-user001 Labels: <none> Annotations: <none> API Version: baremetal.cluster.gke.io/v1 Kind: PreflightCheck Metadata: Creation Timestamp: 2023-09-22T17:50:11Z Generation: 1 Resource Version: 6502800 UID: 917daf64-963d-44b4-a1f9-c54972a39191 Spec: Check Image Version: latest Config YAML: --- apiVersion: v1 kind: Namespace metadata: name: cluster-test-user --- apiVersion: baremetal.cluster.gke.io/v1 kind: Cluster metadata: name: test-user001 namespace: cluster-test-user001 spec: type: user profile: default anthosBareMetalVersion: 1.16.0 gkeConnect: projectID: clusters-project controlPlane: nodePoolSpec: nodes: - address: 192.0.2.53 ... --- apiVersion: baremetal.cluster.gke.io/v1 kind: NodePool metadata: name: node-pool-1 namespace: cluster-test-user001 spec: clusterName: test-user001 nodes: - address: 192.0.2.54 ... Status: Checks: 192.0.2.53: Job UID: d0b5dc1f-9d39-4cc8-b3d2-0841212f7f8c Message: Pass: true 192.0.2.53-gcp: Job UID: b4d96ce5-0d4e-4e3c-97db-6317e0c15fc8 Message: Pass: true 192.0.2.54: Job UID: b67cf195-3951-46ad-b91c-0d79025cfc0a Message: Pass: true 192.0.2.54-gcp: Job UID: aed509e2-4bf7-44c4-bfa0-8147ef8ea74e Message: Pass: true Gcp: Job UID: ac479ac4-e1c4-4681-9f2b-5773069bf6ae Message: Pass: true Node - Network: Job UID: 8a57c4ee-ad17-4560-8809-b117c871ad5d Message: Pass: true Pod - Cidr: Message: Pass: true Cluster Spec: Anthos Bare Metal Version: 1.16.0 Bypass Preflight Check: false Cluster Network: Bundled Ingress: true Pods: Cidr Blocks: 10.0.0.0/16 Services: Cidr Blocks: 10.96.0.0/20 ... Completion Time: 2023-09-22T17:51:22Z Conditions: Last Transition Time: 2023-10-02T23:59:06Z Observed Generation: 1 Reason: Reconciling Status: True Type: Reconciling Node Pool Specs: node-pool-1: Cluster Name: test-user001 Nodes: Address: 192.0.2.54 ... Pass: true Start Time: 2023-09-22T17:50:32Z Events: <none>
Dans la ressource personnalisée
PreflightCheck
précédente, la sectionStatus
contient les informations suivantes :- La section
Checks
liste les vérifications préliminaires individuelles qui ont été exécutées et indique si elles ont réussi ou non. Dans cet exemple, les vérifications suivantes ont été exécutées :192.0.2.53
et192.0.2.54
: vérifications des nœuds (configuration du système d'exploitation, ressources et paramètres logiciels) pour les machines dont les adresses IP sont192.0.2.53
et192.0.2.54
.192.0.2.53-gpc
et192.0.2.54-gcp
: vérifications de la connectivité Google Cloud (accès à Container Registry et à l'API Google) pour les machines ayant les adresses IP192.0.2.53
et192.0.2.54
.Gcp
: vérifications de la connectivité Google Cloud pour le cluster.Node - Network
: vérifications du réseau (connectivité, opérationetcd
, accès IPV et liaison de port) pour le cluster.Pod - Cidr
: l'adresse IP du pod recherche les adresses qui se chevauchent pour le cluster.
- La section
Cluster Spec
affiche la configuration du cluster. - Le champ
Pass
affichetrue
, ce qui indique que les vérifications préliminaires ont réussi collectivement.
Journaux de vérification préliminaire
Lorsque les vérifications préliminaires s'exécutent à la suite d'une commande bmctl
, telle que bmctl check
preflight
, Google Distributed Cloud crée des fichiers journaux. Voici ce qui est généré et où :
Les journaux de vérification préliminaire sont générés dans un répertoire avec le modèle de dénomination suivant :
preflight-TIMESTAMP
.Ce répertoire de vérification préliminaire est créé dans le répertoire
log
pour le cluster dans l'espace de travailbmctl
. Par défaut, le chemin d'accès au répertoirelog
estbmctl-workspace/CLUSTER_NAME/log
.Les journaux de requête préliminaires se composent des fichiers suivants :
Fichiers journaux pour les vérifications de machine de nœud, un pour chaque nœud de cluster. Ces fichiers journaux sont nommés à l'aide de l'adresse IP du nœud. Par exemple, un nom de fichier peut être
192.0.2.53
.Fichiers journaux pour les vérifications d'accès Google Cloud, un pour chaque nœud de cluster. Ces fichiers journaux sont nommés en fonction de l'adresse IP du nœud. Par exemple, un nom de fichier peut être
192.0.2.53-gcp
.Fichier journal des vérifications d'accès Google Cloud du cluster, nommé
gcp
.Fichier journal des vérifications de mise en réseau des nœuds, nommé
node-network
.
Si une vérification préliminaire échoue, ces fichiers journaux peuvent vous aider à identifier et à résoudre le problème.
Vérifications préliminaires pour la création de clusters
Lorsque vous créez des clusters, Google Distributed Cloud exécute automatiquement des vérifications préliminaires avant toute modification.
Qu'est-ce qui est vérifié ?
Les vérifications préliminaires pour l'installation vérifient les éléments suivants :
Vérifications de la machine de nœud :
Les machines du cluster utilisent un système d'exploitation (OS) compatible.
La version de l'OS est compatible.
Le système d'exploitation utilise une version de noyau compatible.
Pour Ubuntu, le pare-feu UFW (Uncomplicated Firewall) est désactivé.
Pour Ubuntu, le gestionnaire de packages
apt
est opérationnel et les packages requis sont disponibles.Pour Red Hat Enterprise Linux, le gestionnaire de paquets
dnf
est opérationnel et les paquets requis sont disponibles.Pour Red Hat Enterprise Linux, Podman n'est pas installé.
Les machines de nœuds répondent aux exigences minimales en termes de processeurs.
Les machines de nœud répondent aux exigences minimales de mémoire.
Les machines de nœud répondent aux exigences minimales de stockage sur disque.
La synchronisation horaire est configurée sur les machines de nœud.
kubelet
est actif et en cours d'exécution sur les machines de nœud.containerd
est actif et en cours d'exécution sur les machines de nœud.La route par défaut pour le routage des paquets vers la passerelle par défaut est présente dans les nœuds.
Le système de noms de domaine (DNS) fonctionne correctement. Si le cluster est configuré pour s'exécuter derrière un proxy, cette vérification est ignorée.
Les CIDR des pods ne chevauchent pas les adresses IP des machines de nœud.
Si le cluster est configuré pour utiliser un miroir de registre, celui-ci est accessible.
Google Cloud vérifie les éléments suivants pour chaque nœud et pour le cluster :
La connectivité de Container Registry,
gcr.io
, est vérifiée. Si le cluster est configuré pour utiliser un miroir de registre, cette vérification est ignorée.Les API Google sont accessibles.
Vérifications de la mise en réseau des nœuds (varie en fonction de la configuration de l'équilibrage de charge) :
L'adresse IP virtuelle du serveur d'API Kubernetes est accessible.
Les adresses IP virtuelles de l'équilibreur de charge sont accessibles.
Les nœuds peuvent communiquer sur les ports requis.
L'instance d'événements
etcd
est provisionnée et les exigences concernant le port sont respectées.
Une fois toutes les vérifications effectuées et validées, Google Distributed Cloud crée le cluster. Pour en savoir plus sur les conditions requises pour créer des clusters, consultez la section Présentation des conditions préalables à l'installation.
Exécuter des vérifications préliminaires à la demande pour la création de clusters
Vous pouvez également effectuer des vérifications préliminaires de manière indépendante avant de créer un cluster. Cela peut être utile, car les principales opérations de cluster, telles que la création de cluster, sont longues. L'identification et la résolution des problèmes séparément avant de démarrer une opération de cluster majeure peuvent vous aider à planifier vos opérations.
Clusters autogérés
La commande suivante valide le fichier de configuration de cluster spécifié, mais n'essaie pas de créer le cluster lui-même :
bmctl check config --cluster CLUSTER_NAME
Remplacez
CLUSTER_NAME
par le nom du cluster associé au fichier de configuration que vous vérifiez.Cette commande vérifie si les machines et le réseau sont prêts à créer le cluster :
bmctl check preflight --cluster CLUSTER_NAME
Remplacez
CLUSTER_NAME
par le nom du cluster que vous vérifiez.
Clusters d'utilisateur
La commande suivante valide le fichier de configuration de cluster spécifié, mais n'essaie pas de créer le cluster lui-même :
bmctl check config --cluster CLUSTER_NAME --admin-kubeconfig ADMIN_KUBECONFIG
Remplacez les éléments suivants :
CLUSTER_NAME
: nom du cluster d'utilisateur que vous vérifiez.ADMIN_KUBECONFIG
: chemin d'accès au fichier kubeconfig du cluster d'administrateur
La commande suivante vérifie si les machines et le réseau sont prêts à créer le cluster :
bmctl check preflight --cluster CLUSTER_NAME --admin-kubeconfig ADMIN_KUBECONFIG
bmctl
permet d'utiliser --kubeconfig
comme alias pour l'option --admin-kubeconfig
.
Vérifications préliminaires pour les mises à niveau de cluster
Lorsque vous mettez à niveau des clusters, Google Distributed Cloud exécute automatiquement des vérifications préliminaires avant toute modification.
Qu'est-ce qui est vérifié ?
Les vérifications préliminaires pour les mises à niveau de cluster vérifient les éléments suivants :
Vérifications de la machine de nœud :
Les machines du cluster utilisent un système d'exploitation (OS) compatible.
La version de l'OS est compatible.
Le système d'exploitation utilise une version de noyau compatible.
Pour Ubuntu, le pare-feu UFW (Uncomplicated Firewall) est désactivé.
Les machines de nœud répondent aux exigences minimales du processeur.
Les machines de nœud disposent de plus de 20% de ressources de processeur.
Les machines de nœuds répondent aux exigences minimales de mémoire.
Les machines de nœud répondent aux exigences minimales de stockage sur disque.
La synchronisation horaire est configurée sur les machines de nœud.
La route par défaut pour le routage des paquets vers la passerelle par défaut est présente dans les nœuds.
Le système de noms de domaine (DNS) fonctionne correctement. Si le cluster est configuré pour s'exécuter derrière un proxy, cette vérification est ignorée.
Si le cluster est configuré pour utiliser un miroir de registre, le miroir de registre est accessible.
* Aucun nœud de plan de contrôle ni de nœud d'équilibreur de charge n'est en mode maintenance.
Google Cloud vérifie chaque nœud et le cluster:
La connectivité de Container Registry,
gcr.io
, est vérifiée. Si le cluster est configuré pour utiliser un miroir de registre, cette vérification est ignorée.Les API Google sont accessibles.
Vérifications des machines :
kubelet
est actif et s'exécute sur les machines de nœud.containerd
est actif et en cours d'exécution sur les machines de nœud.L'état du point de terminaison d'intégrité de la CNI (Container Network Interface) est "OK".
Les CIDR des pods ne chevauchent pas les adresses IP des machines de nœud.
Vérifications de la mise en réseau des nœuds (varient en fonction de la configuration de l'équilibrage de charge) :
L'adresse IP virtuelle du serveur d'API Kubernetes est accessible.
Les adresses IP virtuelles de l'équilibreur de charge sont accessibles.
Les nœuds peuvent communiquer sur les ports requis.
L'instance d'événements
etcd
est provisionnée et les exigences de port sont remplies.
Une fois toutes les vérifications effectuées et validées, Google Distributed Cloud met à niveau le cluster. Pour en savoir plus sur la mise à niveau des clusters, consultez les pages Bonnes pratiques pour la mise à niveau des clusters Google Distributed Cloud et Cycle de vie et étapes de la mise à niveau des clusters.
Exécuter des vérifications préliminaires à la demande pour les mises à niveau de clusters
La commande bmctl check preflight
vous permet d'exécuter une vérification préliminaire avant de mettre à niveau votre cluster. Vous pouvez vérifier si les clusters sont prêts pour une mise à niveau en exécutant la commande de vérification préliminaire suivante avant de commencer la mise à niveau :
Mettez à jour la version du cluster (
anthosBareMetalVersion
) dans le fichier de configuration du cluster.Utilisez la commande suivante pour vérifier si les clusters sont prêts pour une mise à niveau et exécuter une vérification préliminaire :
bmctl check preflight --cluster CLUSTER_NAME --kubeconfig ADMIN_KUBECONFIG
Remplacez les éléments suivants :
CLUSTER_NAME
: nom du cluster à mettre à niveau.ADMIN_KUBECONFIG
: chemin d'accès au fichier kubeconfig du cluster d'administrateur.
Lorsque vous créez la vérification préliminaire avec cette commande pour tester la mise à niveau d'un cluster, une ressource personnalisée
PreflightCheck
est créée dans le cluster d'administrateur.
Vérifications préliminaires internes sur les clusters existants
Google Distributed Cloud effectue automatiquement des vérifications préliminaires internes lorsque vous appliquez des ressources Kubernetes à un cluster existant. Si l'une des vérifications échoue, Google Distributed Cloud ne modifie aucun des nœuds associés, sauf si vous contournez explicitement ces vérifications.
Contourner les vérifications préliminaires lors de l'application de ressources Kubernetes
Pour ignorer les vérifications préliminaires internes lors de l'application de ressources à des clusters existants, vous devez définir le champ BypassPreflightCheck
sur true
dans le fichier de configuration du cluster.
Voici une partie d'un fichier de configuration de cluster qui montre le champ bypassPreflightCheck
défini sur true
:
apiVersion: v1
kind: Namespace
metadata:
name: cluster-user1
---
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
name: user1
namespace: cluster-user1
spec:
type: user
bypassPreflightCheck: true
# Anthos cluster version.
anthosBareMetalVersion: 1.30.100-gke.96
...
Exécuter les dernières vérifications préliminaires
Les vérifications préliminaires (et les vérifications d'état) sont mises à jour à mesure que des problèmes connus sont identifiés.
Pour demander à bmctl
d'exécuter les vérifications à partir de la dernière image de correctif de votre version mineure installée, utilisez l'option --check-image-version latest
:
bmctl check preflight --cluster CLUSTER_NAME --check-image-version latest
Remplacez CLUSTER_NAME
par le nom du cluster que vous vérifiez.
Cela peut vous aider à détecter les problèmes connus récemment identifiés, sans avoir à créer ni mettre à niveau votre cluster au préalable.
Vous pouvez également effectuer les dernières vérifications de l'état d'un cluster actif pour déterminer s'il fonctionne correctement. Pour en savoir plus, consultez la section Exécuter les dernières vérifications d'état.
Ignorer les résultats des vérifications préliminaires automatiques
Si vous exécutez des vérifications préliminaires à la demande avant de créer ou de mettre à niveau des clusters, vous pouvez contourner les vérifications préliminaires automatiques. Pour contourner les vérifications préliminaires automatiques, utilisez l'option facultative --force
lorsque vous exécutez bmctl create cluster
ou bmctl upgrade cluster
.