Crea clústeres de usuario en una configuración de varios clústeres

En los clústeres de Anthos en equipos físicos, los clústeres de usuarios ejecutan tus cargas de trabajo y en una arquitectura de varios clústeres, un clúster de administración crea y administra clústeres de usuario.

Después de crear un clúster de administrador, la llamada al comando bmctl create config crea un archivo yaml que puedes editar para definir tu clúster de usuario. Luego, puedes usar el comando de kubectl para aplicar esa configuración y crear el clúster de usuarios.

Mantener las cargas de trabajo fuera del clúster de administración protege los datos administrativos sensibles, como las claves SSH almacenadas en el clúster de administrador, de aquellos que no necesitan acceso a esa información. Además, mantener los clústeres de usuarios separados entre sí proporciona una seguridad general adecuada para tus cargas de trabajo.

Requisitos previos

  • bmctl descargado de gs://anthos-baremetal-release/bmctl/1.6.2/linux-amd64/bmctl
  • Un clúster de administración en funcionamiento con acceso al servidor de la API del clúster (el controlPlaneVIP)
  • Los nodos del clúster de administración deben tener conectividad de red a todos los nodos en el clúster de usuario de destino
  • La clave SSH se usa a fin de crear un clúster de usuario disponible para usuarios raíz o SUDO en todos los nodos del clúster de usuario

Crea un archivo de configuración de clúster de usuario

El archivo de configuración para crear un clúster de usuario es casi el mismo que el que se usa a fin de crear un clúster de administrador. La única diferencia es que quitas la sección de configuración de credenciales locales para que la configuración sea una colección válida de recursos de Kubernetes. La sección de configuración se encuentra en la parte superior del archivo, en la sección bmctl configuration variables.

De forma predeterminada, los clústeres de usuarios heredan sus credenciales del clúster de administrador que los administra. Puedes anular de manera selectiva algunas de estas credenciales o todas. Consulta el archivo de configuración de clúster de usuarios de muestra para obtener más detalles.

En los pasos siguientes, vuelve a comprobar la edición del archivo de configuración. Debido a que creas el clúster de usuario con el comando de kubectl, hay comprobaciones de solicitudes preliminares limitadas en la configuración del clúster de usuario.

  1. Crea un archivo de configuración de clúster de usuario con el comando bmctl create config:

    bmctl create config -c USER_CLUSTER_NAME
    

    Por ejemplo, ejecuta lo siguiente a fin de crear un archivo de configuración para un clúster de usuario llamado user1:

    bmctl create config -c user1
    

    El archivo se escribe en bmctl-workspace/user1/user1.yaml. La ruta genérica al archivo es bmctl-workspace/CLUSTER NAME/CLUSTER_NAME.yaml.

  2. Edita el archivo de configuración con los siguientes cambios:

    • Quita las rutas de acceso de los archivos de credenciales locales de la configuración. No son necesarias para un clúster de usuario y no funcionarán con el comando de kubectl. Quita los siguientes elementos:
      ....
        gcrKeyPath: {path to GCR service account key}
        sshPrivateKeyPath: (path to SSH private key, used for node access)
        gkeConnectAgentServiceAccountKeyPath: (path to Connect agent service account key)
        gkeConnectRegisterServiceAccountKeyPath: (path to Hub registration service account key)
        cloudOperationsServiceAccountKeyPath: (path to Cloud Operations service account key)
      ....
            
    • Cambia la configuración para especificar un tipo de clúster de user en lugar de admin:
      ....
      spec:
        # Cluster type. This can be:
        #   1) admin:  to create an admin cluster. This can later be used to create
        #   user clusters.
        #   2) user:   to create a user cluster. Requires an existing admin cluster.
        #   3) hybrid: to create a hybrid cluster that runs admin cluster
        #   components and user workloads.
        #   4) standalone: to create a cluster that manages itself, runs user
        #   workloads, but does not manage other clusters.
        type: user
      ....
    • Asegúrate de que las especificaciones del clúster de usuario y administrador para las VIP de balanceador de cargas y los grupos de direcciones sean complementarias y no se superpongan los clústeres existentes. A continuación, se muestra un par de opciones de configuración de clúster de usuario y administrador, que especifican el balanceo de cargas y los grupos de direcciones:
    • ....
      # Sample admin cluster config for load balancer and address pools
        loadBalancer:
          vips:
            controlPlaneVIP: 10.200.0.49
            ingressVIP: 10.200.0.50
          addressPools:
          - name: pool1
            addresses:
            - 10.200.0.50-10.200.0.70
      ....
      ....
      # Sample user cluster config for load balancer and address pools
      loadBalancer:
          vips:
            controlPlaneVIP: 10.200.0.71
            ingressVIP: 10.200.0.72
          addressPools:
          - name: pool1
            addresses:
            - 10.200.0.72-10.200.0.90
      ....

      Ten en cuenta que el resto de los archivos de configuración del clúster de usuario es el mismo que el de la configuración del clúster de administrador.

  3. Vuelve a verificar el archivo de configuración de tu clúster de usuario. Existen clústeres de Anthos limitados en las comprobaciones previas en equipos físicos cuando creas un clúster de usuario y solo cubren verificaciones de nivel de máquina (como versiones del SO, versiones de software en conflicto y recursos disponibles).

Crea el clúster de usuario

Ejecuta el comando kubectl para aplicar la configuración del clúster de usuario y crear el clúster:

kubectl --kubeconfig ADMIN_KUBECONFIG apply -f USER_CLUSTER_CONFIG

ADMIN_KUBECONFIG especifica la ruta al archivo kubeconfig del clúster de administrador y USER_CLUSTER_CONFIG especifica la ruta al archivo yaml del clúster de usuario que editaste en la sección anterior.

Por ejemplo, para un clúster de administrador llamado admin y una configuración de clúster de usuario llamada user1, el comando sería el siguiente:

kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig apply /
  -f bmctl-workspace/user1/user1.yaml

Espera que el clúster de usuarios esté listo

A fin de verificar que el clúster de usuario esté listo, usa el comando kubectl wait para probar una condición. El siguiente comando espera 30 minutos para verificar que el estado del clúster haya terminado de conciliar y recupera el archivo kubeconfig del clúster del usuario creado:

kubectl --kubeconfig ADMIN_KUBECONFIG wait \
  cluster USER_CLUSTER_NAME -n cluster-USER_CLUSTER_NAME \
  --for=condition=Reconciling=False --timeout=30m && \
  kubectl --kubeconfig ADMIN_KUBECONFIG get secret USER_CLUSTER_NAME-kubeconfig \
  -n cluster-USER_CLUSTER_NAME \
  -o 'jsonpath={.data.value}' | base64 -d > USER_KUBECONFIG

Donde:

  • ADMIN_KUBECONFIG especifica la ruta al archivo kubeconfig del clúster de administrador.
  • USER_KUBECONFIG especifica la ruta al archivo kubeconfig del usuario que deseas crear.
  • USER_CLUSTER_NAME es el nombre del clúster de usuario.

Por ejemplo, para un clúster de administración llamado admin y una configuración de clúster de usuario llamada user1, el comando sería el siguiente:

kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig wait  \
  cluster user1 -n cluster-user1 --for=condition=Reconciling=False --timeout=30m &&  \
  kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig get secret  \
  user1-kubeconfig -n cluster-user1 -o 'jsonpath={.data.value}' | base64  \
  -d > bmctl-workspace/user1/user1-kubeconfig

Espera a que los grupos de nodos de trabajadores estén listos

La mayoría de las veces, también deberás esperar a que los grupos de nodos trabajadores estén listos. Por lo general, se usan grupos de nodos trabajadores para que los clústeres de tu usuario ejecuten cargas de trabajo.

Para verificar que los grupos de nodos trabajadores estén listos, usa el comando kubectl wait a fin de probar una condición. En este caso, el comando vuelve a esperar 30 minutos para que los grupos de nodos estén listos:

kubectl --kubeconfig ADMIN_KUBECONFIG wait cluster USER_CLUSTER_NAME \
  -n cluster-USER_CLUSTER_NAME --for=condition=Reconciling=False --timeout=30m && \
  kubectl --kubeconfig ADMIN_KUBECONFIG wait nodepool NODE_POOL_NAME \
  -n cluster-USER_CLUSTER_NAME --for=condition=Reconciling=False --timeout=30m && \
  kubectl --kubeconfig ADMIN_KUBECONFIG get secret \
  USER_CLUSTER_NAME-kubeconfig -n cluster-USER_CLUSTER_NAME -o \
  'jsonpath={.data.value}' | base64 -d >  USER_KUBECONFIG
  

NODE_POOL_NAME especifica el grupo de nodos que creas con el clúster de usuarios.

Por ejemplo, para un clúster de administrador llamado admin, una configuración de clúster de usuario llamada user1 y un grupo de nodos llamado node-pool-1, el comando sería el siguiente:

kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig wait \
  cluster user1 -n cluster-user1 --for=condition=Reconciling=False --timeout=30m && \
  kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig wait \
  nodepool node-pool-1 -n cluster-user1 --for=condition=Reconciling=False --timeout=30m && \
  kubectl --kubeconfig bmctl-workspace/admin/admin-kubeconfig get secret \
  user1-kubeconfig -n cluster-user1 -o \
  'jsonpath={.data.value}' | base64 -d > bmctl-workspace/user1/user1-kubeconfig

Muestra de configuración completa de clústeres de usuario

El siguiente es un archivo de configuración del clúster de usuario de muestra creado con el comando bmctl. Ten en cuenta que en esta configuración de muestra, se usan nombres de clústeres, VIP y direcciones de marcadores de posición. Es posible que no funcionen con tu red.

# Sample user cluster config:

apiVersion: v1
kind: Namespace
metadata:
  name: cluster-user1
---
apiVersion: baremetal.cluster.gke.io/v1
kind: Cluster
metadata:
  name: user1
  namespace: cluster-user1
spec:
  # Cluster type. This can be:
  #   1) admin:  to create an admin cluster. This can later be used to create user clusters.
  #   2) user:   to create a user cluster. Requires an existing admin cluster.
  #   3) hybrid: to create a hybrid cluster that runs admin cluster components and user workloads.
  #   4) standalone: to create a cluster that manages itself, runs user workloads,
  #   but does not manage other clusters.
  type: user
  # Anthos cluster version.
  anthosBareMetalVersion: 1.6.2
  # GKE connect configuration
  gkeConnect:
    projectID: GOOGLE_PROJECT_ID
    # To override default credentials inherited from the admin cluster:
    # 1. Create a new secret in the admin cluster
    # 2. Uncomment the section below and refer to the secret created above
    # # Optionally override default secret inherited from the admin cluster.
    # connectServiceAccountSecret:
    #  name: GKE_CONNECT_AGENT_SA_SECRET
    #  namespace: cluster-user1
    # # Optionally override default secret inherited from the admin cluster.
    # registerServiceAccountSecret:
    #  name: GKE_CONNECT_REGISTER_SA_SECRET
    #  namespace: cluster-user1
  # Control plane configuration
  controlPlane:
    nodePoolSpec:
      nodes:
      # Control plane node pools. Typically, this is either a single machine
      # or 3 machines if using a high availability deployment.
      - address: 10.200.0.4
  # Cluster networking configuration
  clusterNetwork:
    # Pods specify the IP ranges from which Pod networks are allocated.
    pods:
      cidrBlocks:
      - 192.168.0.0/16
    # Services specify the network ranges from which service VIPs are allocated.
    # This can be any RFC 1918 range that does not conflict with any other IP range
    # in the cluster and node pool resources.
    services:
      cidrBlocks:
      - 10.96.0.0/12
  # Credentials specify the secrets that hold SSH key and image pull credential for the new cluster.
  # credentials:
  #  # Optionally override default ssh key secret inherited from the admin cluster.
  #  sshKeySecret:
  #    name: SSH_KEY_SECRET
  #    namespace: cluster-user1
  #  # Optionally override default image pull secret inherited from the admin cluster.
  #  imagePullSecret:
  #    name: IMAGE_PULL_SECRET
  #    namespace: cluster-user1
  # Load balancer configuration
  loadBalancer:
    # Load balancer mode can be either 'bundled' or 'manual'.
    # In 'bundled' mode a load balancer will be installed on load balancer nodes during cluster creation.
    # In 'manual' mode the cluster relies on a manually-configured external load balancer.
    mode: bundled
    # Load balancer port configuration
    ports:
      # Specifies the port the LB serves the kubernetes control plane on.
      # In 'manual' mode the external load balancer must be listening on this port.
      controlPlaneLBPort: 443
    # There are two load balancer VIPs: one for the control plane and one for the L7 Ingress
    # service. The VIPs must be in the same subnet as the load balancer nodes.
    vips:
      # ControlPlaneVIP specifies the VIP to connect to the Kubernetes API server.
      # This address must not be in the address pools below.
      controlPlaneVIP: 10.200.0.71
      # IngressVIP specifies the VIP shared by all services for ingress traffic.
      # Allowed only in non-admin clusters.
      # This address must be in the address pools below.
      ingressVIP: 10.200.0.72
    # AddressPools is a list of non-overlapping IP ranges for the data plane load balancer.
    # All addresses must be in the same subnet as the load balancer nodes.
    # Address pool configuration is only valid for 'bundled' LB mode in non-admin clusters.
    addressPools:
    - name: pool1
      addresses:
      # Each address must be either in the CIDR form (1.2.3.0/24)
      # or range form (1.2.3.1-1.2.3.5).
      - 10.200.0.72-10.200.0.90
    # A load balancer nodepool can be configured to specify nodes used for load balancing.
    # These nodes are part of the kubernetes cluster and run regular workloads as well as load balancers.
    # If the node pool config is absent then the control plane nodes are used.
    # Node pool configuration is only valid for 'bundled' LB mode.
    # nodePoolSpec:
    #  nodes:
    #  - address: 
  # Proxy configuration
  # proxy:
  #   url: http://[username:password@]domain
  #   # A list of IPs, hostnames or domains that should not be proxied.
  #   noProxy:
  #   - 127.0.0.1
  #   - localhost
  # Logging and Monitoring
  clusterOperations:
    # Cloud project for logs and metrics.
    projectID: $GOOGLE_PROJECT_ID
    # Cloud location for logs and metrics.
    location: us-central1
    # Optionally override default secret inherited from the admin cluster.
    # serviceAccountSecret:
    #  name: $CLOUD_OPERATIONS_SA_SECRET
    #  namespace: cluster-user1
    # Whether collection of application logs/metrics should be enabled (in addition to
    # collection of system logs/metrics which correspond to system components such as
    # Kubernetes control plane or cluster management agents).
    # enableApplication: false
  # Storage configuration
  storage:
    # lvpNodeMounts specifies the config for local PersistentVolumes backed by mounted disks.
    # These disks need to be formatted and mounted by the user, which can be done before or after
    # cluster creation.
    lvpNodeMounts:
      # path specifies the host machine path where mounted disks will be discovered and a local PV
      # will be created for each mount.
      path: /mnt/localpv-disk
      # storageClassName specifies the StorageClass that PVs will be created with. The StorageClass
      # is created during cluster creation.
      storageClassName: local-disks
    # lvpShare specifies the config for local PersistentVolumes backed by subdirectories in a shared filesystem.
    # These subdirectories are automatically created during cluster creation.
    lvpShare:
      # path specifies the host machine path where subdirectories will be created on each host. A local PV
      # will be created for each subdirectory.
      path: /mnt/localpv-share
      # storageClassName specifies the StorageClass that PVs will be created with. The StorageClass
      # is created during cluster creation.
      storageClassName: local-shared
      # numPVUnderSharedPath specifies the number of subdirectories to create under path.
      numPVUnderSharedPath: 5
  # Authentication; uncomment this section if you wish to enable authentication to the cluster with OpenID Connect.
  # authentication:
  #   oidc:
  #     # issuerURL specifies the URL of your OpenID provider, such as "https://accounts.google.com". The Kubernetes API
  #     # server uses this URL to discover public keys for verifying tokens. Must use HTTPS.
  #     issuerURL: 
  #     # clientID specifies the ID for the client application that makes authentication requests to the OpenID
  #     # provider.
  #     clientID: 
  #     # clientSecret specifies the secret for the client application.
  #     clientSecret: 
  #     # kubectlRedirectURL specifies the redirect URL (required) for the gcloud CLI, such as
  #     # "http://localhost:[PORT]/callback".
  #     kubectlRedirectURL: <Redirect URL for the gcloud CLI; optional, default is "http://kubectl.redirect.invalid">
  #     # username specifies the JWT claim to use as the username. The default is "sub", which is expected to be a
  #     # unique identifier of the end user.
  #     username: <JWT claim to use as the username; optional, default is "sub">
  #     # usernamePrefix specifies the prefix prepended to username claims to prevent clashes with existing names.
  #     usernamePrefix: 

  #     # group specifies the JWT claim that the provider will use to return your security groups.
  #     group: 
  #     # groupPrefix specifies the prefix prepended to group claims to prevent clashes with existing names.
  #     groupPrefix: 

  #     # scopes specifies additional scopes to send to the OpenID provider as a comma-delimited list.
  #     scopes: 
  #     # extraParams specifies additional key-value parameters to send to the OpenID provider as a comma-delimited
  #     # list.
  #     extraParams: 
  #     # certificateAuthorityData specifies a Base64 PEM-encoded certificate authority certificate of your identity
  #     # provider. It's not needed if your identity provider's certificate was issued by a well-known public CA.
  #     certificateAuthorityData: 
  # Node access configuration; uncomment this section if you wish to use a non-root user
  # with passwordless sudo capability for machine login.
  # nodeAccess:
  #   loginUser: 
---
# Node pools for worker nodes
apiVersion: baremetal.cluster.gke.io/v1
kind: NodePool
metadata:
  name: node-pool-1
  namespace: cluster-user1
spec:
  clusterName: user1
  nodes:
  - address: 10.200.0.5