Crea carichi di lavoro stateless

Questa pagina spiega come creare e gestire carichi di lavoro stateless all'interno di un cluster Kubernetes air-gap di Google Distributed Cloud (GDC). I carichi di lavoro stateless ti consentono di scalare il deployment dell'applicazione in base alle esigenze del carico di lavoro, il tutto senza dover gestire l'archiviazione permanente in un cluster Kubernetes per archiviare dati o stato dell'applicazione. Questa pagina ti aiuta a iniziare a ottimizzare e regolare in modo efficiente la disponibilità della tua applicazione.

Questa pagina è rivolta agli sviluppatori del gruppo di operatori di applicazioni, che sono responsabili della creazione dei carichi di lavoro delle applicazioni per la propria organizzazione. Per saperne di più, consulta la documentazione sulle audience per GDC air-gapped.

Prima di iniziare

Per eseguire comandi su un cluster Kubernetes, assicurati di disporre delle seguenti risorse:

  1. Individua il nome del cluster Kubernetes o chiedi all'amministratore della piattaforma qual è il nome del cluster.

  2. Accedi e genera il file kubeconfig per il cluster Kubernetes se non ne hai uno.

  3. Utilizza il percorso kubeconfig del cluster Kubernetes per sostituire KUBERNETES_CLUSTER_KUBECONFIG in queste istruzioni.

Per ottenere le autorizzazioni necessarie per creare carichi di lavoro stateless, chiedi all'amministratore IAM dell'organizzazione di concederti il ruolo Amministratore spazio dei nomi (namespace-admin) nello spazio dei nomi del progetto.

Crea un deployment

Per creare un deployment, scrivi un manifest Deployment ed esegui kubectl apply per creare la risorsa. Questo metodo conserva anche gli aggiornamenti apportati alle risorse live senza unire le modifiche ai file manifest.

Per creare un Deployment dal relativo file manifest, esegui:

kubectl --kubeconfig KUBERNETES_CLUSTER_KUBECONFIG -n NAMESPACE \
    apply -f - <<EOF
apiVersion: apps/v1
kind: Deployment
metadata:
  name: DEPLOYMENT_NAME
spec:
  replicas: NUMBER_OF_REPLICAS
  selector:
    matchLabels:
      run: APP_NAME
  template:
    metadata:
      labels: # The labels given to each pod in the deployment, which are used
              # to manage all pods in the deployment.
        run: APP_NAME
    spec: # The pod specification, which defines how each pod runs in the deployment.
      containers:
      - name: CONTAINER_NAME
        image: CONTAINER_IMAGE
EOF

Sostituisci quanto segue:

  • KUBERNETES_CLUSTER_KUBECONFIG: il file kubeconfig per il cluster Kubernetes in cui stai eseguendo il deployment dei carichi di lavoro dei container.

  • NAMESPACE: lo spazio dei nomi del progetto in cui eseguire il deployment dei carichi di lavoro dei container.

  • DEPLOYMENT_NAME: il file kubeconfig per il cluster in cui esegui il deployment dei carichi di lavoro dei container.

  • APP_NAME: il nome dell'applicazione da eseguire all'interno del deployment.

  • NUMBER_OF_REPLICAS: il numero di oggetti Pod replicati gestiti dal deployment.

  • CONTAINER_NAME: il nome del container.

  • CONTAINER_IMAGE: il nome dell'immagine container. Devi includere il percorso del registro dei container e la versione dell'immagine, ad esempio REGISTRY_PATH/hello-app:1.0.

Ad esempio:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      run: my-app
  template:
    metadata:
      labels:
        run: my-app
    spec:
      containers:
      - name: hello-app
        image: REGISTRY_PATH/hello-app:1.0

Se esegui il deployment di carichi di lavoro GPU nei container, consulta Gestire i carichi di lavoro dei container GPU per saperne di più.