Quote e limiti

Questa pagina descrive le quote e i limiti di Google Distributed Cloud (solo software) su bare metal per progetti, cluster e nodi di Google Cloud.

Limiti

Le sezioni seguenti descrivono alcuni limiti di base per i cluster. Tieni conto di questi limiti quando progetti le tue applicazioni per l'esecuzione su Google Distributed Cloud.

Cluster utente massimi per cluster di amministrazione

I cluster di amministrazione gestiscono il ciclo di vita dei cluster utente e dei relativi node associati. I cluster di amministrazione controllano le operazioni critiche dei cluster utente, come la creazione, il ripristino o l'upgrade dei cluster e dei nodi e gli aggiornamenti dei cluster. Il numero totale di nodi del cluster utente è uno dei fattori principali che limita le prestazioni e l'affidabilità.

In base ai test in corso, un cluster di amministrazione può supportare in modo affidabile un massimo di 100 cluster utente con 10 nodi ciascuno per un totale di 1000 nodi.

Numero massimo di pod per cluster utente

Ti consigliamo di limitare il numero di pod per cluster utente a 15.000 o meno. Ad esempio, se il tuo cluster ha 200 nodi, devi limitare il numero di pod per nodo a 75 o meno. Analogamente, se vuoi eseguire 110 pod per nodo, devi limitare il numero di nodi nel cluster a 136 o meno. La tabella seguente fornisce esempi di configurazioni consigliate e non consigliate.

Pod per nodo Nodi per cluster Pod per cluster Risultato
110 200 22.000 Troppi pod, non consigliato
110 136 14.960 Entro il limite
100 150 15.000 Entro il limite
75 200 15.000 Entro il limite

Il numero massimo di pod per cluster utente consigliato ha la precedenza sui consigli per i pod per nodo e i nodi per cluster utente nelle sezioni seguenti.

Numero massimo di nodi per cluster utente

Testiamo Google Distributed Cloud per eseguire carichi di lavoro con fino a 500 nodi. Tuttavia, per garantire prestazioni e affidabilità ottimali, ti consigliamo di non superare i 200 nodi per cluster quando esegui i carichi di lavoro in produzione.

Tipo di cluster Numero minimo di nodi Numero massimo di nodi consigliato Nodi massimi assoluti
Utente, autonomo o ibrido 1 200 500

Per i cluster a un solo nodo, devi rimuovere il marchio node-role.kubernetes.io/master:NoSchedule per eseguire i carichi di lavoro sul nodo. Per informazioni dettagliate, consulta Incompatibilità e tolleranze di Kubernetes.

Numero massimo di pod per nodo

Google Distributed Cloud supporta la configurazione del numero massimo di pod per nodo nell'impostazione nodeConfig.PodDensity.MaxPodsPerNode del file di configurazione del cluster. La tabella riportata di seguito mostra i valori minimo e massimo supportati per MaxPodsPerNode, inclusi i pod che eseguono servizi aggiuntivi:

Tipo di cluster Valore minimo consentito Valore massimo consigliato Valore massimo consentito
Tutti i cluster ad alta disponibilità e i cluster utente non ad alta disponibilità 32 110 250
Tutti gli altri cluster non ad alta disponibilità 64 110 250

Numero massimo di endpoint

Su Red Hat Enterprise Linux (RHEL), esiste un limite a livello di cluster di 100.000 endpoint. Questo numero corrisponde alla somma di tutti i pod a cui fa riferimento un servizio Kubernetes. Se due servizi fanno riferimento allo stesso insieme di pod, questa situazione viene conteggiata come due insiemi distinti di endpoint. L'implementazione nftable sottostante su RHEL causa questa limitazione; non è una limitazione intrinseca di Google Distributed Cloud.

Mitigazione

Per RHEL non sono disponibili mitigazioni. Per i sistemi Ubuntu e Debian, consigliamo di passare dal valore predefinito nftables a quello precedente iptables su cluster di grandi dimensioni.

GKE Dataplane V2

Google Distributed Cloud utilizza GKE Dataplane V2, un piano dati del cluster implementato con Cilium e eBPF, ottimizzato per la rete Kubernetes.

Limiti di NetworkPolicy di GKE Dataplane V2

GKE Dataplane V2 utilizza Cilium per gestire le risorse NetworkPolicy Kubernetes. Ai cluster si applicano i seguenti limiti:

Dimensioni Limiti supportati
Tasso di modifica massimo per le etichette dello spazio dei nomi Al massimo una modifica all'ora per ogni spazio dei nomi.

Nella maggior parte dei casi, questo limite non è necessario. A condizione che le modifiche non siano frequenti, ad esempio ogni secondo, o che il numero di identità Cilium (insiemi di etichette uniche) non sia vicino al limite: 16.000 insiemi di etichette con tutti consentiti criteri di rete o 65.535 insiemi di etichette per cluster.

Numero massimo di endpoint di servizio per cluster 100.000 endpoint è il limite testato e consigliato. Il limite hardcoded per gli endpoint di servizio è 262.000.
Numero massimo di criteri e regole di rete Al massimo 40.000 criteri di rete e 80.000 regole. Ad esempio, puoi specificare 40.000 criteri di rete con due regole ciascuno o specificare 20.000 criteri con quattro regole ciascuno.
Frequenza massima di modifica dei criteri di rete Al massimo 20 modifiche (creazioni o eliminazioni) al secondo.
Numero massimo di insiemi di etichette dei pod univoci 65.535 (216-1). Questo è il limite di identità di sicurezza Cilium.
Numero massimo di insiemi di etichette pod univoci selezionati dai selettori di criteri 16.000 (la dimensione fissa della mappa eBPF). Una determinata voce della mappa del selettore di criteri è costituita da: sicurezza-identità, porta e protocollo.

Limite eBPF di GKE Dataplane V2

Il numero massimo di voci nell'lbmap BPF per Dataplane V2 è 65.536. Gli aumenti nelle seguenti aree possono causare un aumento del numero totale di voci:

  • Numero di servizi
  • Numero di porte per servizio
  • Numero di backend per servizio

Ti consigliamo di monitorare il numero effettivo di voci utilizzate dal cluster per assicurarti di non superare il limite. Utilizza il seguente comando per recuperare le voci attuali:

kubectl get po -n kube-system -l k8s-app=cilium | cut -d " " -f1 | grep anetd | head -n1 | \
    xargs -I % kubectl -n kube-system exec % -- cilium bpf lb list | wc -l

Ti consigliamo inoltre di utilizzare la tua pipeline di monitoraggio per raccogliere le metriche dal DaemonSet anetd. Monitora le seguenti condizioni per identificare quando il numero di voci causa problemi:

cilium_bpf_map_ops_total{map_name="lb4_services_v2",operation="update",outcome="fail" } > 0
cilium_bpf_map_ops_total{map_name="lb4_backends_v2",operation="update",outcome="fail" } > 0

Limite di porte per i servizi LoadBalancer e NodePort

Il limite di porte per i servizi LoadBalancer e NodePort è 2768. L'intervallo di porte predefinito è 30000-32767. Se superi il limite, non puoi creare nuovi servizi LoadBalancer o NodePort e non puoi aggiungere nuove porte dei nodi per i servizi esistenti.

Per impostazione predefinita, Kubernetes alloca le porte dei nodi ai servizi di tipo LoadBalancer. Queste allocazioni possono esaurire rapidamente le porte dei nodi disponibili tra le 2768 assegnate al tuo cluster. Per salvare le porte dei nodi, disattiva l'allocazione delle porte dei nodi del bilanciatore del carico impostando il campo allocateLoadBalancerNodePorts su false nella specifica del servizio LoadBalancer. Questa impostazione impedisce a Kubernetes di allocare le porte dei nodi ai servizi LoadBalancer. Per ulteriori informazioni, consulta la sezione Disattivare l'allocazione di NodePort del bilanciatore del carico nella documentazione di Kubernetes.

Utilizza il seguente comando per controllare il numero di porte allocate:

kubectl get svc -A | grep : | tr -s ' ' | cut -d ' '  -f6 | tr ',' '\n' | wc -l

Limiti di connessione dei nodi del bilanciatore del carico in bundle

Il numero di connessioni consentite per ogni nodo utilizzato per il bilanciamento del carico incluso (MetalLB) è 28.000. L'intervallo di porte temporanee predefinito per queste connessioni è 32768-60999. Se superi il limite di connessioni, le richieste al servizio LoadBalancer potrebbero non andare a buon fine.

Se devi esporre un servizio di bilanciamento del carico in grado di gestire un numero sostanziale di connessioni (ad esempio per Ingress), ti consigliamo di prendere in considerazione un metodo di bilanciamento del carico alternativo per evitare questa limitazione con MetalLB.

Quote del cluster

Per impostazione predefinita, puoi registrare un massimo di 250 cluster con adesioni globali per parco risorse. Per registrare più cluster in GKE Hub, puoi inviare una richiesta per aumentare la tua quota nella console Google Cloud:

Vai a Quote

Per ulteriori informazioni sulle quote del cluster in base alle impostazioni di appartenenza, consulta Quote di allocazione.

Informazioni sulla scalabilità

Le informazioni contenute in questo documento sono pertinenti per la pianificazione dell'aumento di dimensione dei cluster. Per ulteriori informazioni, vedi Eseguire l'upgrade dei cluster Google Distributed Cloud.

Non hai trovato quello che stavi cercando? Fai clic su Invia feedback e facci sapere cosa manca.