Questa pagina descrive le richieste di risorse massime, minime e predefinite che puoi specificare per i workload Autopilot di Google Kubernetes Engine (GKE) e in che modo Autopilot modifica automaticamente queste richieste per mantenere la stabilità dei workload.
Panoramica delle richieste di risorse in Autopilot
Autopilot utilizza le richieste di risorse specificate nella configurazione del carico di lavoro per configurare i nodi che eseguono i carichi di lavoro. Autopilot applica le richieste di risorse minime e massime in base alla classe di calcolo o alla configurazione hardware utilizzata dai tuoi carichi di lavoro. Se non specifichi le richieste per alcuni container, Autopilot assegna valori predefiniti per consentire l'esecuzione corretta di questi container.
Quando esegui il deployment di un carico di lavoro in un cluster Autopilot, GKE convalida la configurazione del carico di lavoro in base ai valori minimi e massimi consentiti per la classe di calcolo o la configurazione hardware selezionata (ad esempio le GPU). Se le richieste sono inferiori al minimo, Autopilot modifica automaticamente la configurazione del tuo carico di lavoro per riportarle nell'intervallo consentito. Se le richieste sono superiori al massimo, Autopilot rifiuta il carico di lavoro e visualizza un messaggio di errore.
L'elenco seguente riassume le categorie di richieste di risorse:
- Richieste di risorse predefinite: Autopilot le aggiunge se non specifichi le tue richieste per i carichi di lavoro.
- Richieste di risorse minime e massime: Autopilot convalida le richieste specificate per assicurarsi che rientrino in questi limiti. Se le richieste superano i limiti, Autopilot le modifica.
- Separazione dei workload e richieste di durata estesa: Autopilot ha valori predefiniti e minimi diversi per i workload separati tra loro o per i pod che ricevono una protezione estesa dall'espulsione avviata da GKE.
- Richieste di risorse per i DaemonSet: Autopilot ha valori predefinite, minimi e massimi diversi per i container nei DaemonSet.
Come richiedere risorse
In Autopilot, richiedi le risorse nella specifica del pod. Le risorse minime e massime supportate che puoi richiedere cambiano in base alla configurazione hardware del nodo su cui vengono eseguiti i pod. Per scoprire come richiedere configurazioni hardware specifiche, consulta le seguenti pagine:
- Scegliere le classi di calcolo per i pod Autopilot
- Eseguire il deployment dei carichi di lavoro GPU in Autopilot
Richieste di risorse predefinite
Se non specifichi le richieste di risorse per alcuni container in un pod, Autopilot applica i valori predefiniti. Questi valori predefiniti sono adatti per molti carichi di lavoro più piccoli.
Inoltre, Autopilot applica le seguenti richieste di risorse predefinite indipendentemente dalla classe di calcolo o dalla configurazione hardware selezionata:
Container nei DaemonSet
- CPU: 50 mCPU
- Memoria: 100 MiB
- Spazio di archiviazione temporanea: 100 MiB
Tutti gli altri contenitori
- Spazio di archiviazione temporaneo: 1 GiB
Per ulteriori informazioni sui limiti dei cluster Autopilot, consulta Quote e limiti.
Richieste predefinite per i classi di calcolo
Autopilot applica i seguenti valori predefiniti alle risorse non definite nella specifica del pod per i pod in esecuzione su classi di calcolo. Se imposti una sola richiesta e lasci vuota l'altra, GKE utilizza il rapporto CPU:memoria definito nella sezione Richieste minime e massime per impostare la richiesta mancante su un valore conforme al rapporto.
Classe di calcolo | Risorsa | Richiesta predefinita |
---|---|---|
Per uso generico (impostazione predefinita) | CPU | 0,5 vCPU |
Memoria | 2 GiB | |
Acceleratore | Consulta la sezione Risorse predefinite per gli acceleratori. | |
Bilanciato | CPU | 0,5 vCPU |
Memoria | 2 GiB | |
Prestazioni | CPU |
|
Memoria |
|
|
Spazio di archiviazione temporanea |
|
|
Scale out | CPU | 0,5 vCPU |
Memoria | 2 GiB |
Richieste predefinite per gli acceleratori
La seguente tabella descrive i valori predefiniti assegnati da GKE ai pod che non specificano valori nel campo requests
della specifica del pod. Questa tabella si applica ai pod che utilizzano la classe di calcolo Accelerator
, che è il modo consigliato per eseguire gli acceleratori nei cluster Autopilot.
Acceleratore | Risorsa | Richiesta predefinita totale |
---|---|---|
GPU NVIDIA H100 Mega (80 GB)nvidia-h100-mega-80gb |
CPU |
|
Memoria |
|
|
Spazio di archiviazione temporanea |
|
|
GPU NVIDIA H100 (80 GB)nvidia-h100-80gb |
CPU |
|
Memoria |
|
|
Spazio di archiviazione temporanea |
|
|
GPU NVIDIA A100 (40 GB)nvidia-tesla-a100 |
CPU |
|
Memoria |
|
|
GPU NVIDIA A100 (80 GB)nvidia-a100-80gb |
CPU |
|
Memoria |
|
|
Spazio di archiviazione temporanea |
|
|
GPU NVIDIA L4nvidia-l4 |
CPU |
|
Memoria |
|
|
GPU NVIDIA T4nvidia-tesla-t4 |
CPU |
|
Memoria |
|
|
TPU Trillium (v6e)tpu-v6e-slice (singolo host) |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB | |
TPU Trillium (v6e)tpu-v6e-slice (multi-host) |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB | |
TPU v5etpu-v5-lite-device (singolo host) |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB | |
TPU v5etpu-v5-lite-podslice (multi-host) |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB | |
TPU v5ptpu-v5p-slice |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB | |
TPU v4tpu-v4-podslice |
CPU | Tutte le topologie: 1 mCPU |
Memoria | Tutte le topologie: 1 MiB |
GPU supportate senza la classe di calcolo Accelerator
Se non utilizzi la classe di calcolo Accelerator, sono supportate solo le seguenti GPU. Le richieste di risorse predefinite per queste GPU sono le stesse della classe di calcolo Accelerator:
- NVIDIA A100 (40GB)
- NVIDIA A100 (80GB)
- NVIDIA L4
- NVIDIA Tesla T4
Richieste di risorse minime e massime
Le risorse totali richieste dalla configurazione di implementazione devono rientrare nei valori minimi e massimi supportati consentiti da Autopilot. Si applicano le seguenti condizioni:
Richieste di spazio di archiviazione temporanea:
Lo spazio di archiviazione temporaneo utilizza il disco di avvio della VM, a meno che ai nodi non siano collegate unità SSD locali.
L'hardware di calcolo che include SSD locali come GPU A100 (80 GB), GPU H100 (80 GB) o la serie di macchine Z3 supporta una richiesta massima pari alle dimensioni dell'SSD locale meno l'eventuale overhead del sistema. Per informazioni su questo overhead di sistema, consulta Spazio di archiviazione temporaneo basato su SSD locali.
In GKE versione 1.29.3-gke.1038000 e successive, i pod di classe Performance e i pod di acceleratore hardware supportano una richiesta massima di archiviazione temporanea di 56 Ti, a meno che l'hardware non includa SSD locali.
In tutti gli altri pod Autopilot, indipendentemente dalla versione di GKE, la richiesta di spazio di archiviazione temporaneo totale per tutti i contenitori nel pod deve essere compresa tra 10 MiB e 10 GiB, se non diversamente specificato.
Per volumi più grandi, utilizza volumi effimeri generici, che offrono funzionalità e prestazioni equivalenti allo archiviazione effimero, ma con una flessibilità molto maggiore in quanto possono essere utilizzati con qualsiasi opzione di archiviazione GKE. Ad esempio, la dimensione massima per un volume effimero generico che utilizza
pd-balanced
è 64 TiB.
Per i pod DaemonSet, le richieste di risorse minime sono le seguenti:
- Cluster che supportano l'aumento temporaneo delle risorse: 1 mCPU per pod, 2 MiB di memoria per pod e 10 MiB di archiviazione temporanea per contenitore nel pod.
- Cluster che non supportano l'aumento temporaneo: 10 milioni di CPU per pod, 10 MiB di memoria per pod e 10 MiB di archiviazione temporanea per contenitore nel pod.
Per verificare se il tuo cluster supporta l'esplosione, consulta Disponibilità dell'esplosione in GKE.
Se il tuo cluster supporta il picco, Autopilot non applica incrementi di 0,25 vCPU per le richieste di CPU dei pod. Se il tuo cluster non supporta il picco, Autopilot arrotonda le richieste di CPU al valore più vicino a 0,25 vCPU. Per verificare se il tuo cluster supporta l'esplosione, consulta Disponibilità dell'esplosione in GKE.
Il rapporto CPU:memoria deve rientrare nell'intervallo consentito per la classe di calcolo o la configurazione hardware selezionata. Se il rapporto CPU:memoria è al di fuori dell'intervallo consentito, Autopilot aumenta automaticamente la risorsa più piccola. Ad esempio, se richiedi 1 vCPU e 16 GB di memoria (rapporto 1:16) per i pod in esecuzione nella classe
Scale-Out
, Autopilot aumenta la richiesta di CPU a 4 vCPU, modificando il rapporto in 1:4.
Valori minimi e massimi per le classi di calcolo
La seguente tabella descrive il rapporto CPU/memoria minimo, massimo e consentito per ogni classe di calcolo supportata da Autopilot:
Classe di calcolo | Rapporto CPU:memoria (vCPU:GiB) | Risorsa | Minimo | Massimo |
---|---|---|---|---|
Per uso generico (impostazione predefinita) | Tra 1:1 e 1:6,5 | CPU | Il valore dipende dal fatto che il cluster supporti o meno l'esplosione, come segue:
Per verificare se il tuo cluster supporta l'aumento temporaneo delle risorse, consulta Disponibilità dell'aumento temporaneo delle risorse in GKE. |
30 vCPU |
Memoria | Il valore dipende dal fatto che il cluster supporti o meno l'esplosione, come segue:
Per verificare se il tuo cluster supporta l'aumento temporaneo delle risorse, consulta Disponibilità dell'aumento temporaneo delle risorse in GKE. |
110 GiB | ||
Acceleratore | Consulta la sezione Valori minimi e massimi per gli acceleratori | |||
Bilanciato | Tra 1:1 e 1:8 | CPU | 0,25 vCPU | 222 vCPU Se è selezionata la piattaforma CPU minima:
|
Memoria | 0,5 GiB | 851 GiB Se è selezionata la piattaforma CPU minima:
|
||
Prestazioni | N/D | CPU | 0,001 vCPU |
|
Memoria | 1 MiB |
|
||
Spazio di archiviazione temporanea | 10 MiB |
Nella versione 1.29.3-gke.1038000 e successive, puoi specificare una richiesta di archiviazione temporanea massima di 56 Ti, a meno che l'hardware non includa SSD locali. |
||
Scale out | 1:4 | CPU | 0,25 vCPU |
|
Memoria | 1 GiB |
|
Per scoprire come richiedere classi di calcolo nei pod Autopilot, consulta Scegliere classi di calcolo per i pod Autopilot.
Valori minimi e massimi per gli acceleratori
Le sezioni seguenti descrivono il rapporto CPU/memoria minimo, massimo e consentito per i pod che utilizzano acceleratori hardware come GPU e TPU.
Se non specificato, lo spazio di archiviazione temporaneo massimo supportato è 122 GiB nelle versioni 1.28.6-gke.1369000 o successive e 1.29.1-gke.1575000 o successive. Per le versioni precedenti, lo spazio di archiviazione temporaneo massimo supportato è 10 GiB.
Valori minimi e massimi per la classe di calcolo Accelerator
La tabella seguente mostra le richieste di risorse minime e massime per i pod che utilizzano la classe di calcolo Accelerator, che è il modo consigliato per eseguire gli acceleratori con i cluster GKE Autopilot. Nella classe di calcolo Accelerator, GKE non applica i rapporti di richiesta CPU/memoria.
Tipo di acceleratore | Risorsa | Minimo | Massimo |
---|---|---|---|
NVIDIA H100 Mega (80GB)nvidia-h100-mega-80gb |
CPU |
|
|
Memoria |
|
|
|
Spazio di archiviazione temporanea |
|
|
|
NVIDIA H100 (80GB)nvidia-h100-80gb |
CPU |
|
|
Memoria |
|
|
|
Spazio di archiviazione temporanea |
|
|
|
NVIDIA A100 (40GB)nvidia-tesla-a100 |
CPU | 0,001 vCPU |
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU A100 non deve superare 2 vCPU. |
Memoria | 1 MiB |
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU A100 non deve superare i 14 GiB. |
|
NVIDIA A100 (80GB)nvidia-a100-80gb |
CPU | 0,001 vCPU |
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU A100 (80 GB) non deve superare 2 vCPU. |
Memoria | 1 MiB |
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU A100 (80 GB) non deve superare i 14 GiB. |
|
Spazio di archiviazione temporanea | 512 MiB |
|
|
NVIDIA L4nvidia-l4 |
CPU | 0,001 vCPU |
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU L4 non deve superare 2 vCPU. |
Memoria | 1 MiB |
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU L4 non deve superare i 14 GiB. |
|
NVIDIA Tesla T4nvidia-tesla-t4 |
CPU | 0,001 vCPU |
|
Memoria | 1 MiB |
|
|
TPU v5etpu-v5-lite-device |
CPU | 0,001 vCPU |
|
Memoria | 1 MiB |
|
|
Spazio di archiviazione temporanea | 10 MiB | 56 TiB | |
TPU v5etpu-v5-lite-podslice |
CPU | 0,001 vCPU |
|
Memoria | 1 MiB |
|
|
Spazio di archiviazione temporanea | 10 MiB | 56 TiB | |
TPU v5ptpu-v5p-slice |
CPU | 0,001 vCPU | 280 vCPU |
Memoria | 1 MiB | 448 GiB | |
Spazio di archiviazione temporanea | 10 MiB | 56 TiB | |
TPU v4tpu-v4-podslice |
CPU | 0,001 vCPU | 240 vCPU |
Memoria | 1 MiB | 407 GiB | |
Spazio di archiviazione temporanea | 10 MiB | 56 TiB |
Per scoprire come richiedere GPU nei pod Autopilot, consulta Esegui il deployment dei carichi di lavoro GPU in Autopilot.
Valori minimi e massimi per le GPU senza una classe di calcolo
La tabella seguente mostra le richieste di risorse minime e massime per i pod che non utilizzano la classe di calcolo Accelerator:
Tipo di GPU | Rapporto CPU:memoria (vCPU:GiB) | Risorsa | Minimo | Massimo |
---|---|---|---|---|
NVIDIA A100 (40GB)nvidia-tesla-a100 |
Non applicato | CPU |
|
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU A100 non deve superare 2 vCPU. |
Memoria |
|
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU A100 non deve superare i 14 GiB. |
||
NVIDIA A100 (80GB)nvidia-a100-80gb |
Non applicato | CPU |
|
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU A100 (80 GB) non deve superare 2 vCPU. |
Memoria |
|
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU A100 (80 GB) non deve superare i 14 GiB. |
||
Spazio di archiviazione temporanea |
|
|
||
NVIDIA L4nvidia-l4 |
|
CPU |
|
La somma delle richieste di CPU di tutti i DaemonSet in esecuzione su un nodo GPU L4 non deve superare 2 vCPU. |
Memoria |
|
La somma delle richieste di memoria di tutti i DaemonSet in esecuzione su un nodo GPU L4 non deve superare i 14 GiB. |
||
NVIDIA Tesla T4nvidia-tesla-t4 |
Tra 1:1 e 1:6,25 | CPU | 0,5 vCPU |
|
Memoria | 0,5 GiB |
|
Per scoprire come richiedere GPU nei pod Autopilot, consulta Esegui il deployment dei carichi di lavoro GPU in Autopilot.
Richieste di risorse per la separazione dei carichi di lavoro e la durata estesa
Autopilot ti consente di manipolare il comportamento di pianificazione ed espulsione di Kubernetes utilizzando metodi come i seguenti:
- Utilizza incompatibilità e tolleranze e selettori dei nodi per garantire che determinati pod vengano posizionati solo su nodi specifici. Per maggiori dettagli, consulta Configurare la separazione dei carichi di lavoro in GKE.
- Utilizza Pod Anti Affinity per impedire la co-localizzazione dei pod sullo stesso nodo. Le richieste di risorse predefinite e minime per i carichi di lavoro che utilizzano questi metodi per controllare il comportamento della pianificazione sono superiori a quelle dei carichi di lavoro che non lo fanno.
- Utilizza un'annotazione per proteggere i pod dall'espulsione causata dagli upgrade automatici dei nodi e dagli eventi di riduzione per un massimo di sette giorni. Per maggiori dettagli, consulta Estendere il tempo di esecuzione dei pod Autopilot.
Se le richieste specificate sono inferiori ai valori minimi, il comportamento di Autopilot cambia in base al metodo utilizzato, come segue:
- Contaminazioni, tolleranze, selettori e pod con durata estesa: Autopilot modifica i pod per aumentare le richieste durante la pianificazione.
- Anti-affinità dei pod: Autopilot rifiuta il pod e visualizza un messaggio di errore.
La seguente tabella descrive le richieste predefinite e le richieste di risorse minime che puoi specificare. Se una configurazione o una classe di calcolo non è presente in questa tabella, Autopilot non applica valori minimi o predefiniti speciali.
Classe di calcolo | Risorsa | Predefinito | Minimo |
---|---|---|---|
Per uso generico | CPU | 0,5 vCPU | 0,5 vCPU |
Memoria | 2 GiB | 0,5 GiB | |
Bilanciato | CPU | 2 vCPU | 1 vCPU |
Memoria | 8 GiB | 4 GiB | |
Scale out | CPU | 0,5 vCPU | 0,5 vCPU |
Memoria | 2 GiB | 2 GiB |
Container inizializzazione
I container di inizializzazione vengono eseguiti in serie e devono essere completati prima dell'avvio dei container dell'applicazione. Se non specifichi le richieste di risorse per i container di inizializzazione Autopilot, GKE alloca le risorse totali disponibili per il pod a ogni container di inizializzazione. Questo comportamento è diverso da quello di GKE Standard, in cui ogni contenitore iniziale può utilizzare qualsiasi risorsa non allocata disponibile sul nodo su cui è pianificato il pod.
A differenza dei container delle applicazioni, GKE consiglia di non specificare le richieste di risorse per i container di inizializzazione Autopilot, in modo che ogni container riceva tutte le risorse disponibili per il pod. Se richiedi meno risorse rispetto a quelle predefinite, limiti il contenitore di inizializzazione. Se richiedi più risorse rispetto a quelle predefinite di Autopilot, potresti aumentare la fattura per l'intera durata del pod.
Impostazione dei limiti di risorse in Autopilot
Kubernetes ti consente di impostare sia requests
sia limits
per le risorse nella specifica del pod. Il comportamento dei pod cambia a seconda che i limits
siano diversi dai requests
, come descritto nella tabella seguente:
Valori impostati | Comportamento di Autopilot |
---|---|
requests uguale a limits |
I pod utilizzano la classe QoS Guaranteed .
|
requests impostato, limits non impostato |
Il comportamento dipende dal fatto che il cluster supporti o meno l'esplosione, come segue:
Per verificare se il tuo cluster supporta l'aumento temporaneo delle risorse, consulta Disponibilità dell'aumento temporaneo delle risorse in GKE. |
requests non impostato, limits impostato |
Autopilot imposta requests sul valore
di limits , che è il comportamento predefinito di Kubernetes.
Prima: resources: limits: cpu: "400m" Dopo: resources: requests: cpu: "400m" limits: cpu: "400m" |
requests in meno rispetto a limits |
Il comportamento dipende dal fatto che il cluster supporti o meno l'esplosione, come segue:
Per verificare se il tuo cluster supporta l'aumento temporaneo delle risorse, consulta Disponibilità dell'aumento temporaneo delle risorse in GKE. |
requests maggiore di limits |
Autopilot imposta requests sul valore
di limits .
Prima: resources: requests: cpu: "450m" limits: cpu: "400m" Dopo: resources: requests: cpu: "400m" limits: cpu: "400m" |
requests non impostato, limits non impostato |
Autopilot imposta Il comportamento di
Per verificare se il tuo cluster supporta l'aumento temporaneo delle risorse, consulta Disponibilità dell'aumento temporaneo delle risorse in GKE. |
Nella maggior parte dei casi, imposta richieste di risorse adeguate e limiti uguali per i tuoi carichi di lavoro.
Per i carichi di lavoro che richiedono temporaneamente più risorse rispetto al loro stato stabile, ad esempio durante l'avvio o durante i periodi di traffico più elevato, imposta i limiti più elevati rispetto alle richieste per consentire l'esplosione dei pod. Per maggiori dettagli, consulta Configurare l'esplosione dei pod in GKE.
Gestione automatica delle risorse in Autopilot
Se le richieste di risorse specificate per i carichi di lavoro non rientrano negli intervalli consentiti o se non richiedi risorse per alcuni container, Autopilot modifica la configurazione del carico di lavoro in modo che sia conforme ai limiti consentiti. Autopilot calcola i rapporti delle risorse e i requisiti di scalabilità delle risorse dopo aver applicato i valori predefiniti ai contenitori senza richieste specificate.
- Richieste mancanti: se non richiedi risorse in alcuni container, Autopilot applica le richieste predefinite per la classe di calcolo o la configurazione hardware.
- Rapporto CPU:memoria:Autopilot esegue il scale up della risorsa più piccola per portare il rapporto nell'intervallo consentito.
- Spazio di archiviazione temporaneo:Autopilot modifica le richieste di spazio di archiviazione temporaneo per soddisfare la quantità minima richiesta da ogni contenitore. Il valore cumulativo delle richieste di spazio di archiviazione in tutti i contenitori non può essere superiore al valore massimo consentito. Prima della versione 1.28.6-gke.1317000, Autopilot riduce lo spazio di archiviazione temporaneo richiesto se il valore supera il massimo. Nella versione 1.28.6-gke.1317000 e successive, Autopilot rifiuta il carico di lavoro.
- Richieste inferiori ai valori minimi: se richiedi meno risorse rispetto al valore minimo consentito per la configurazione hardware selezionata, Autopilot modifica automaticamente il pod in modo da richiedere almeno il valore minimo della risorsa.
Per impostazione predefinita, quando Autopilot esegue la scalabilità automatica di una risorsa per soddisfare un valore minimo o predefinito della risorsa, GKE alloca la capacità aggiuntiva al primo contenitore nel manifest del pod. In GKE
versione 1.27.2-gke.2200 e successive, puoi chiedere a GKE di allocare
le risorse aggiuntive a un container specifico aggiungendo quanto segue al
annotations
campo nel manifest del pod:
autopilot.gke.io/primary-container: "CONTAINER_NAME"
Sostituisci CONTAINER_NAME
con il nome del
contenitore.
Esempi di modifica delle risorse
Lo scenario di esempio seguente mostra in che modo Autopilot modifica la configurazione del workload per soddisfare i requisiti dei pod e dei container in esecuzione.
Singolo contenitore con meno di 0,05 vCPU
Numero contenitore | Richiesta originale | Richiesta modificata |
---|---|---|
1 |
CPU: 30 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
CPU: 50 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
Più container con CPU totale < 0,05 vCPU
Numero contenitore | Richieste originali | Richieste modificate |
---|---|---|
1 | CPU: 10 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
CPU: 30 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
2 | CPU: 10 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
CPU: 10 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
3 | CPU: 10 mvCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
CPU: 10 mCPU Memoria: 0,5 GiB Spazio di archiviazione temporaneo: 10 MiB |
Risorse totali del pod | CPU: 50 mCPU Memoria: 1,5 GiB Spazio di archiviazione temporaneo: 30 MiB |
Singolo contenitore con memoria troppo bassa per la CPU richiesta
In questo esempio, la memoria è troppo bassa per la quantità di CPU (minima 1 vCPU:1 GiB). Il rapporto CPU/memoria minimo consentito è 1:1. Se il rapporto è inferiore, la richiesta di memoria viene aumentata.
Numero contenitore | Richiesta originale | Richiesta modificata |
---|---|---|
1 | CPU: 4 vCPU Memoria: 1 GiB Spazio di archiviazione temporaneo: 10 MiB |
CPU: 4 vCPU Memoria: 4 GiB Spazio di archiviazione temporaneo: 10 MiB |
Risorse totali del pod | CPU: 4 vCPU Memoria: 4 GiB Spazio di archiviazione temporaneo: 10 MiB |
Passaggi successivi
- Scopri come selezionare le classi di calcolo nei carichi di lavoro Autopilot.
- Scopri di più sulle classi di calcolo Autopilot supportate.
- Scopri come selezionare le GPU nei pod Autopilot.