NVIDIA Data Center GPU Manager (DCGM)

L'integrazione di NVIDIA Data Center GPU Manager raccoglie le metriche GPU avanzate principali da DCGM. L'agente Ops può essere configurato per raccogliere uno di due diversi insiemi di metriche selezionando la versione del ricevitore dcgm:

  • La versione 2 del ricevitore dcgm fornisce un insieme di metriche selezionate per monitorare le prestazioni e lo stato delle GPU collegate a una determinata istanza VM.
  • La versione 1 del ricevitore dcgm fornisce un insieme di metriche di profilazione destinate a essere utilizzate in combinazione con le metriche GPU predefinite. Per informazioni sullo scopo e sull'interpretazione di queste metriche, consulta Metriche di profilazione nella panoramica delle funzionalità del DCGM.

Per ulteriori informazioni su NVIDIA Data Center GPU Manager, consulta la documentazione di DCGM. Questa integrazione è compatibile con DCGM 3.1 e versioni successive.

Queste metriche sono disponibili solo per i sistemi Linux. Le metriche di profilazione non vengono raccolte dai modelli di GPU NVIDIA P100 e P4.

Prerequisiti

Per raccogliere le metriche DCGM di NVIDIA, devi procedere nel seguente modo:

  • Installa DCGM.

  • Installa l'agente operativo.

    • Metriche della versione 1: Ops Agent versione 2.38.0 o successive. Solo la versione 2.38.0 di Ops Agent o le versioni 2.41.0 o successive sono compatibili con il monitoraggio della GPU. Non installare le versioni 2.39.0 e 2.40.0 di Ops Agent sulle VM con GPU collegate. Per ulteriori informazioni, consulta Incidente dell'agente e report che menzionano NVIDIA.
    • Metriche della versione 2: Ops Agent versione 2.51.0 o successive.

Installa DCGM e verifica l'installazione

Devi installare DCGM versione 3.1 e successive e assicurarti che venga eseguito come servizio privilegiato. Per installare DCGM, consulta la sezione Installazione della documentazione di DCGM.

Per verificare che DCGM funzioni correttamente:

  1. Controlla lo stato del servizio DCGM eseguendo il seguente comando:

    sudo service nvidia-dcgm status
    

    Se il servizio è in esecuzione, il servizio nvidia-dcgm è elencato come active (running). L'output è simile al seguente:

    ● nvidia-dcgm.service - NVIDIA DCGM service
    Loaded: loaded (/usr/lib/systemd/system/nvidia-dcgm.service; disabled; vendor preset: enabled)
    Active: active (running) since Sat 2023-01-07 15:24:29 UTC; 3s ago
    Main PID: 24388 (nv-hostengine)
    Tasks: 7 (limit: 14745)
    CGroup: /system.slice/nvidia-dcgm.service
           └─24388 /usr/bin/nv-hostengine -n --service-account nvidia-dcgm
    
  2. Verifica che i dispositivi GPU siano stati trovati eseguendo il seguente comando:

    dcgmi discovery --list
    

    Se vengono trovati dispositivi, l'output è simile al seguente:

    1 GPU found.
    +--------+----------------------------------------------------------------------+
    | GPU ID | Device Information                                                   |
    +--------+----------------------------------------------------------------------+
    | 0      | Name: NVIDIA A100-SXM4-40GB                                          |
    |        | PCI Bus ID: 00000000:00:04.0                                         |
    |        | Device UUID: GPU-a2d9f5c7-87d3-7d57-3277-e091ad1ba957                |
    +--------+----------------------------------------------------------------------+
    

Configurare l'Ops Agent per DCGM

Seguendo la guida alla configurazione di Ops Agent, aggiungi gli elementi necessari per raccogliere la telemetria dal servizio DCGM e riavvia l'agente.

Configurazione di esempio

I seguenti comandi creano la configurazione per raccogliere e importare le metriche della versione 2 del ricevitore per NVIDIA DCGM e riavviare Ops Agent:

# Configures Ops Agent to collect telemetry from the app and restart Ops Agent.
set -e

# Create a back up of the existing file so existing configurations are not lost.
sudo cp /etc/google-cloud-ops-agent/config.yaml /etc/google-cloud-ops-agent/config.yaml.bak

# Configure the Ops Agent.
sudo tee /etc/google-cloud-ops-agent/config.yaml > /dev/null << EOF
metrics:
  receivers:
    dcgm:
      type: dcgm
      receiver_version: 2
  service:
    pipelines:
      dcgm:
        receivers:
          - dcgm
EOF

sudo service google-cloud-ops-agent restart
sleep 20

Se vuoi raccogliere solo le metriche di profilazione DCGM, sostituisci il valore del campo receiver_version con 1. Puoi anche rimuovere completamente la voce receiver_version. La versione predefinita è 1. Non puoi utilizzare entrambe le versioni contemporaneamente.

Dopo aver eseguito questi comandi, puoi verificare che l'agente sia stato riavviato. Esegui il seguente comando e verifica che i componenti dei subagenti "Agente di monitoraggio" e "Agente di logging" siano elencati come "attivi (in esecuzione)":

sudo systemctl status google-cloud-ops-agent"*"

Se utilizzi un account di servizio personalizzato anziché il service account predefinito di Compute Engine o se hai una VM Compute Engine molto vecchia, potresti dover autorizzare Ops Agent.

Configurazione della raccolta di metriche

Per importare le metriche da NVIDIA DCGM, devi creare un ricevitore per le metriche prodotte da NVIDIA DCGM e poi una pipeline per il nuovo ricevitore.

Questo ricevitore non supporta l'utilizzo di più istanze nella configurazione, ad esempio per monitorare più endpoint. Tutte queste istanze scrivono nella stessa serie temporale e Cloud Monitoring non ha modo di distinguerle.

Per configurare un destinatario per le metriche dcgm, specifica i seguenti campi:

Campo Predefinito Descrizione
collection_interval 60s Una durata, ad esempio 30s o 5m.
endpoint localhost:5555 Indirizzo del servizio DCGM, formattato come host:port.
receiver_version 1 1 o 2. La versione 2 offre molte più metriche.
type Questo valore deve essere dcgm.

Che cosa viene monitorato

Le tabelle riportate di seguito forniscono gli elenchi delle metriche raccolte dall'Ops Agent dall'istanza NVIDIA DGCM. Non tutte le metriche sono disponibili per tutti i modelli di GPU. Le metriche di profilazione non vengono raccolte dai modelli di GPU NVIDIA P100 e P4.

Metriche della versione 1

Le seguenti metriche vengono raccolte utilizzando la versione 1 del ricevitore dcgm.

Tipo di metrica 
Tipo, Tipo
Risorse monitorate
Etichette
workload.googleapis.com/dcgm.gpu.profiling.dram_utilization 
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
GAUGEINT64
gce_instance
direction
gpu_number
model
uuid
workload.googleapis.com/dcgm.gpu.profiling.pcie_traffic_rate 
GAUGEINT64
gce_instance
direction
gpu_number
model
uuid
workload.googleapis.com/dcgm.gpu.profiling.pipe_utilization 
GAUGEDOUBLE
gce_instance
gpu_number
model
pipe  
uuid
workload.googleapis.com/dcgm.gpu.profiling.sm_occupancy 
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/dcgm.gpu.profiling.sm_utilization 
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid

 Non disponibile sui modelli di GPU P100 e P4.

 Per L4, il valore pipe fp64 non è supportato.

Metriche della versione 2

Le seguenti metriche vengono raccolte utilizzando la versione 2 del ricevitore dcgm.

Tipo di metrica 
Tipo, Tipo
Risorse monitorate
Etichette
workload.googleapis.com/gpu.dcgm.clock.frequency
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.clock.throttle_duration.time
CUMULATIVEDOUBLE
gce_instance
gpu_number
model
uuid
violation  
workload.googleapis.com/gpu.dcgm.codec.decoder.utilization
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.codec.encoder.utilization
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.ecc_errors
CUMULATIVEINT64
gce_instance
error_type
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.energy_consumption
CUMULATIVEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.memory.bandwidth_utilization
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.memory.bytes_used
GAUGEINT64
gce_instance
gpu_number
model
state
uuid
workload.googleapis.com/gpu.dcgm.nvlink.io 
CUMULATIVEINT64
gce_instance
direction
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.pcie.io 
CUMULATIVEINT64
gce_instance
direction
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.pipe.utilization 
GAUGEDOUBLE
gce_instance
gpu_number
model
pipe  §
uuid
workload.googleapis.com/gpu.dcgm.sm.utilization 
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.temperature
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid
workload.googleapis.com/gpu.dcgm.utilization
GAUGEDOUBLE
gce_instance
gpu_number
model
uuid

 Per P100 e P4, sono supportati solo i valori violation power, thermal e sync_boost.

 Non disponibile sui modelli di GPU P100 e P4.

§ Per L4, il valore pipe fp64 non è supportato.

Metriche GPU

Inoltre, la configurazione integrata per l'Ops Agent raccoglie anche le metriche agent.googleapis.com/gpu, che vengono registrate dalla biblioteca di gestione (NVML) di NVIDIA. Non è necessaria alcuna configurazione aggiuntiva in Ops Agent per raccogliere queste metriche, ma devi creare la VM con le GPU collegate e installare il driver della GPU. Per ulteriori informazioni, consulta Informazioni sulle metriche gpu. Le metriche del ricevitore dcgm versione 1 sono progettate per integrare queste metriche predefinite, mentre le metriche del ricevitore dcgm versione 2 sono progettate per essere autonome.

Verificare la configurazione

Questa sezione descrive come verificare di aver configurato correttamente il ricevitore NVIDIA DCGM. L'inizio della raccolta della telemetria da parte di Ops Agent potrebbe richiedere uno o due minuti.

Per verificare che le metriche NVIDIA DCGM vengano inviate a Cloud Monitoring:

  1. Nella console Google Cloud, vai alla pagina  Esplora metriche:

    Vai a Esplora metriche

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.

  2. Nella barra degli strumenti del riquadro Query Builder, seleziona il pulsante  MQL o  PromQL.
  3. Verifica che sia selezionato MQL nel pulsante di attivazione/disattivazione Lingua. Il pulsante di attivazione/disattivazione della lingua si trova nella stessa barra degli strumenti che consente di formattare la query.
    • Per le metriche della versione 1, inserisci la seguente query nell'editor e poi fai clic su Esegui query:
      fetch gce_instance
      | metric 'workload.googleapis.com/dcgm.gpu.profiling.sm_utilization'
      | every 1m
      
    • Per le metriche della versione 2, inserisci la seguente query nell'editor e poi fai clic su Esegui:
      fetch gce_instance
      | metric 'workload.googleapis.com/gpu.dcgm.sm.utilization'
      | every 1m
      

Visualizza dashboard

Per visualizzare le metriche NVIDIA DCGM, devi avere configurato un grafico o una dashboard. L'integrazione di NVIDIA DCGM include una o più dashboard. Le dashboard vengono installate automaticamente dopo aver configurato l'integrazione e dopo che Ops Agent ha iniziato a raccogliere i dati delle metriche.

Puoi anche visualizzare anteprime statiche delle dashboard senza installare l'integrazione.

Per visualizzare una dashboard installata:

  1. Nella console Google Cloud, vai alla pagina  Dashboard:

    Vai a Dashboard

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.

  2. Seleziona la scheda Elenco dashboard e poi scegli la categoria Integrazioni.
  3. Fai clic sul nome della dashboard che vuoi visualizzare.

Se hai configurato un'integrazione, ma la dashboard non è stata installata, controlla che l'Ops Agent sia in esecuzione. Se non sono disponibili dati metrici per un grafico nella dashboard, l'installazione della dashboard non va a buon fine. Una volta che Ops Agent inizia a raccogliere le metriche, la dashboard viene installata per te.

Per visualizzare un'anteprima statica della dashboard:

  1. Nella console Google Cloud, vai alla pagina  Integrazioni:

    Vai a Integrations (Integrazioni).

    Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.

  2. Fai clic sul filtro della piattaforma di deployment Compute Engine.
  3. Individua la voce relativa a NVIDIA DCGM e fai clic su Visualizza dettagli.
  4. Seleziona la scheda Dashboard per visualizzare un'anteprima statica. Se la dashboard è installata, puoi accedervi facendo clic su Visualizza dashboard.

Per ulteriori informazioni sulle dashboard in Cloud Monitoring, consulta Dashboard e grafici.

Per ulteriori informazioni sull'utilizzo della pagina Integrazioni, consulta Gestire le integrazioni.

Limitazioni di DCGM e messa in pausa della profilazione

L'utilizzo simultaneo di DCGM può entrare in conflitto con l'utilizzo di alcuni altri strumenti per sviluppatori NVIDIA, come Nsight Systems o Nsight Compute. Questa limitazione si applica alle GPU NVIDIA A100 e precedenti. Per ulteriori informazioni, consulta la sezione Tasso di campionamento del profilo nella panoramica delle funzionalità di DCGM.

Quando devi utilizzare strumenti come Nsight Systems senza interruzioni significative, puoi mettere in pausa o riprendere temporaneamente la raccolta delle metriche utilizzando i seguenti comandi:

dcgmi profile --pause
dcgmi profile --resume

Quando il profiling è in pausa, nessuna delle metriche DCGM raccolte da Ops Agent viene emessa dalla VM.

Passaggi successivi

Per una procedura dettagliata su come utilizzare Ansible per installare l'Ops Agent, configurare un'applicazione di terze parti e installare una dashboard di esempio, guarda il video Installa l'Ops Agent per risolvere i problemi relativi alle applicazioni di terze parti.