Questo documento descrive come configurare il deployment di Google Kubernetes Engine in modo da poter utilizzare Google Cloud Managed Service per Prometheus per raccogliere le metriche da TensorFlow Serving. Questo documento illustra come:
- Configura TF Serving per generare report sulle metriche.
- Configura una risorsa PodMonitoring per Managed Service per Prometheus per raccogliere le metriche esportate.
- Accedi a una dashboard in Cloud Monitoring per visualizzare le metriche.
Queste istruzioni si applicano solo se utilizzi la raccolta gestita con Managed Service per Prometheus. Se utilizzi la raccolta di cui hai eseguito il deployment autonomo, consulta la documentazione di TF Serving per informazioni sull'installazione.
Queste istruzioni sono fornite come esempio e dovrebbero funzionare nella maggior parte degli ambienti Kubernetes. Se hai difficoltà a installare un'applicazione o un esportatore a causa di criteri di sicurezza o organizzativi restrittivi, ti consigliamo di consultare la documentazione open source per ricevere assistenza.
Per informazioni su TensorFlow Serving, consulta TF Serving. Per informazioni su come configurare TF Serving su Google Kubernetes Engine, consulta la guida di GKE per TF Serving.
Prerequisiti
Per raccogliere le metriche da TF Serving utilizzando Managed Service per Prometheus e la raccolta gestita, il tuo deployment deve soddisfare i seguenti requisiti:
- Sul cluster deve essere in esecuzione Google Kubernetes Engine versione 1.21.4-gke.300 o successiva.
- Devi eseguire Managed Service per Prometheus con la raccolta gestita abilitata. Per ulteriori informazioni, consulta la guida introduttiva alla raccolta gestita.
TF Serving espone le metriche in formato Prometheus quando viene utilizzato il flag --monitoring_config_file
per specificare un file contenente un buffer di protocollo MonitoringConfig.
Di seguito è riportato un esempio di buffer del protocollo MonitoringConfig:
Se stai seguendo la guida alla configurazione di Google Kubernetes Engine, Pubblica un modello con una singola GPU in GKE, il buffer del protocollo MonitoringConfig è definito nell'ambito della configurazione predefinita.
Se configuri TF Serving autonomamente, segui questa procedura per specificare il buffer del protocollo MonitoringConfig:
Crea un file denominato
monitoring_config.txt
contenente il buffer del protocollo MonitoringConfig nella directory del modello prima di caricare la directory nel bucket Cloud Storage.Carica la directory del modello nel bucket Cloud Storage:
gcloud storage cp MODEL_DIRECTORY gs://CLOUD_STORAGE_BUCKET_NAME --recursive
Imposta la variabile di ambiente
PATH_TO_MONITORING_CONFIG
sul percorso del filemonitoring_config.txt
caricato, ad esempio:export PATH_TO_MONITORING_CONFIG=/data/tfserve-model-repository/monitoring_config.txt
Aggiungi il seguente flag e valore al comando del contenitore nel file YAML di deployment del contenitore:
"--monitoring_config=$PATH_TO_MONITORING_CONFIG"
Ad esempio, il comando potrebbe avere il seguente aspetto:
command: [ "tensorflow_model_server", "--model_name=$MODEL_NAME", "--model_base_path=/data/tfserve-model-repository/$MODEL_NAME", "--rest_api_port=8000", "--monitoring_config_file=$PATH_TO_MONITORING_CONFIG" ]
Modifica la configurazione di TF Serving
Modifica la configurazione di TF Serving come mostrato nell'esempio seguente:
Devi aggiungere eventuali righe precedute dal simbolo +
alla configurazione.
Per applicare le modifiche alla configurazione da un file locale, esegui il seguente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
Puoi anche utilizzare Terraform per gestire le configurazioni.
Per verificare che TF Serving stia emettendo metriche sugli endpoint previsti:- Configura il port forwarding utilizzando il seguente comando:
kubectl -n NAMESPACE_NAME port-forward POD_NAME 8000
- Accedi all'endpoint
localhost:8000/monitoring/prometheus/metrics
utilizzando il browser o l'utilitàcurl
in un'altra sessione del terminale.
Definisci una risorsa PodMonitoring
Per il rilevamento dei target, l'operatore Managed Service per Prometheus richiede una risorsa PodMonitoring corrispondente a TF Serving nello stesso spazio dei nomi.
Puoi utilizzare la seguente configurazione di PodMonitoring:
Per applicare le modifiche alla configurazione da un file locale, esegui il seguente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
Puoi anche utilizzare Terraform per gestire le configurazioni.
Verificare la configurazione
Puoi utilizzare Esplora metriche per verificare di aver configurato correttamente la pubblicazione di TF. L'importazione delle metriche da parte di Cloud Monitoring potrebbe richiedere uno o due minuti.
Per verificare che le metriche siano importate, procedi nel seguente modo:
-
Nella console Google Cloud, vai alla pagina leaderboard Esplora metriche:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.
- Nella barra degli strumenti del riquadro Query Builder, seleziona il pulsante code MQL o code PromQL.
- Verifica che PromQL sia selezionato nel pulsante di attivazione/disattivazione Lingua. Il pulsante di attivazione/disattivazione della lingua si trova nella stessa barra degli strumenti che consente di formattare la query.
- Inserisci ed esegui la seguente query:
up{job="tfserve", cluster="CLUSTER_NAME", namespace="NAMESPACE_NAME"}
Visualizza dashboard
L'integrazione di Cloud Monitoring include la dashboard Panoramica di Prometheus per TensorFlow Serving. Le dashboard vengono installate automaticamente quando configuri l'integrazione. Puoi anche visualizzare anteprime statiche delle dashboard senza installare l'integrazione.
Per visualizzare una dashboard installata:
-
Nella console Google Cloud, vai alla pagina
Dashboard:
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.
- Seleziona la scheda Elenco dashboard.
- Scegli la categoria Integrazioni.
- Fai clic sul nome della dashboard, ad esempio Panoramica di Prometheus per TensorFlow Serving.
Per visualizzare un'anteprima statica della dashboard:
-
Nella console Google Cloud, vai alla pagina
Integrazioni:
Vai a Integrations (Integrazioni).
Se utilizzi la barra di ricerca per trovare questa pagina, seleziona il risultato con il sottotitolo Monitoring.
- Fai clic sul filtro della piattaforma di deployment Kubernetes Engine.
- Individua l'integrazione di TensorFlow Serving e fai clic su Visualizza dettagli.
- Seleziona la scheda Dashboard.
Risoluzione dei problemi
Per informazioni sulla risoluzione dei problemi di importazione delle metriche, consulta Problemi di raccolta dagli esportatori in Risoluzione dei problemi relativi all'importazione.