En este documento, se describe cómo configurar tu implementación de Google Kubernetes Engine para que puedas usar Google Cloud Managed Service para Prometheus para recopilar métricas de TensorFlow Serving. Este documento te muestra cómo hacer lo siguiente:
- Configura TF Serving para informar las métricas.
- Configurar un recurso PodMonitoring a fin de que Managed Service para Prometheus recopile las métricas exportadas.
- Acceder a un panel en Cloud Monitoring para ver las métricas
Estas instrucciones se aplican solo si usas la colección administrada con Managed Service para Prometheus. Si usas la colección implementada de forma automática, consulta la documentación de TF Serving para obtener información sobre la instalación.
Estas instrucciones se proporcionan como ejemplo y se espera que funcionen en la mayoría de los entornos de Kubernetes. Si tienes problemas para instalar una aplicación o un exportador debido a políticas restringidas de la organización o de seguridad, te recomendamos que consultes la documentación de código abierto a fin de obtener asistencia.
Para obtener información sobre TensorFlow Serving, consulta TF Serving. Para obtener información sobre cómo configurar TF Serving en Google Kubernetes Engine, consulta la guía de GKE para TF Serving.
Requisitos previos
Para recopilar métricas desde TF Serving mediante Managed Service para Prometheus y la colección administrada, tu implementación debe cumplir los siguientes requisitos:
- Tu clúster debe ejecutar la versión 1.21.4-gke.300 o posterior de Google Kubernetes Engine.
- Debes ejecutar Managed Service para Prometheus con la colección administrada habilitada. Para obtener más información, consulta Primeros pasos con la recopilación administrada.
TF Serving expone métricas de formato de Prometheus cuando se usa la marca --monitoring_config_file
para especificar un archivo que contiene un búfer de protocolo de MonitoringConfig.
El siguiente es un ejemplo de un búfer de protocolo de MonitoringConfig:
Si sigues la guía de configuración de Google Kubernetes Engine, Publica un modelo con una sola GPU en GKE. Luego, el búfer de protocolo de MonitoringConfig se define como parte de la configuración predeterminada.
Si configuras TF Serving por tu cuenta, haz lo siguiente para especificar el búfer de protocolo MonitoringConfig:
Crea un archivo llamado
monitoring_config.txt
que contenga el búfer de protocolo de MonitoringConfig en el directorio del modelo antes de subir el directorio al bucket de Cloud Storage.Sube el directorio del modelo al bucket de Cloud Storage:
gcloud storage cp MODEL_DIRECTORY gs://CLOUD_STORAGE_BUCKET_NAME --recursive
Establece la variable de entorno
PATH_TO_MONITORING_CONFIG
en la ruta del archivomonitoring_config.txt
subido, por ejemplo:export PATH_TO_MONITORING_CONFIG=/data/tfserve-model-repository/monitoring_config.txt
Agrega la siguiente marca y el valor al comando del contenedor en el archivo YAML de implementación del contenedor:
"--monitoring_config=$PATH_TO_MONITORING_CONFIG"
Por ejemplo, tu comando podría verse de la siguiente manera:
command: [ "tensorflow_model_server", "--model_name=$MODEL_NAME", "--model_base_path=/data/tfserve-model-repository/$MODEL_NAME", "--rest_api_port=8000", "--monitoring_config_file=$PATH_TO_MONITORING_CONFIG" ]
Modifica la configuración de TF Serving
Modifica la configuración de TF Serving como se muestra en el siguiente ejemplo:
Debes agregar cualquier línea precedida por el símbolo +
a tu configuración.
Para aplicar los cambios de configuración desde un archivo local, ejecuta el siguiente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
También puedes usar Terraform para administrar tus opciones de configuración.
Para verificar que TF Serving emita métricas en los extremos esperados, haz lo siguiente:- Configura la redirección de puertos mediante el siguiente comando:
kubectl -n NAMESPACE_NAME port-forward POD_NAME 8000
- Accede al extremo
localhost:8000/monitoring/prometheus/metrics
mediante el navegador o la utilidadcurl
en otra sesión de la terminal.
Define un recurso PodMonitoring
Para el descubrimiento de destinos, el operador de Managed Service para Prometheus requiere un recurso PodMonitoring que corresponda a TF Serving en el mismo espacio de nombres.
Puedes usar la siguiente configuración de PodMonitoring:
Para aplicar los cambios de configuración desde un archivo local, ejecuta el siguiente comando:
kubectl apply -n NAMESPACE_NAME -f FILE_NAME
También puedes usar Terraform para administrar tus opciones de configuración.
Verifica la configuración
Puedes usar el Explorador de métricas para verificar que configuraste correctamente TF Serving. Cloud Monitoring puede tardar uno o dos minutos en transferir las métricas.
Para verificar que se hayan transferido las métricas, haz lo siguiente:
-
En la consola de Google Cloud, ve a la página leaderboard Explorador de métricas:
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.
- En la barra de herramientas del panel del compilador de consultas, selecciona el botón cuyo nombre sea codeMQL o codePromQL.
- Verifica que PromQL esté seleccionado en el botón de activación Lenguaje. El botón de activación de lenguaje se encuentra en la misma barra de herramientas que te permite dar formato a tu consulta.
- Ingresa y ejecuta la siguiente consulta:
up{job="tfserve", cluster="CLUSTER_NAME", namespace="NAMESPACE_NAME"}
Ver paneles
La integración de Cloud Monitoring incluye el panel TensorFlow Serving Prometheus Overview. Los paneles se instalan automáticamente cuando configuras la integración. También puedes ver vistas previas estáticas de los paneles sin instalar la integración.
Para ver un panel instalado, haz lo siguiente:
-
En la consola de Google Cloud, ve a la página
Paneles.
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.
- Selecciona la pestaña Lista de paneles.
- Elige la categoría Integraciones.
- Haz clic en el nombre del panel, por ejemplo, TensorFlow Serving Prometheus Overview.
Para obtener una vista previa estática del panel, haz lo siguiente:
-
En la consola de Google Cloud, ve a la página
Integraciones:
Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.
- Haz clic en el filtro de la plataforma de implementación Kubernetes Engine.
- Ubica la integración de TensorFlow Serving y haz clic en Ver detalles.
- Selecciona la pestaña Paneles.
Soluciona problemas
Para obtener información sobre la solución de problemas de transferencia de métricas, consulta Problemas de recopilación de exportadores en Solución de problemas de transferencia.