TorchServe

En este documento, se describe cómo configurar tu implementación de Google Kubernetes Engine para que puedas usar Google Cloud Managed Service para Prometheus para recopilar métricas de TorchServe. Este documento te muestra cómo hacer lo siguiente:

  • Configura TorchServe para informar las métricas.
  • Configurar un recurso PodMonitoring a fin de que Managed Service para Prometheus recopile las métricas exportadas.
  • Acceder a un panel en Cloud Monitoring para ver las métricas

Estas instrucciones se aplican solo si usas la colección administrada con Managed Service para Prometheus. Si usas la colección implementada de forma automática, consulta la documentación de TorchServe para obtener información sobre la instalación.

Estas instrucciones se proporcionan como ejemplo y se espera que funcionen en la mayoría de los entornos de Kubernetes. Si tienes problemas para instalar una aplicación o un exportador debido a políticas restringidas de la organización o de seguridad, te recomendamos que consultes la documentación de código abierto a fin de obtener asistencia.

Para obtener información sobre TorchServe, consulta TorchServe. Para obtener información sobre cómo configurar TorchServe en Google Kubernetes Engine, consulta la guía de GKE para TorchServe.

Requisitos previos

Para recopilar métricas desde TorchServe mediante Managed Service para Prometheus y la colección administrada, tu implementación debe cumplir los siguientes requisitos:

  • Tu clúster debe ejecutar la versión 1.21.4-gke.300 o posterior de Google Kubernetes Engine.
  • Debes ejecutar Managed Service para Prometheus con la colección administrada habilitada. Para obtener más información, consulta Primeros pasos con la recopilación administrada.

TorchServe expone las métricas con formato Prometheus de forma automática cuando se especifica la marca metrics_mode en el archivo config.properties o como una variable de entorno.

Si configuras TorchServe por tu cuenta, te recomendamos que agregues lo siguiente a tu archivo config.properties.

Si sigues el documento de Google Kubernetes Engine Cómo entregar LLM escalables en GKE con TorchServe, estas incorporaciones forman parte de la configuración predeterminada.

# Copyright 2025 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

  inference_address=http://0.0.0.0:8080
  management_address=http://0.0.0.0:8081
+ metrics_address=http://0.0.0.0:8082
+ metrics_mode=prometheus
  number_of_netty_threads=32
  job_queue_size=1000
  install_py_dep_per_model=true
  model_store=/home/model-server/model-store
  load_models=all

Además, cuando implementes esta imagen en GKE, modifica tu YAML de implementación y servicio para exponer el puerto de métricas agregado:

# Copyright 2025 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

apiVersion: apps/v1
kind: Deployment
metadata:
  name: t5-inference
  labels:
    model: t5
    version: v1.0
    machine: gpu
spec:
  replicas: 1
  selector:
    matchLabels:
      model: t5
      version: v1.0
      machine: gpu
  template:
    metadata:
      labels:
        model: t5
        version: v1.0
        machine: gpu
    spec:
      nodeSelector:
        cloud.google.com/gke-accelerator: nvidia-l4
      containers:
        - name: inference
          ...
          args: ["torchserve", "--start", "--foreground"]
          resources:
            ...
          ports:
            - containerPort: 8080
              name: http
            - containerPort: 8081
              name: management
+           - containerPort: 8082
+             name: metrics
---
apiVersion: v1
kind: Service
metadata:
  name: t5-inference
  labels:
    model: t5
    version: v1.0
    machine: gpu
spec:
  ...
  ports:
    - port: 8080
      name: http
      targetPort: http
    - port: 8081
      name: management
      targetPort: management
+   - port: 8082
+     name: metrics
+     targetPort: metrics

Para verificar que TorchServe emita métricas en los extremos esperados, haz lo siguiente:

  1. Configura la redirección de puertos mediante el siguiente comando:
    kubectl -n NAMESPACE_NAME port-forward SERVICE_NAME 8082
    
  2. Accede al extremo localhost:8082/metrics a través del navegador o la utilidad curl en otra sesión de la terminal.

Define un recurso PodMonitoring

Para el descubrimiento de destinos, el operador de Managed Service para Prometheus requiere un recurso PodMonitoring que corresponda a TorchServe en el mismo espacio de nombres.

Puedes usar la siguiente configuración de PodMonitoring:

# Copyright 2025 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
#     https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.

apiVersion: monitoring.googleapis.com/v1
kind: PodMonitoring
metadata:
  name: torchserve
  labels:
    app.kubernetes.io/name: torchserve
    app.kubernetes.io/part-of: google-cloud-managed-prometheus
spec:
  endpoints:
  - port: 8082
    scheme: http
    interval: 30s
    path: /metrics
  selector:
    matchLabels:
      model: t5
      version: v1.0
      machine: gpu
Asegúrate de que los valores de los campos port y matchLabels coincidan con los de los Pods de TorchServe que deseas supervisar.

Para aplicar los cambios de configuración desde un archivo local, ejecuta el siguiente comando:

kubectl apply -n NAMESPACE_NAME -f FILE_NAME

También puedes usar Terraform para administrar tus opciones de configuración.

Verifica la configuración

Puedes usar el Explorador de métricas para verificar que configuraste correctamente TorchServe. Cloud Monitoring puede tardar uno o dos minutos en transferir las métricas.

Para verificar que se hayan transferido las métricas, haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página  Explorador de métricas:

    Ir al Explorador de métricas

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.

  2. En la barra de herramientas del panel del compilador de consultas, selecciona el botón cuyo nombre sea MQL o PromQL.
  3. Verifica que PromQL esté seleccionado en el botón de activación Lenguaje. El botón de activación de lenguaje se encuentra en la misma barra de herramientas que te permite dar formato a tu consulta.
  4. Ingresa y ejecuta la siguiente consulta:
    up{job="torchserve", cluster="CLUSTER_NAME", namespace="NAMESPACE_NAME"}

Ver paneles

La integración de Cloud Monitoring incluye el panel TorchServe Prometheus Overview. Los paneles se instalan automáticamente cuando configuras la integración. También puedes ver vistas previas estáticas de los paneles sin instalar la integración.

Para ver un panel instalado, haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página  Paneles.

    Dirígete a Paneles de control

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.

  2. Selecciona la pestaña Lista de paneles.
  3. Elige la categoría Integraciones.
  4. Haz clic en el nombre del panel, por ejemplo, TorchServe Prometheus Overview.

Para obtener una vista previa estática del panel, haz lo siguiente:

  1. En la consola de Google Cloud, ve a la página  Integraciones:

    Dirígete a Integraciones

    Si usas la barra de búsqueda para encontrar esta página, selecciona el resultado cuyo subtítulo es Monitoring.

  2. Haz clic en el filtro de la plataforma de implementación Kubernetes Engine.
  3. Ubica la integración de TorchServe y haz clic en Ver detalles.
  4. Selecciona la pestaña Paneles.

Soluciona problemas

Para obtener información sobre la solución de problemas de transferencia de métricas, consulta Problemas de recopilación de exportadores en Solución de problemas de transferencia.