Crear una VM A3, A2 o G2


En este documento se explica cómo crear una VM que use un tipo de máquina de las series A3 High, A3 Mega, A3 Edge, A2 y G2. Para obtener más información sobre cómo crear VMs con GPUs vinculadas, consulta el artículo Información general sobre la creación de una instancia con GPUs vinculadas.

Antes de empezar

  • Para consultar las limitaciones y los pasos previos adicionales para crear instancias con GPUs conectadas, como seleccionar una imagen de SO y comprobar la cuota de GPUs, consulta el artículo sobre cómo crear una instancia con GPUs conectadas.
  • Si aún no lo has hecho, configura la autenticación. La autenticación verifica tu identidad para acceder a Google Cloud servicios y APIs. Para ejecutar código o ejemplos desde un entorno de desarrollo local, puedes autenticarte en Compute Engine seleccionando una de las siguientes opciones:

    Select the tab for how you plan to use the samples on this page:

    Console

    When you use the Google Cloud console to access Google Cloud services and APIs, you don't need to set up authentication.

    gcloud

    1. Instala Google Cloud CLI. Después de la instalación, inicializa la CLI de Google Cloud ejecutando el siguiente comando:

      gcloud init

      Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.

    2. Set a default region and zone.

    REST

    Para usar las muestras de la API REST de esta página en un entorno de desarrollo local, debes usar las credenciales que proporciones a la CLI de gcloud.

      Instala Google Cloud CLI. Después de la instalación, inicializa la CLI de Google Cloud ejecutando el siguiente comando:

      gcloud init

      Si utilizas un proveedor de identidades (IdP) externo, primero debes iniciar sesión en la CLI de gcloud con tu identidad federada.

    Para obtener más información, consulta el artículo Autenticarse para usar REST de la documentación sobre autenticación de Google Cloud .

Roles obligatorios

Para obtener los permisos que necesitas para crear VMs, pide a tu administrador que te conceda el rol de gestión de identidades y accesos Administrador de instancias de Compute (v. 1) (roles/compute.instanceAdmin.v1) en el proyecto. Para obtener más información sobre cómo conceder roles, consulta el artículo Gestionar el acceso a proyectos, carpetas y organizaciones.

Este rol predefinido contiene los permisos necesarios para crear máquinas virtuales. Para ver los permisos exactos que se necesitan, despliega la sección Permisos necesarios:

Permisos obligatorios

Se necesitan los siguientes permisos para crear VMs:

  • compute.instances.create del proyecto
  • Para usar una imagen personalizada para crear la VM, sigue estos pasos: compute.images.useReadOnly en la imagen
  • Para usar una captura para crear la VM, sigue estos pasos: compute.snapshots.useReadOnly en la captura
  • Para usar una plantilla de instancia para crear la VM, haz lo siguiente: compute.instanceTemplates.useReadOnly en la plantilla de instancia
  • Para asignar una red antigua a la VM, sigue estos pasos: compute.networks.use en el proyecto
  • Para especificar una dirección IP estática para la máquina virtual, haz lo siguiente: compute.addresses.use en el proyecto
  • Para asignar una dirección IP externa a la VM cuando se usa una red antigua, haz lo siguiente: compute.networks.useExternalIp en el proyecto
  • Para especificar una subred para tu VM, haz lo siguiente: compute.subnetworks.use en el proyecto o en la subred elegida
  • Para asignar una dirección IP externa a la VM cuando se usa una red de VPC, sigue estos pasos: compute.subnetworks.useExternalIp en el proyecto o en la subred elegida
  • Para definir los metadatos de la instancia de VM: compute.instances.setMetadata en el proyecto
  • Para definir etiquetas en la VM, haz lo siguiente: compute.instances.setTags en la VM
  • Para definir etiquetas en la VM, sigue estos pasos: compute.instances.setLabels en la VM
  • Para definir una cuenta de servicio que pueda usar la VM, sigue estos pasos: compute.instances.setServiceAccount en la VM
  • Para crear un disco para la VM, sigue estos pasos: compute.disks.create en el proyecto
  • Para adjuntar un disco en modo de solo lectura o de lectura y escritura, sigue estos pasos: compute.disks.use en el disco
  • Para adjuntar un disco en modo de solo lectura, sigue estos pasos: compute.disks.useReadOnly en el disco

También puedes obtener estos permisos con roles personalizados u otros roles predefinidos.

Crear una VM con GPUs conectadas

Puedes crear una VM optimizada para aceleradores A3 High, A3 Mega, A3 Edge, A2 o G2 mediante la Google Cloud consola, la CLI de Google Cloud o REST.

Para hacer algunas personalizaciones en tus VMs G2, es posible que tengas que usar la CLI de Google Cloud o REST. Consulta las limitaciones de G2.

Consola

  1. En la Google Cloud consola, ve a la página Crear una instancia.

    Ir a Crear una instancia

  2. Especifica un nombre para la máquina virtual. Consulta Convención de nomenclatura de recursos.

  3. Selecciona una región y una zona en las que haya GPUs disponibles. Consulta la lista de regiones y zonas con GPU disponibles.

  4. En la sección Configuración de la máquina, selecciona la familia de máquinas GPUs.

    1. Sigue uno de estos pasos para seleccionar un tipo de máquina predefinido o personalizado en función de la serie de máquinas:

      • En todas las series de máquinas con GPU, puedes seleccionar un tipo de máquina predefinido de la siguiente manera:

        1. En la lista Tipo de GPU, selecciona el tipo de GPU.

          • En las VMs optimizadas para aceleradores A3 High, A3 Mega o A3 Edge, selecciona NVIDIA H100 80GB o NVIDIA H100 80GB MEGA.
          • En las VMs optimizadas para aceleradores A2, selecciona NVIDIA A100 40GB o NVIDIA A100 80GB.
          • En las VMs G2 optimizadas para aceleradores, selecciona NVIDIA L4.
        2. En la lista Número de GPUs, selecciona el número de GPUs.

      • En la serie de máquinas G2, puedes seleccionar un tipo de máquina personalizado de la siguiente manera:

        1. En la lista Tipo de GPU, selecciona NVIDIA L4.
        2. En la sección Tipo de máquina, selecciona Personalizado.
        3. Para especificar el número de vCPUs y la cantidad de memoria de la instancia, arrastra los controles deslizantes o introduce los valores en los cuadros de texto. La consola muestra un coste estimado de la instancia a medida que cambias el número de vCPUs y la memoria.
    2. Opcional: La serie de máquinas G2 admite estaciones de trabajo virtuales (vWS) NVIDIA RTX para cargas de trabajo de gráficos. Si tienes previsto ejecutar cargas de trabajo que utilizan un gran número de gráficos en tu VM G2, selecciona Habilitar estación de trabajo virtual (NVIDIA GRID).

  5. En la sección Disco de arranque, haz clic en Cambiar. Se abrirá la página Configuración del disco de arranque.

  6. En la página Configuración del disco de arranque, haz lo siguiente:

    1. En la pestaña Imágenes públicas, elige una imagen de Compute Engine compatible o Imágenes de máquina virtual de aprendizaje profundo.
    2. Especifica un tamaño de disco de arranque de al menos 40 GB.
    3. Para confirmar las opciones del disco de arranque, haz clic en Seleccionar.
  7. Opcional: Configura el modelo de aprovisionamiento. Por ejemplo, si tu carga de trabajo es tolerante a fallos y puede soportar posibles interrupciones temporales de las VMs, te recomendamos que uses VMs de acceso puntual para reducir el coste de tus VMs y las GPUs conectadas. Para obtener más información, consulta GPUs en VMs de acceso puntual. Para ello, realiza los pasos que se indican a continuación:

    1. En la sección Políticas de disponibilidad, selecciona Spot en la lista Modelo de aprovisionamiento de VMs. Este ajuste inhabilita las opciones de reinicio automático y de mantenimiento del host de la VM.
    2. Opcional: En la lista Al finalizar la VM, selecciona lo que ocurre cuando Compute Engine quita la VM:
      • Para detener la VM durante la expropiación, selecciona Detener (opción predeterminada).
      • Para eliminar la VM durante la expropiación, selecciona Eliminar.
  8. Para crear e iniciar la VM, haz clic en Crear.

gcloud

Para crear e iniciar una VM, usa el comando gcloud compute instances create con las siguientes marcas. Las máquinas virtuales con GPUs no se pueden migrar en caliente, así que asegúrate de definir la marca --maintenance-policy=TERMINATE.

En el comando de ejemplo se muestran las siguientes marcas opcionales:

  • La marca --provisioning-model=SPOT, que configura tus VMs como VMs de acceso puntual. Si tu carga de trabajo es tolerante a fallos y puede soportar posibles interrupciones de las máquinas virtuales, te recomendamos que uses máquinas virtuales de acceso puntual para reducir el coste de tus máquinas virtuales y las GPUs conectadas. Para obtener más información, consulta GPUs en VMs de acceso puntual. En las máquinas virtuales de acceso puntual, las opciones de reinicio automático y mantenimiento del host están inhabilitadas.
  • La marca --accelerator para especificar una estación de trabajo virtual. Las estaciones de trabajo virtuales (vWS) NVIDIA RTX solo son compatibles con las máquinas virtuales G2.
  gcloud compute instances create VM_NAME \
      --machine-type=MACHINE_TYPE \
      --zone=ZONE \
      --boot-disk-size=DISK_SIZE \
      --image=IMAGE \
      --image-project=IMAGE_PROJECT \
      --maintenance-policy=TERMINATE \
      [--provisioning-model=SPOT] \
      [--accelerator=type=nvidia-l4-vws,count=VWS_ACCELERATOR_COUNT]
  
Sustituye lo siguiente:
  • VM_NAME: el nombre de la nueva VM.
  • MACHINE_TYPE : el tipo de máquina que has seleccionado. Elige una de las siguientes opciones:
    • Un tipo de máquina A3.
    • Un tipo de máquina A2.
    • Un tipo de máquina G2. Los tipos de máquinas G2 también admiten memoria personalizada. La memoria debe ser un múltiplo de 1024 MB y estar dentro del intervalo de memoria admitido. Por ejemplo, para crear una máquina virtual con 4 vCPUs y 19 GB de memoria, especifica --machine-type=g2-custom-4-19456.
  • ZONE: la zona de la VM. Esta zona debe admitir el modelo de GPU que has seleccionado.
  • DISK_SIZE: el tamaño de tu disco de arranque en GB. Especifica un tamaño de disco de arranque de al menos 40 GB.
  • IMAGE: una imagen de sistema operativo que admita GPUs. Si quieres usar la imagen más reciente de una familia de imágenes, sustituye la marca --image por la marca --image-family y asigna a esta última el valor de una familia de imágenes que admita GPUs. Por ejemplo: --image-family=rocky-linux-8-optimized-gcp.
    También puedes especificar una imagen personalizada o imágenes de máquina virtual de aprendizaje profundo.
  • IMAGE_PROJECT: el proyecto de imagen de Compute Engine al que pertenece la imagen del SO. Si usas una imagen personalizada o una imagen de máquina virtual de aprendizaje profundo, especifica el proyecto al que pertenecen esas imágenes.
  • VWS_ACCELERATOR_COUNT: el número de GPUs virtuales que necesitas.

REST

Envía una solicitud POST al método instances.insert. Las máquinas virtuales con GPUs no se pueden migrar en caliente, así que asegúrate de definir el parámetro onHostMaintenance en TERMINATE.

POST https://compute.googleapis.com/compute/v1/projects/PROJECT_ID/zones/ZONE/instances
{
"machineType": "projects/PROJECT_ID/zones/ZONE/machineTypes/MACHINE_TYPE",
"disks":
[
  {
    "type": "PERSISTENT",
    "initializeParams":
    {
      "diskSizeGb": "DISK_SIZE",
      "sourceImage": "SOURCE_IMAGE_URI"
    },
    "boot": true
  }
],
"name": "VM_NAME",
"networkInterfaces":
[
  {
    "network": "projects/PROJECT_ID/global/networks/NETWORK"
  }
],
"scheduling":
{
  "onHostMaintenance": "terminate",
  ["automaticRestart": true]
},
}

Sustituye lo siguiente:
  • VM_NAME: el nombre de la nueva VM.
  • PROJECT_ID: tu ID de proyecto.
  • ZONE: la zona de la VM. Esta zona debe ser compatible con el modelo de GPU que has seleccionado.
  • MACHINE_TYPE : el tipo de máquina que has seleccionado. Elige una de las siguientes opciones:
    • Un tipo de máquina A3.
    • Un tipo de máquina A2.
    • Un tipo de máquina G2. Los tipos de máquinas G2 también admiten memoria personalizada. La memoria debe ser un múltiplo de 1024 MB y estar dentro del intervalo de memoria admitido. Por ejemplo, para crear una máquina virtual con 4 vCPUs y 19 GB de memoria, especifica --machine-type=g2-custom-4-19456.
    SOURCE_IMAGE_URI: el URI de la imagen o familia de imágenes específicas que quieras usar. Por ejemplo:
    • Imagen específica: "sourceImage": "projects/rocky-linux-cloud/global/images/rocky-linux-8-optimized-gcp-v20220719"
    • Familia de imágenes: "sourceImage": "projects/rocky-linux-cloud/global/images/family/rocky-linux-8-optimized-gcp"
    Cuando especificas una familia de imágenes, Compute Engine crea una VM a partir de la imagen de SO más reciente y no obsoleta de esa familia. Para obtener más información sobre cuándo usar familias de imágenes, consulta las prácticas recomendadas para familias de imágenes.
  • DISK_SIZE: el tamaño de tu disco de arranque en GB. Especifica un tamaño de disco de arranque de al menos 40 GB.
  • NETWORK: la red de VPC que quieres usar en la VM. Puedes especificar `default` para usar tu red predeterminada.
Configuración adicional:
  • Si tu carga de trabajo es tolerante a fallos y puede soportar posibles interrupciones temporales de las VMs, te recomendamos que uses VMs de acceso puntual para reducir el coste de tus VMs y de las GPUs conectadas. Para obtener más información, consulta GPUs en VMs de acceso puntual. Para especificar VMs de acceso puntual, añade la opción "provisioningModel": "SPOT" a tu solicitud. En las VMs de Spot, las opciones de reinicio automático y mantenimiento del host están inhabilitadas.
    "scheduling":
      {
        "provisioningModel": "SPOT"
      }
    
  • En las máquinas virtuales G2, se admiten las estaciones de trabajo virtuales (vWS) NVIDIA RTX. Para especificar una estación de trabajo virtual, añade la opción `guestAccelerators` a tu solicitud. Sustituye VWS_ACCELERATOR_COUNT por el número de GPUs virtuales que necesites.
    "guestAccelerators":
      [
        {
          "acceleratorCount": VWS_ACCELERATOR_COUNT,
          "acceleratorType": "projects/PROJECT_ID/zones/ZONEacceleratorTypes/nvidia-l4-vws"
        }
      ]
    

Instalar controladores

Para que la VM use la GPU, debes instalar el controlador de la GPU en la VM.

Ejemplos

En estos ejemplos, la mayoría de las VMs se crean con la CLI de Google Cloud. Sin embargo, también puedes usar la API Google Cloud console o la API REST para crear estas VMs.

En los siguientes ejemplos se muestra cómo crear VMs con las siguientes imágenes:

COS (A3 Edge/High)

Puedes crear máquinas virtuales a3-edgegpu-8g o a3-highgpu-8g que tengan GPUs H100 conectadas mediante imágenes optimizadas para contenedores (COS).

Para obtener instrucciones detalladas sobre cómo crear estas máquinas virtuales a3-edgegpu-8g o a3-highgpu-8g que usan Container-Optimized OS, consulta Crear una VM A3 con GPUDirect-TCPX habilitado.

Imagen de SO pública (G2)

Puedes crear máquinas virtuales con GPUs conectadas que usen una imagen pública disponible en Compute Engine o una imagen personalizada.

Para crear una VM con la imagen no obsoleta más reciente de la familia de imágenes Rocky Linux 8 optimized for Google Cloud que use el tipo de máquina g2-standard-8 y tenga una estación de trabajo virtual NVIDIA RTX, sigue estos pasos:

  1. Crea la VM. En este ejemplo, también se especifican marcas opcionales, como el tipo y el tamaño del disco de arranque.

    gcloud compute instances create VM_NAME \
        --project=PROJECT_ID \
        --zone=ZONE \
        --machine-type=g2-standard-8  \
        --maintenance-policy=TERMINATE --restart-on-failure \
        --network-interface=nic-type=GVNIC \
        --accelerator=type=nvidia-l4-vws,count=1 \
        --image-family=rocky-linux-8-optimized-gcp \
        --image-project=rocky-linux-cloud \
        --boot-disk-size=200GB \
        --boot-disk-type=pd-ssd
    

    Haz los cambios siguientes:

    • VM_NAME: el nombre de tu VM
    • PROJECT_ID : tu ID de proyecto.
    • ZONE: la zona de la VM.
  2. Instala el controlador de NVIDIA y CUDA. En el caso de las GPUs NVIDIA L4, se requiere la versión XX de CUDA o una posterior.

Imagen de DLVM (A2)

Usar imágenes de DLVM es la forma más sencilla de empezar, ya que estas imágenes ya tienen preinstalados los controladores de NVIDIA y las bibliotecas de CUDA.

Estas imágenes también ofrecen optimizaciones de rendimiento.

Se admiten las siguientes imágenes de DLVM para NVIDIA A100:

  • common-cu110: controlador de NVIDIA y CUDA preinstalados
  • tf-ent-1-15-cu110: controlador de NVIDIA, CUDA y TensorFlow Enterprise 1.15.3 preinstalados
  • tf2-ent-2-1-cu110: controladores de NVIDIA, CUDA y TensorFlow Enterprise 2.1.1 preinstalados
  • tf2-ent-2-3-cu110: controlador de NVIDIA, CUDA y TensorFlow Enterprise 2.3.1 preinstalados
  • pytorch-1-6-cu110: controlador de NVIDIA, CUDA y Pytorch 1.6

Para obtener más información sobre las imágenes de DLVM disponibles y los paquetes instalados en las imágenes, consulta la documentación de Deep Learning VM.

  1. Crea una VM con la imagen tf2-ent-2-3-cu110 y el tipo de máquina a2-highgpu-1g. En este ejemplo, se especifican marcas opcionales, como el tamaño del disco de arranque y el ámbito.

    gcloud compute instances create VM_NAME \
       --project PROJECT_ID \
       --zone ZONE \
       --machine-type a2-highgpu-1g \
       --maintenance-policy TERMINATE \
       --image-family tf2-ent-2-3-cu110 \
       --image-project deeplearning-platform-release \
       --boot-disk-size 200GB \
       --metadata "install-nvidia-driver=True,proxy-mode=project_editors" \
       --scopes https://www.googleapis.com/auth/cloud-platform
    

    Haz los cambios siguientes:

    • VM_NAME: el nombre de tu VM
    • PROJECT_ID : tu ID de proyecto.
    • ZONE: la zona de la VM
  2. El comando de ejemplo anterior también genera una instancia de cuadernos gestionados por el usuario de Vertex AI Workbench para la VM. Para acceder al cuaderno, en la Google Cloud consola, ve a la página Vertex AI Workbench > Cuadernos gestionados por el usuario.

    Ir a la página Cuadernos gestionados por usuarios

GPU con varias instancias (solo máquinas virtuales A3 y A2)

Una GPU con varias instancias particiona una sola GPU NVIDIA H100 o A100 en la misma VM en hasta siete instancias de GPU independientes. Se ejecutan simultáneamente y cada una tiene su propia memoria, caché y multiprocesadores de streaming. Esta configuración permite que la GPU NVIDIA H100 o A100 ofrezca una calidad de servicio (QoS) garantizada con una utilización hasta 7 veces mayor en comparación con los modelos de GPU anteriores.

Puedes crear hasta siete GPUs multiinstancia. En el caso de las GPUs A100 de 40 GB, a cada GPU de varias instancias se le asignan 5 GB de memoria. Con las GPUs A100 de 80 GB y H100 de 80 GB, la memoria asignada se duplica hasta 10 GB cada una.

Para obtener más información sobre el uso de GPUs multiinstancia, consulta la guía del usuario de GPUs multiinstancia de NVIDIA.

Para crear GPUs multiinstancia, sigue estos pasos:

  1. Crea una VM optimizada para aceleradores A3 High, A3 Mega, A3 Edge o A2.

  2. Habilita los controladores de GPU NVIDIA.

  3. Habilita las GPUs con varias instancias.

    sudo nvidia-smi -mig 1
    
  4. Consulta las formas de GPU con varias instancias que están disponibles.

    sudo nvidia-smi mig --list-gpu-instance-profiles
    

    El resultado debería ser similar al siguiente:

    +-----------------------------------------------------------------------------+
    | GPU instance profiles:                                                      |
    | GPU   Name             ID    Instances   Memory     P2P    SM    DEC   ENC  |
    |                              Free/Total   GiB              CE    JPEG  OFA  |
    |=============================================================================|
    |   0  MIG 1g.10gb       19     7/7        9.62       No     16     1     0   |
    |                                                             1     1     0   |
    +-----------------------------------------------------------------------------+
    |   0  MIG 1g.10gb+me    20     1/1        9.62       No     16     1     0   |
    |                                                             1     1     1   |
    +-----------------------------------------------------------------------------+
    |   0  MIG 1g.20gb       15     4/4        19.50      No     26     1     0   |
    |                                                             1     1     0   |
    +-----------------------------------------------------------------------------+
    |   0  MIG 2g.20gb       14     3/3        19.50      No     32     2     0   |
    |                                                             2     2     0   |
    +-----------------------------------------------------------------------------+
    |   0  MIG 3g.40gb        9     2/2        39.25      No     60     3     0   |
    |                                                             3     3     0   |
    +-----------------------------------------------------------------------------+
    .......
    
  5. Crea la GPU con varias instancias (GI) y las instancias de proceso (CI) asociadas que quieras. Puedes crear estas instancias especificando el nombre completo o abreviado del perfil, el ID del perfil o una combinación de ambos. Para obtener más información, consulta Crear instancias de GPU.

    En el siguiente ejemplo, se crean dos instancias de GPU MIG 3g.20gb mediante el ID de perfil (9).

    También se especifica la marca -C, que crea las instancias de computación asociadas al perfil necesario.

    sudo nvidia-smi mig -cgi 9,9 -C
    
  6. Comprueba que se hayan creado las dos GPUs con varias instancias:

    sudo nvidia-smi mig -lgi
    
  7. Comprueba que se hayan creado tanto los GIs como los CIs correspondientes.

    sudo nvidia-smi
    

    El resultado debería ser similar al siguiente:

    +-----------------------------------------------------------------------------+
    | NVIDIA-SMI 525.125.06   Driver Version: 525.125.06   CUDA Version: 12.0     |
    |-------------------------------+----------------------+----------------------+
    | GPU  Name        Persistence-M| Bus-Id        Disp.A | Volatile Uncorr. ECC |
    | Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
    |                               |                      |               MIG M. |
    |===============================+======================+======================|
    |   0  NVIDIA H100 80G...  Off  | 00000000:04:00.0 Off |                   On |
    | N/A   33C    P0    70W / 700W |     39MiB / 81559MiB |     N/A      Default |
    |                               |                      |              Enabled |
    +-------------------------------+----------------------+----------------------+
    |   1  NVIDIA H100 80G...  Off  | 00000000:05:00.0 Off |                   On |
    | N/A   32C    P0    69W / 700W |     39MiB / 81559MiB |     N/A      Default |
    |                               |                      |              Enabled |
    +-------------------------------+----------------------+----------------------+
    ......
    
    +-----------------------------------------------------------------------------+
    | MIG devices:                                                                |
    +------------------+----------------------+-----------+-----------------------+
    | GPU  GI  CI  MIG |         Memory-Usage |        Vol|         Shared        |
    |      ID  ID  Dev |           BAR1-Usage | SM     Unc| CE  ENC  DEC  OFA  JPG|
    |                  |                      |        ECC|                       |
    |==================+======================+===========+=======================|
    |  0    1   0   0  |     19MiB / 40192MiB | 60      0 |  3   0    3    0    3 |
    |                  |      0MiB / 65535MiB |           |                       |
    +------------------+----------------------+-----------+-----------------------+
    |  0    2   0   1  |     19MiB / 40192MiB | 60      0 |  3   0    3    0    3 |
    |                  |      0MiB / 65535MiB |           |                       |
    +------------------+----------------------+-----------+-----------------------+
    ......
    
    +-----------------------------------------------------------------------------+
    | Processes:                                                                  |
    |  GPU   GI   CI        PID   Type   Process name                  GPU Memory |
    |        ID   ID                                                   Usage      |
    |=============================================================================|
    |  No running processes found                                                 |
    +-----------------------------------------------------------------------------+
    

Siguientes pasos