GPU-Unterstützung für Dienste

Auf dieser Seite wird die GPU-Konfiguration für Ihren Cloud Run-Dienst beschrieben. GPUs eignen sich gut für KI-Inferenzarbeitslasten wie Large Language Models (LLM) oder andere rechenintensive Anwendungsfälle ohne KI wie Videotranscodierung und 3D-Rendering. Google stellt NVIDIA L4-GPUs mit 24 GB GPU-Speicher (VRAM) zur Verfügung, der vom Instanzspeicher getrennt ist.

Wenn Sie die GPU-Funktion verwenden möchten, müssen Sie ein Kontingent anfordern. Weitere Informationen finden Sie unter Kontingenterhöhung beantragen.

Die GPU in Cloud Run wird vollständig verwaltet und es sind keine zusätzlichen Treiber oder Bibliotheken erforderlich. Die GPU-Funktion bietet On-Demand-Verfügbarkeit ohne erforderliche Reservierungen, ähnlich wie bei On-Demand-CPUs und On-Demand-Arbeitsspeicher in Cloud Run. Instanzen eines Cloud Run-Dienstes, der für die Verwendung einer GPU konfiguriert wurde, können bei Nichtnutzung auf null skaliert werden, um Kosten zu sparen.

Cloud Run-Instanzen mit einer angeschlossenen L4-GPU mit vorinstallierten Treibern starten in etwa 5 Sekunden. Danach können die in Ihrem Container ausgeführten Prozesse die GPU verwenden.

Sie können eine GPU pro Cloud Run-Instanz konfigurieren. Wenn Sie Sidecar-Container verwenden, kann die GPU nur an einen Container angehängt werden.

Unterstützte Regionen

  • us-central1 (Iowa) Blattsymbol Niedriger CO2
  • asia-southeast1 (Singapur)
  • europe-west1 (Belgien) Blattsymbol Niedriger CO2
  • europe-west4 (Niederlande) Blattsymbol Niedriger CO2
  • asia-south1 (Mumbai)
    • Hinweis:Diese Region ist nur auf Einladung verfügbar. Wenden Sie sich an Ihr Google Konten-Team, wenn Sie an dieser Region interessiert sind.

Unterstützte GPU-Typen

Sie können eine L4-GPU pro Cloud Run-Instanz verwenden. Auf einer L4-GPU sind die folgenden Treiber vorinstalliert:

  • Aktuelle NVIDIA-Treiberversion: 535.216.03 (CUDA 12.2)

Auswirkungen auf die Kosten

Weitere Informationen zu den GPU-Preisen finden Sie unter Cloud Run-Preise. Beachten Sie die folgenden Anforderungen und Hinweise:

  • Es fallen keine Gebühren pro Anfrage an. Sie müssen die instanzbasierte Abrechnung verwenden, um die GPU-Funktion zu nutzen. Mindestinstanzen werden auch im Inaktivitätsstatus zum vollen Preis berechnet.
  • Sie benötigen mindestens 4 CPUs und 16 GiB Arbeitsspeicher.
  • Die GPU wird für die gesamte Dauer des Instanzlebenszyklus in Rechnung gestellt.
  • Die Kosten für zonale GPU-Redundanz und nicht zonale Redundanz unterscheiden sich. Weitere Informationen zu den Preisen für GPUs finden Sie unter Cloud Run-Preise.

Optionen für die zonale GPU-Redundanz

Standardmäßig stellt Cloud Run Ihren Dienst in mehreren Zonen innerhalb einer Region bereit. Diese Architektur bietet eine hohe Ausfallsicherheit: Wenn in einer Zone ein Ausfall auftritt, leitet Cloud Run den Traffic automatisch von der betroffenen Zone zu intakten Zonen in derselben Region weiter.

Bei der Arbeit mit GPU-Ressourcen müssen Sie bestimmte Kapazitätsbeschränkungen beachten. Bei einem zonalen Ausfall setzt der standardmäßige Failover-Mechanismus für GPU-Arbeitslasten voraus, dass in den verbleibenden fehlerfreien Zonen genügend ungenutzte GPU-Kapazität verfügbar ist. Aufgrund der begrenzten Kapazität von GPUs ist diese Kapazität möglicherweise nicht immer verfügbar.

Um die Verfügbarkeit Ihrer GPU-beschleunigten Dienste bei zonalen Ausfällen zu erhöhen, können Sie die zonale Redundanz speziell für GPUs konfigurieren:

  • Zonale Redundanz aktiviert (Standardeinstellung): Cloud Run reserviert GPU-Kapazität für Ihren Dienst in mehreren Zonen. Dadurch steigt die Wahrscheinlichkeit, dass Ihr Dienst Traffic verarbeiten kann, der aus einer betroffenen Zone umgeleitet wird. Das bietet bei zonalen Ausfällen eine höhere Zuverlässigkeit, jedoch zu zusätzlichen Kosten pro GPU-Sekunde.

  • Zonale Redundanz deaktiviert: Cloud Run versucht, auf Best-Effort-Basis einen Failover für GPU-Arbeitslasten auszuführen. Der Traffic wird nur an andere Zonen weitergeleitet, wenn zu diesem Zeitpunkt ausreichend GPU-Kapazität verfügbar ist. Diese Option garantiert keine reservierte Kapazität für Failover-Szenarien, führt aber zu niedrigeren Kosten pro GPU-Sekunde.

SLA

Das SLA für Cloud Run mit GPU hängt davon ab, ob für den Dienst die Option für zonale Redundanz oder die Option für nicht zonale Redundanz verwendet wird. Weitere Informationen finden Sie auf der SLA-Seite.

Kontingenterhöhung anfordern

Wenn Sie auf Cloud Run-GPUs zugreifen möchten, müssen Sie eine Kontingenterhöhung für Ihren Cloud Run-Dienst beantragen. Über die Links in den folgenden Schaltflächen können Sie das benötigte Kontingent anfordern.

Kontingent erforderlich Kontingentlink
GPU mit deaktivierter zonaler Redundanz (niedrigerer Preis) GPU-Kontingent ohne zonale Redundanz anfordern
GPU mit aktivierter zonaler Redundanz (höherer Preis) GPU-Kontingent mit zonaler Redundanz anfordern

Weitere Informationen zum Anfordern von Kontingenterhöhungen finden Sie unter Kontingent erhöhen.

Hinweise

In der folgenden Liste werden die Anforderungen und Einschränkungen bei der Verwendung von GPUs in Cloud Run beschrieben:

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Enable the Cloud Run API.

    Enable the API

  7. Erforderliches Kontingent anfordern
  8. Im Hilfeartikel Best Practices: KI-Inferenz in Cloud Run mit GPUs finden Sie Empfehlungen zum Erstellen Ihres Container-Images und zum Laden großer Modelle.
  9. Achten Sie darauf, dass Ihr Cloud Run-Dienst die folgenden Konfigurationen hat:

Erforderliche Rollen

Bitten Sie Ihren Administrator, Ihnen die folgenden IAM-Rollen zuzuweisen, um die Berechtigungen zu erhalten, die Sie zum Konfigurieren und Bereitstellen von Cloud Run-Diensten benötigen:

Eine Liste der IAM-Rollen und -Berechtigungen im Zusammenhang mit Cloud Run finden Sie unter IAM-Rollen für Cloud Run und IAM-Berechtigungen für Cloud Run. Wenn Ihr Cloud Run-Dienst mitGoogle Cloud APIs wie Cloud-Clientbibliotheken verknüpft ist, lesen Sie die Konfigurationsanleitung für Dienstidentitäten. Weitere Informationen zum Zuweisen von Rollen finden Sie unter Bereitstellungsberechtigungen und Zugriff verwalten.

Cloud Run-Dienst mit GPU konfigurieren

Jede Konfigurationsänderung führt zur Erstellung einer neuen Überarbeitung. Für nachfolgende Überarbeitungen gilt automatisch dieselbe Konfigurationseinstellung, sofern Sie sie nicht explizit aktualisieren.

Sie können die GPU über die Google Cloud -Konsole, die Google Cloud CLI oder YAML konfigurieren.

Console

  1. Rufen Sie in der Google Cloud Console Cloud Run auf:

    Zu Cloud Run

  2. Klicken Sie auf Container bereitstellen und wählen Sie Dienst aus, um einen neuen Dienst zu konfigurieren. Wenn Sie einen vorhandenen Dienst konfigurieren möchten, klicken Sie auf den Dienst und dann auf Neue Überarbeitung bearbeiten und bereitstellen.

  3. Wenn Sie einen neuen Dienst konfigurieren, füllen Sie die Seite mit den anfänglichen Diensteinstellungen aus und klicken Sie dann auf Container, Volumes, Netzwerk, Sicherheit, um die Seite zur Dienstkonfiguration zu maximieren.

  4. Klicken Sie auf den Tab Container.

    Bild

    • Konfigurieren Sie CPU, Arbeitsspeicher, Nebenläufigkeit, Ausführungsumgebung und Startprüfung gemäß den Empfehlungen unter Vorbereitung.
    • Aktivieren Sie das GPU-Kästchen und wählen Sie dann im Menü GPU-Typ den GPU-Typ und im Menü Anzahl der GPUs die Anzahl der GPUs aus.
    • Für neue Dienste ist die zonale Redundanz standardmäßig aktiviert. Wenn Sie die aktuelle Einstellung ändern möchten, klicken Sie das Kästchen für die GPU an, um die Optionen für die GPU-Redundanz zu sehen.
      • Wählen Sie Ohne zonale Redundanz aus, um die zonale Redundanz zu deaktivieren.
      • Wählen Sie Zonale Redundanz aus, um die zonale Redundanz zu aktivieren.
  5. Klicken Sie auf Erstellen oder Bereitstellen.

gcloud

Verwenden Sie den Befehl gcloud run deploy, um einen Dienst mit aktivierter GPU zu erstellen:

  gcloud run deploy SERVICE \
    --image IMAGE_URL \
    --gpu 1

Ersetzen Sie:

  • SERVICE durch den Namen Ihres Cloud Run-Dienstes.
  • IMAGE_URL durch einen Verweis auf das Container-Image, z. B. us-docker.pkg.dev/cloudrun/container/hello:latest. Wenn Sie Artifact Registry verwenden, muss das Repository REPO_NAME bereits erstellt sein. Die URL hat die Form LOCATION-docker.pkg.dev/PROJECT_ID/REPO_NAME/PATH:TAG.

Verwenden Sie den Befehl gcloud run services update, um die GPU-Konfiguration für einen Dienst zu aktualisieren:

  gcloud run services update SERVICE \
    --image IMAGE_URL \
    --cpu CPU \
    --memory MEMORY \
    --no-cpu-throttling \
    --gpu GPU_NUMBER \
    --gpu-type GPU_TYPE \
    --max-instances MAX_INSTANCE
    --GPU_ZONAL_REDUNDANCY
    

Ersetzen Sie:

  • SERVICE durch den Namen Ihres Cloud Run-Dienstes.
  • IMAGE_URL durch einen Verweis auf das Container-Image, z. B. us-docker.pkg.dev/cloudrun/container/hello:latest. Wenn Sie Artifact Registry verwenden, muss das Repository REPO_NAME bereits erstellt sein. Die URL hat die Form LOCATION-docker.pkg.dev/PROJECT_ID/REPO_NAME/PATH:TAG.
  • CPU durch die Anzahl der CPUs. Sie müssen mindestens 4 CPUs angeben.
  • MEMORY durch die Größe des Arbeitsspeichers. Sie müssen mindestens 16Gi (16 GiB) angeben.
  • GPU_NUMBER durch den Wert 1 (eins). Wenn dieser Wert nicht angegeben ist, aber ein GPU_TYPE vorhanden ist, ist der Standardwert 1.
  • GPU_TYPE durch den GPU-Typ. Wenn dieser Wert nicht angegeben ist, aber eine GPU_NUMBER vorhanden ist, ist der Standardwert nvidia-l4 (nvidia L4 Kleinbuchstabe L, nicht numerischer Wert vierzehn).
  • MAX_INSTANCE durch die maximale Anzahl von Instanzen. Diese Zahl darf das für Ihr Projekt zugewiesene GPU-Kontingent nicht überschreiten.
  • GPU_ZONAL_REDUNDANCY mit no-gpu-zonal-redundancy, um die zonale Redundanz zu deaktivieren, oder gpu-zonal-redundancy, um sie zu aktivieren.

YAML

  1. Wenn Sie einen neuen Dienst erstellen, überspringen Sie diesen Schritt. Wenn Sie einen vorhandenen Dienst aktualisieren, laden Sie die zugehörige YAML-Konfiguration herunter:

    gcloud run services describe SERVICE --format export > service.yaml
  2. Aktualisieren Sie die Attribute nvidia.com/gpu: und nodeSelector:
    run.googleapis.com/accelerator:
    :

    apiVersion: serving.knative.dev/v1
    kind: Service
    metadata:
      name: SERVICE
    spec:
      template:
        metadata:
          annotations:
            autoscaling.knative.dev/maxScale: 'MAX_INSTANCE'
            run.googleapis.com/cpu-throttling: 'false'
            run.googleapis.com/gpu-zonal-redundancy-disabled: GPU_ZONAL_REDUNDANCY
        spec:
          containers:
          - image: IMAGE_URL
            ports:
            - containerPort: CONTAINER_PORT
              name: http1
            resources:
              limits:
                cpu: 'CPU'
                memory: 'MEMORY'
                nvidia.com/gpu: '1'
            # Optional: use a longer startup probe to allow long starting containers
            startupProbe:
              failureThreshold: 1800
              periodSeconds: 1
              tcpSocket:
                port: CONTAINER_PORT
              timeoutSeconds: 1
          nodeSelector:
            run.googleapis.com/accelerator: GPU_TYPE

    Ersetzen Sie:

    • SERVICE durch den Namen Ihres Cloud Run-Dienstes.
    • IMAGE_URL durch einen Verweis auf das Container-Image, z. B. us-docker.pkg.dev/cloudrun/container/hello:latest. Wenn Sie Artifact Registry verwenden, muss das Repository REPO_NAME bereits erstellt sein. Die URL hat die Form LOCATION-docker.pkg.dev/PROJECT_ID/REPO_NAME/PATH:TAG.
    • Ersetzen Sie CONTAINER_PORT durch den für Ihren Dienst festgelegten Containerport.
    • CPU durch die Anzahl der CPUs. Sie müssen mindestens 4 CPUs angeben.
    • MEMORY durch die Größe des Arbeitsspeichers. Sie müssen mindestens 16Gi (16 GiB) angeben.
    • GPU_TYPE durch den Wert nvidia-l4 (nvidia-L4 Kleinbuchstabe L, nicht numerischer Wert vierzehn).
    • MAX_INSTANCE durch die maximale Anzahl von Instanzen. Diese Zahl darf das für Ihr Projekt zugewiesene GPU-Kontingent nicht überschreiten.
    • GPU_ZONAL_REDUNDANCY mit false, um die GPU-Zonenredundanz zu aktivieren, oder true, um sie zu deaktivieren.
  3. Erstellen oder aktualisieren Sie den Dienst mit dem folgenden Befehl:

    gcloud run services replace service.yaml

Terraform

Informationen zum Anwenden oder Entfernen einer Terraform-Konfiguration finden Sie unter Grundlegende Terraform-Befehle.

Fügen Sie einer google_cloud_run_v2_service-Ressource in Ihrer Terraform-Konfiguration Folgendes hinzu:

resource "google_cloud_run_v2_service" "default" {
  provider = google-beta
  name     = "SERVICE"
  location = "europe-west1"

  template {
    gpu_zonal_redundancy_disabled = GPU_ZONAL_REDUNDANCY
    containers {
      image = "IMAGE_URL"
      resources {
        limits = {
          "cpu" = "CPU"
          "memory" = "MEMORY"
          "nvidia.com/gpu" = "1"
        }
      }
    }
    node_selector {
      accelerator = "GPU_TYPE"
    }
  }
}

Ersetzen Sie:

  • SERVICE durch den Namen Ihres Cloud Run-Dienstes.
  • GPU_ZONAL_REDUNDANCY mit false, um die GPU-Zonenredundanz zu aktivieren, oder true, um sie zu deaktivieren.
  • IMAGE_URL durch einen Verweis auf das Container-Image, z. B. us-docker.pkg.dev/cloudrun/container/hello:latest. Wenn Sie Artifact Registry verwenden, muss das Repository REPO_NAME bereits erstellt sein. Die URL hat die Form LOCATION-docker.pkg.dev/PROJECT_ID/REPO_NAME/PATH:TAG.
  • CPU durch die Anzahl der CPUs. Sie müssen mindestens 4 CPUs angeben.
  • MEMORY durch die Größe des Arbeitsspeichers. Sie müssen mindestens 16Gi (16 GiB) angeben.
  • GPU_TYPE durch den Wert nvidia-l4 (nvidia-L4 Kleinbuchstabe L, nicht numerischer Wert vierzehn).

GPU-Einstellungen aufrufen

So rufen Sie die aktuellen GPU-Einstellungen für Ihren Cloud Run-Dienst auf:

Console

  1. Rufen Sie in der Google Cloud Console Cloud Run auf:

    Zu Cloud Run

  2. Klicken Sie auf den gewünschten Dienst, um die Seite Dienstdetails zu öffnen.

  3. Klicken Sie auf den Tab Überarbeitungen.

  4. Im Detailbereich auf der rechten Seite ist die GPU-Einstellung auf dem Tab Container aufgelistet.

gcloud

  1. Verwenden Sie den folgenden Befehl:

    gcloud run services describe SERVICE
  2. Suchen Sie in der zurückgegebenen Konfiguration nach der GPU-Einstellung.

GPU entfernen

Sie können GPUs mit der Google Cloud -Konsole, der Google Cloud CLI oder YAML entfernen.

Console

  1. Rufen Sie in der Google Cloud Console Cloud Run auf:

    Zu Cloud Run

  2. Klicken Sie auf Container bereitstellen und wählen Sie Dienst aus, um einen neuen Dienst zu konfigurieren. Wenn Sie einen vorhandenen Dienst konfigurieren möchten, klicken Sie auf den Dienst und dann auf Neue Überarbeitung bearbeiten und bereitstellen.

  3. Wenn Sie einen neuen Dienst konfigurieren, füllen Sie die Seite mit den anfänglichen Diensteinstellungen aus und klicken Sie dann auf Container, Volumes, Netzwerk, Sicherheit, um die Seite zur Dienstkonfiguration zu maximieren.

  4. Klicken Sie auf den Tab Container.

    Bild

    • Entfernen Sie das Häkchen aus dem Kästchen „GPU“.
  5. Klicken Sie auf Erstellen oder Bereitstellen.

gcloud

Wenn Sie die GPU entfernen möchten, legen Sie mit dem Befehl gcloud run services update die Anzahl der GPUs auf 0 fest:

  gcloud run services update SERVICE --gpu 0
  

Ersetzen Sie SERVICE durch den Namen Ihres Cloud Run-Dienstes.

YAML

  1. Wenn Sie einen neuen Dienst erstellen, überspringen Sie diesen Schritt. Wenn Sie einen vorhandenen Dienst aktualisieren, laden Sie die zugehörige YAML-Konfiguration herunter:

    gcloud run services describe SERVICE --format export > service.yaml
  2. Löschen Sie die Zeilen nvidia.com/gpu: und nodeSelector: run.googleapis.com/accelerator: nvidia-l4.

  3. Erstellen oder aktualisieren Sie den Dienst mit dem folgenden Befehl:

    gcloud run services replace service.yaml

Bibliotheken

Standardmäßig werden alle NVIDIA L4-Treiberbibliotheken unter /usr/local/nvidia/lib64 bereitgestellt. Cloud Run hängt diesen Pfad automatisch an die Umgebungsvariable LD_LIBRARY_PATH (d.h. ${LD_LIBRARY_PATH}:/usr/local/nvidia/lib64) des Containers mit der GPU an. So kann der dynamische Linker die NVIDIA-Treiberbibliotheken finden. Der Linker sucht und löst Pfade in der Reihenfolge auf, in der Sie sie in der Umgebungsvariablen LD_LIBRARY_PATH angeben. Alle Werte, die Sie in dieser Variablen angeben, haben Vorrang vor dem Standardpfad für Cloud Run-Treiberbibliotheken /usr/local/nvidia/lib64.

Wenn Sie eine CUDA-Version höher als 12.2 verwenden möchten, ist es am einfachsten, von einem neueren NVIDIA-Basis-Image abzuhängen, auf dem bereits Pakete für die Aufwärtskompatibilität installiert sind. Eine weitere Möglichkeit besteht darin, die NVIDIA-Pakete für die Aufwärtskompatibilität manuell zu installieren und sie zu LD_LIBRARY_PATH hinzuzufügen. Sehen Sie sich die Kompatibilitätsmatrix von NVIDIA an, um zu ermitteln, welche CUDA-Versionen mit der bereitgestellten NVIDIA-Treiberversion (535.216.03) aufwärtskompatibel sind.

GPUs und maximale Instanzen

Die Anzahl der Instanzen mit GPUs ist auf zwei Arten begrenzt:

  • Mit der Einstellung Maximale Instanzen wird die Anzahl der Instanzen pro Dienst begrenzt. Dieser Wert darf nicht höher als das GPU-Kontingent pro Projekt und Region sein.
  • Das zulässige Kontingent an GPUs pro Projekt und Region. Dadurch wird die Anzahl der Instanzen über verschiedene Dienste hinweg in derselben Region begrenzt.