Image auswählen

Passend zum Framework und Prozessor Ihrer Wahl sind verschiedene spezifische Deep Learning-VM-Images verfügbar. Aktuell gibt es Images, die PyTorch und generisches Hochleistungs-Computing unterstützen. Einige Versionen unterstützen GPU-fähige Workflows. Informationen dazu, wie Sie das gewünschte Image finden, enthält die unten stehende Tabelle.

Imagefamilie auswählen

Wählen Sie eine Deep Learning-VM-Imagefamilie basierend auf dem Framework und dem Prozessor aus, die Sie benötigen. In der folgenden Tabelle sind die neuesten Versionen von Imagefamilien nach dem Framework-Typ geordnet aufgeführt. Wenn Sie die neueste Version eines Images verwenden möchten, erstellen Sie eine Instanz, indem Sie auf eine Image-Familie mit latest im Namen verweisen. Wenn Sie eine bestimmte Framework-Version benötigen, fahren Sie mit Unterstützte Framework-Versionen fort.

Framework Prozessor Image-Familienname(n)
Basis GPU common-cu128-ubuntu-2204-nvidia-570
PyTorch GPU pytorch-2-7-cu128-ubuntu-2204-nvidia-570

Betriebssystem auswählen

Ubuntu 22.04 ist das Standardbetriebssystem und die Images enthalten den NVIDIA-Treiber in Version 570. Sie sind durch die Suffixe -ubuntu-2204-nvidia-570 im Namen der Imagefamilie gekennzeichnet (siehe Alle verfügbaren Versionen auflisten). Alle Debian-Images wurden verworfen.

Alle aktiven Images unterstützen A3 Ultra-GPU-Beschleuniger.

PyTorch-Images

PyTorch-Imagefamilien bieten eine für Google Cloudoptimierte Distribution von PyTorch und PyTorch Lightning.

Imageversion angeben

Images können wiederverwendet werden, auch wenn es bereits eine neuere Version des Image gibt. Dies kann z. B. sinnvoll sein, wenn Sie einen Cluster erstellen und dabei sicher sein möchten, dass neue Instanzen immer mit denselben Images erstellt werden. In diesem Fall sollte nicht der Name der Imagefamilie angegeben werden. Sonst kann es passieren, dass einige Instanzen des Clusters nach der Aktualisierung des neuesten Image unterschiedliche Images haben.

Ermitteln Sie stattdessen den genauen Namen des Image, fügen Sie die Versionsnummer ein und erstellen Sie neue Instanzen im Cluster mit diesem spezifischen Image.

Verwenden Sie den folgenden Befehl in der Google Cloud-Befehlszeile mit Ihrem bevorzugten Terminal oder in Cloud Shell, um den genauen Namen des neuesten Images herauszufinden. Ersetzen Sie IMAGE_FAMILY durch den Namen der Image-Familie, für die Sie die neueste Versionsnummer ermitteln möchten.

gcloud compute images describe-from-family IMAGE_FAMILY \
        --project deeplearning-platform-release

Suchen Sie in der Ausgabe nach dem Feld name und verwenden Sie den dort angegebenen Imagenamen beim Erstellen neuer Instanzen.

Unterstützte Framework-Versionen

Deep Learning VM unterstützt jede Framework-Version basierend auf einem Zeitplan, um Sicherheitslücken zu minimieren. Prüfen Sie die Supportrichtlinie für Deep Learning VM-Framework, um die Auswirkungen des Enddatums des Supports und des Endes der Verfügbarkeit zu verstehen.

Wenn Sie ein bestimmtes Framework oder eine bestimmte CUDA-Version benötigen, sehen Sie sich die folgenden Tabellen an. Informationen zum Ermitteln eines bestimmten VERSION_DATE für ein Image finden Sie unter Verfügbare Versionen auflisten.

Basisversionen

Alle CPU-basierten Bilder wurden eingestellt.

ML-Framework-Version Aktuelle Patchversion Unterstützte Beschleuniger Ende des Patch- und Supportdatums Enddatum der Verfügbarkeit Image-Familienname
Base-cu128 (Python 3.10 / Ubuntu 22.04) CUDA 12.8 GPU (CUDA 12.8) 1. August 2026 1. August 2027 common-cu128-ubuntu-2204-nvidia-570-VERSION_DATE
Basis-CPU (Python 3.10 / Debian 11) Nicht zutreffend (N/A) Nur CPU 1. Juli 2024 1. Juli 2025 common-cpu-VERSION_DATE-debian-11
Base-cu124 (Python 3.10) CUDA 12.4 GPU (CUDA 12.4) 1. April 2025 1. April 2026 common-cu124-VERSION_DATE-debian-11-py310
Base-cu123 (Python 3.10) CUDA 12.3 GPU (CUDA 12.3) 19. Oktober 2024 19. Oktober 2025 common-cu123-VERSION_DATE-debian-11-py310
Base-cu122 (Python 3.10) CUDA 12.2 GPU (CUDA 12.2) 28. Juni 2024 28. Juni 2025 common-cu122-VERSION_DATE-debian-11-py310
Base-cu121 (Python 3.10) CUDA 12.1 GPU (CUDA 12.1) 28. Feb. 2024 28. Feb. 2025 common-cu121-VERSION_DATE-debian-11-py310
Base-cu118 (Python 3.10) CUDA 11.8 GPU (CUDA 11.8) 1. Juli 2024 1. Juli 2025 common-cu118-VERSION_DATE-debian-11-py310
Base-cu113 (Python 3.10) CUDA 11.3 GPU (CUDA 11.3) 1. Jan. 2024 1. Jan. 2025 common-cu113-VERSION_DATE-debian-11-py310
Base-cu113 (Python 3.7) CUDA 11.3 GPU (CUDA 11.3) 1. Sept. 2023 1. Sept. 2024 common-cu113-VERSION_DATE-py37
Base-cu110 (Python 3.7) CUDA 11.0 GPU (CUDA 11.0) 1. Sept. 2023 1. Sept. 2024 common-cu110-VERSION_DATE-py37
Basis-CPU (Python 3.7) Nicht zutreffend (N/A) Nur CPU 1. Sept. 2023 1. Sept. 2024 common-cpu-VERSION_DATE-debian-10

PyTorch-Versionen

ML-Framework-Version Aktuelle Patchversion Unterstützte Beschleuniger Ende des Patch- und Supportdatums Enddatum der Verfügbarkeit Image-Familienname
2.7 (Python 3.10) 2.7.1 CUDA 12.8 1. August 2026 1. August 2027 pytorch-2-7-cu128-ubuntu-2204-nvidia-570-VERSION_DATE
2.4 (Python 3.10) 2.4.0 CUDA 12.4 24. Juli 2025 24. Juli 2026 pytorch-2-4-VERSION_DATE-py310
2.3 (Python 3.10) 2.3.0 CUDA 12.1 24. Apr 2025 24. Apr. 2026 pytorch-2-3-VERSION_DATE-py310
2.2 (Python 3.10) 2.2.0 CUDA 12.1 30. Jan. 2025 30. Jan. 2026 pytorch-2-2-VERSION_DATE-py310
2.1 (Python 3.10) 2.1.0 CUDA 12.1 4. Okt. 2024 4. Okt. 2025 pytorch-2-1-VERSION_DATE-py310
2.0 (Python 3.10) 2.0.0 CUDA 11.8 15. März 2024 15. März 2025 pytorch-2-0-VERSION_DATE-py310
1.13 (Python 3.10) 1.13.1 CUDA 11.3 8. Dez. 2023 8. Dez. 2024 pytorch-1-13-VERSION_DATE-py310
1.13 1.13.1 CUDA 11.3 8. Dez. 2023 8. Dez. 2024 pytorch-1-13-VERSION_DATE-py37
1.12 1.12.1 CUDA 11.3 1. Sept. 2023 1. Sept. 2024 pytorch-1-12-VERSION_DATE-py310

TensorFlow-Versionen

Alle TensorFlow-Images sind veraltet.

ML-Framework-Version Aktuelle Patchversion Unterstützte Beschleuniger Ende des Patch- und Supportdatums Enddatum der Verfügbarkeit Image-Familienname
2.17 (Python 3.10) 2.17.0 Nur CPU 11. Juli 2025 11. Juli 2026 tf-2-17-cpu-VERSION_DATE-py310
2.17 (Python 3.10) 2.17.0 GPU (CUDA 12.3) 11. Juli 2025 11. Juli 2026 tf-2-17-cu123-VERSION_DATE-py310
2.16 (Python 3.10) 2.16.2 Nur CPU 28. Juni 2025 28. Juni 2026 tf-2-16-cpu-VERSION_DATE-py310
2.16 (Python 3.10) 2.16.2 GPU (CUDA 12.3) 28. Juni 2025 28. Juni 2026 tf-2-16-cu123-VERSION_DATE-py310
2.15 (Python 3.10) 2.15.0 Nur CPU 14. Nov. 2024 14. Nov. 2025 tf-2-15-cpu-VERSION_DATE-py310
2.15 (Python 3.10) 2.15.0 GPU (CUDA 12.2) 14. Nov. 2024 14. Nov. 2025 tf-2-15-cu122-VERSION_DATE-py310
2.14 (Python 3.10) 2.14.0 Nur CPU 26. Sept. 2024 26. Sept. 2025 tf-2-14-cpu-VERSION_DATE-py310
2.14 (Python 3.10) 2.14.0 GPU (CUDA 11.8) 26. Sept. 2024 26. Sept. 2025 tf-2-14-cu118-VERSION_DATE-py310
2.13 (Python 3.10) 2.13.0 Nur CPU 5. Juli 2024 5. Juli 2025 tf-2-13-cpu-VERSION_DATE-py310
2.13 (Python 3.10) 2.13.0 GPU (CUDA 11.8) 5. Juli 2024 5. Juli 2025 tf-2-13-cu118-VERSION_DATE-py310
2.12 (Python 3.10) 2.12.0 Nur CPU 30. Juni 2024 30. Juni 2025 tf-2-12-cpu-VERSION_DATE-py310
2.12 (Python 3.10) 2.12.0 GPU (CUDA 11.8) 30. Juni 2024 30. Juni 2025 tf-2-12-cu113-VERSION_DATE-py310
2.11 (Python 3.10) 2.11.0 Nur CPU 15. November 2022 15. Nov. 2023 tf-2-11-cpu-VERSION_DATE-py310
2.11 (Python 3.10) 2.11.0 GPU (CUDA 11.3) 15. November 2022 15. Nov. 2023 tf-2-11-cu113-VERSION_DATE-py310
2.11 2.11.0 Nur CPU 15. Nov. 2023 15. Nov. 2024 tf-2-11-cpu-VERSION_DATE-py37
2.11 2.11.0 GPU (CUDA 11.3) 15. Nov. 2023 15. Nov. 2024 tf-2-11-cu113-VERSION_DATE-py37
2.10 2.10.1 Nur CPU 15. Nov. 2023 15. Nov. 2024 tf-2-10-cpu-VERSION_DATE-py37
2.10 2.10.1 GPU (CUDA 11.3) 15. Nov. 2023 15. Nov. 2024 tf-2-10-cu113-VERSION_DATE-py37
2,9 2.9.3 Nur CPU 15. Nov. 2023 15. Nov. 2024 tf-2-9-cpu-VERSION_DATE-py37
2,9 2.9.3 GPU (CUDA 11.3) 15. Nov. 2023 15. Nov. 2024 tf-2-9-cu113-VERSION_DATE-py37
2,8 2.8.4 Nur CPU 15. Nov. 2023 15. Nov. 2024 tf-2-8-cpu-VERSION_DATE-py37
2,8 2.8.4 GPU (CUDA 11.3) 15. Nov. 2023 15. Nov. 2024 tf-2-8-cu113-VERSION_DATE-py37
2.6 (py39) 2.6.5 Nur CPU 1. Sept. 2023 1. Sept. 2024 tf-2-6-cpu-VERSION_DATE-py39
2.6 (py39) 2.6.5 GPU (CUDA 11.3) 1. Sept. 2023 1. Sept. 2024 tf-2-6-cu110-VERSION_DATE-py39
2.6 (py37) 2.6.5 Nur CPU 1. Sept. 2023 1. Sept. 2024 tf-2-6-cpu-VERSION_DATE-py37
2.6 (py37) 2.6.5 GPU (CUDA 11.3) 1. Sept. 2023 1. Sept. 2024 tf-2-6-cu110-VERSION_DATE-py37
2,3 2.3.4 Nur CPU 1. Sept. 2023 1. Sept. 2024 tf-2-3-cpu
2,3 2.3.4 GPU (CUDA 11.3) 1. Sept. 2023 1. Sept. 2024 tf-2-3-cu110-VERSION_DATE

Nach der Einstellung

Wenn Images das Ende des Patch- und Supportdatums erreichen, werden sie eingestellt. Das bedeutet, dass diese Bilder nicht mehr öffentlich sichtbar sind. Wir empfehlen, unterstützte Bilder zu verwenden, um die Sicherheit und Leistung zu gewährleisten.

Wenn Ihr Deep Learning VM-Image eingestellt wird oder das Ende der Verfügbarkeit erreicht, empfehlen wir dringend, zu einem neueren, unterstützten Image zu migrieren. So erhalten Sie weiterhin wichtige Sicherheitspatches und die neuesten Funktionen. Es gibt folgende Arten der Migration:

  • Wenn es in derselben Image-Familie ein neueres, unterstütztes Image gibt, empfehlen wir, Ihr Image auf eine unterstützte Version derselben Image-Familie zu aktualisieren.
  • Wenn es in derselben Image-Familie keine neueren, unterstützten Images gibt, sollten Sie ein neueres, unterstütztes Framework aus einer anderen VM-Image-Familie in Betracht ziehen.

Image nach der Einstellung verwenden

Wenn Sie ein Image nach der Einstellung entgegen den Sicherheitsempfehlungen von Google und auf eigenes Risiko verwenden müssen, müssen Sie beim Erstellen der VM-Instanz ein Image aus der Image-Familie angeben.

Wenn Sie Images aus einem Imagefamiliennamen nach dem Datum für das Ende von Patch und Support auflisten möchten, fügen Sie das Flag --show-deprecated in Ihren gcloud compute images list-Befehl ein oder wählen Sie beim Erstellen einer Instanz in der Google Cloud Console Eingestellte Images anzeigen aus. Weitere Informationen finden Sie unter Alle verfügbaren Versionen mit der gcloud CLI auflisten.

Wenn Sie eine Deep Learning-VM-Instanz erstellen möchten, die ein verworfenes Image verwendet, sehen Sie sich das folgende Beispiel für einen gcloud CLI-Befehl an:

gcloud compute instances create deprecated-tf-vm \
    --image=projects/deeplearning-platform-release/global/images/IMAGE_NAME \
    --machine-type=n1-standard-4 \
    --zone=us-east1-c

Ersetzen Sie IMAGE_NAME durch den Namen des Bildes:

  • Wenn Sie ein bestimmtes Image in der Image-Familie verwenden möchten, geben Sie den Namen des Images an, z. B. pytorch-2-7-cu128-ubuntu-2204-nvidia-570-v20250728.

Alle verfügbaren Versionen mit der gcloud CLI auflisten

Sie können auch alle verfügbaren Deep Learning-VM-Images mit dem folgenden gcloud CLI-Befehl auflisten:

gcloud compute images list \
    --project deeplearning-platform-release \
    --format="value(NAME)" \
    --no-standard-images

Imagefamilien sind nach dem Format FRAMEWORK-CUDA_VERSION-OS benannt, wobei FRAMEWORK die Zielbibliothek, CUDA_VERSION die Version des CUDA-Stacks und OS das Betriebssystem mit dem vorinstallierten NVIDIA-Treiber ist.

So verwendet beispielsweise ein Image aus der Familie pytorch-2-7-cu128-ubuntu-2204-nvidia-570 PyTorch 2.7, CUDA 12.8 und das Betriebssystem Ubuntu 22.04 mit dem vorinstallierten NVIDIA-Treiber 570.

Nächste Schritte

Erstellen einer neuen Deep Learning-VM-Instanz über den Cloud Marketplace oder über die Befehlszeile.