Von Cloud Life Sciences zu Batch migrieren

Auf dieser Seite wird beschrieben, wie Sie von Cloud Life Sciences zu Batch migrieren.

Google Cloud hat angekündigt, dass Cloud Life Sciences am 17. Juli 2023 eingestellt und am 8. Juli 2025 abgeschaltet wird. Batch ist jedoch allgemein verfügbar und ein umfassender Nachfolger, der alle Anwendungsfälle für Cloud Life Sciences unterstützt.

Weitere Informationen zu Batch, Cloud Life Sciences und Phasen der Produkteinführung

Cloud Life Sciences im Vergleich zu Batch

Bei der Migration von Cloud Life Sciences zu Batch geht es in erster Linie darum, zu verstehen, wie Sie Batch für die Arbeitslasten verwenden können, die Sie derzeit durch Ausführen von Cloud Life Sciences-Pipelines ausführen.

In den folgenden Abschnitten erfahren Sie, wie Sie Ihre Cloud Life Sciences-Arbeitslasten in Batch ausführen können:

Übersicht

Eine Cloud Life Sciences-Pipeline beschreibt eine Abfolge von Aktionen (Containern), die ausgeführt werden sollen, und die Umgebung, in der die Container ausgeführt werden sollen.

Ein Batch-Job beschreibt ein Array mit einer oder mehreren Aufgaben und die Umgebung, in der diese Aufgaben ausgeführt werden sollen. Sie definieren die Arbeitslast für einen Job als eine Sequenz aus einem oder mehreren Runnables (Containern und/oder Scripts), die ausgeführt werden sollen. Jede Aufgabe für einen Job steht für eine Ausführung der zugehörigen Sequenz von Runnables.

Cloud Life Sciences-Pipelines können als Batch-Jobs mit einer einzelnen Aufgabe ausgedrückt werden.

Die folgenden Beispiele beschreiben eine einfache Cloud Life Sciences-Pipeline und den entsprechenden Batch-Job:

Cloud Life Sciences-Pipeline Batch job
  {
    "actions": [
      {
        "imageUri": "bash",
        "commands": [
          "-c",
          "echo Hello, world!"
        ]
      }
    ]
  }
  
    {
      "taskGroups" : [{
        "taskSpec" : {
          "runnables" : [{
            "container":{
              "imageUri": "bash",
              "commands": [
                "-c",
                "echo Hello, world!"
              ]
            }
          }]
        }
      }]
    }
    

Batchjobs mit mehreren Aufgaben ähneln kopierten Cloud Life Sciences-Pipelines.

Im Gegensatz zu Cloud Life Sciences können Sie mit Batch mehrere Ausführungen Ihrer Arbeitslast automatisch planen. Sie geben an, wie oft die Sequenz von Runnables für einen Job ausgeführt werden soll, indem Sie die Anzahl der Aufgaben definieren. Wenn ein Job mehrere Tasks hat, geben Sie an, wie sich die einzelnen Ausführungen unterscheiden sollen, indem Sie in Ihren Runnables auf den Index des Tasks verweisen. Außerdem können Sie die relativen Zeitpläne für die Aufgaben eines Jobs konfigurieren, z. B. ob mehrere Aufgaben parallel ausgeführt werden dürfen oder ob Aufgaben nacheinander und jeweils einzeln ausgeführt werden müssen. Batch verwaltet die Planung der Aufgaben des Jobs: Wenn eine Aufgabe abgeschlossen ist, wird automatisch die nächste Aufgabe gestartet, sofern vorhanden.

Sehen Sie sich beispielsweise den folgenden Batchjob an. Dieser Beispieljob hat 100 Aufgaben, die auf 10 Compute Engine-VM-Instanzen ausgeführt werden. Daher werden zu jedem Zeitpunkt etwa 10 Aufgaben parallel ausgeführt. Jede Aufgabe in diesem Beispieljob führt nur ein ausführbares Element aus: ein Skript, das eine Nachricht und den Index der Aufgabe ausgibt, der durch die vordefinierte Umgebungsvariable BATCH_TASK_INDEX definiert wird.

{
  "taskGroups" : [{
    "taskSpec" : {
      "runnables" : [{
        "script":{
          "text": "echo Hello world! This is task ${BATCH_TASK_INDEX}."
        }
      }]
    },
    "taskCount": 100,
    "parallelism": 10
  }]
}

Workflows, bei denen mehrere ähnliche Cloud Life Sciences-Pipelines erstellt und überwacht werden müssen, lassen sich manchmal vereinfachen, indem die integrierte Planung von Batch genutzt wird.

Grundlegende Vorgänge

In diesem Abschnitt werden grundlegende Vorgänge in Cloud Life Sciences im Vergleich zu Batch beschrieben.

In der folgenden Tabelle sind die grundlegenden Optionen für Vorgänge für Cloud Life Sciences und Batch zusammengefasst.

Grundlegende Bedienung Cloud Life Sciences-Optionen Batch-Optionen
Führen Sie eine Arbeitslast aus.
  • Führen Sie eine Pipeline aus.
  • Job erstellen und ausführen
Alle Ihre Arbeitslasten ansehen
  • Lange laufende Vorgänge auflisten.
  • Eine Liste Ihrer Jobs ansehen.
Details und Status einer Arbeitslast ansehen
  • Details zu einem Vorgang mit langer Ausführungszeit abrufen
  • Lang andauernden Vorgang abfragen.
  • Details zu einem Job ansehen
  • Liste der Aufgaben eines Jobs ansehen
  • Details zu einer Aufgabe ansehen
Arbeitslast beenden und entfernen
  • Lange laufenden Vorgang abbrechen.
  • Job löschen (und abbrechen).
  • Status einer Anfrage zum Löschen eines Jobs prüfen

Die grundlegenden Vorgänge für Cloud Life Sciences und Batch weisen einige wichtige Unterschiede auf.

Erstens spielen Ressourcen für Vorgänge mit langer Ausführungszeit in Batch nicht dieselbe Rolle wie in Cloud Life Sciences. Ressourcen für Vorgänge mit langer Ausführungszeit (Long-Running Operations, LROs) in Cloud Life Sciences sind die primäre Ressource, die zum Auflisten und Aufrufen Ihrer Pipelines verwendet wird. Ressourcen für Vorgänge mit langer Ausführungszeit in Batch- und anderen Google Cloud APIs werden jedoch nur verwendet, um den Status einer Anfrage zu überwachen, deren Ausführung lange dauert. In Batch wird nur beim Löschen eines Jobs eine Ressource für einen lang andauernden Vorgang zurückgegeben. Weitere Informationen zu Ressourcen für lang andauernde Vorgänge für Batch finden Sie in der Batch API-Referenzdokumentation für die REST-Ressource projects.locations.operations. Anstelle von Ressourcen für lang andauernde Vorgänge verwendet Batch Job-Ressourcen, die Sie für Ihre Arbeitslasten aufrufen und löschen können.

Zweitens sind für das Aufrufen der Details einer Arbeitslast in Batch andere Vorgänge erforderlich als in Cloud Life Sciences. Sie können sich einen Job ansehen, um sowohl seine Details als auch seinen Status zu sehen. Jede Aufgabe eines Jobs hat jedoch auch eigene Details und einen eigenen Status, die Sie sehen können, indem Sie eine Liste der Aufgaben eines Jobs und die Details einer Aufgabe aufrufen.

Damit Sie die grundlegenden Vorgänge für Cloud Life Sciences im Vergleich zu Batch besser nachvollziehen können, finden Sie in den folgenden Abschnitten Beispiele für Google Cloud CLI-Befehle und API-Anfragepfade für einige dieser grundlegenden Vorgänge.

Beispiel für gcloud-Befehlszeilenbefehle

In der gcloud CLI beginnen Cloud Life Sciences-Befehle mit gcloud beta lifesciences und Batch-Befehle mit gcloud batch. Sehen Sie sich zum Beispiel die folgenden gcloud CLI-Befehle an.

  • Beispielbefehle für die gcloud CLI für Cloud Life Sciences:

    • So führen Sie eine Pipeline aus:

      gcloud beta lifesciences pipelines run \
        --project=PROJECT_ID \
        --regions=LOCATION \
        --pipeline-file=JSON_CONFIGURATION_FILE
      
    • So rufen Sie Details zu einem lang andauernden Vorgang ab:

      gcloud beta lifesciences operations describe OPERATION_ID
      

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die Projekt-ID Ihres Projekts.
    • LOCATION: Der Speicherort der Pipeline.
    • JSON_CONFIGURATION_FILE: Die JSON-Konfigurationsdatei für die Pipeline.
    • OPERATION_ID: Die Kennung für den lang andauernden Vorgang, die von der Anfrage zum Ausführen der Pipeline zurückgegeben wurde.
  • Beispiel für Batch-gcloud-Befehlszeilenbefehle:

    • Job erstellen und ausführen:

      gcloud batch jobs submit JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION \
        --config=JSON_CONFIGURATION_FILE
      
    • So rufen Sie die Details eines Jobs auf:

      gcloud batch jobs describe JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION \
      
    • So rufen Sie die Aufgabenliste eines Jobs auf:

      ​​gcloud batch tasks list \
        --project=PROJECT_ID \
        --location=LOCATION \
        --job=JOB_NAME
      
    • So rufen Sie die Details einer Aufgabe auf:

      gcloud batch tasks describe TASK_INDEX \
        --project=PROJECT_ID \
        --location=LOCATION \
        --job=JOB_NAME \
        --task_group=TASK_GROUP
      
    • Job löschen (und abbrechen):

      gcloud batch jobs delete JOB_NAME \
        --project=PROJECT_ID \
        --location=LOCATION
      

    Ersetzen Sie Folgendes:

    • JOB_NAME: Der Name des Jobs.
    • PROJECT_ID: die Projekt-ID Ihres Projekts.
    • LOCATION: Der Standort des Jobs.
    • JSON_CONFIGURATION_FILE: der Pfad zu einer JSON-Datei mit den Konfigurationsdetails des Jobs.
    • TASK_INDEX: Der Index der Aufgabe, deren Details Sie aufrufen möchten. In einer Aufgabengruppe beginnt der Aufgabenindex bei 0 für die erste Aufgabe und wird bei jeder zusätzlichen Aufgabe um 1 erhöht. Eine Taskgruppe mit vier Tasks hat beispielsweise die Indexe 0, 1, 2 und 3.
    • TASK_GROUP_NAME: der Name der Aufgabengruppe, deren Details Sie aufrufen möchten. Der Wert muss auf group0 festgelegt werden.

Beispielpfade für API-Anfragen

Für APIs verwendet Cloud Life Sciences lifesciences.googleapis.com-Anfragepfade und Batch verwendet batch.googleapis.com-Anfragepfade. Hier sind einige Beispiele für API-Anfragepfade: Im Gegensatz zu Cloud Life Sciences hat Batch keine RPC API, sondern nur eine REST API.

  • Beispielpfade für Cloud Life Sciences API-Anfragen:

    • So führen Sie eine Pipeline aus:

      POST https://lifesciences.googleapis.com/v2beta/projects/PROJECT_ID/locations/LOCATION/pipelines:run
      
    • So rufen Sie Details zu einem lang andauernden Vorgang ab:

      GET https://lifesciences.googleapis.com/v2beta/projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
      

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die Projekt-ID Ihres Projekts.
    • LOCATION: Der Speicherort der Pipeline.
    • OPERATION_ID: Die Kennung für den lang andauernden Vorgang, die von der Anfrage zum Ausführen der Pipeline zurückgegeben wurde.
  • Beispiel für Batch-API-Anfragepfade:

    • Job erstellen und ausführen:

      POST https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs?job_id=JOB_NAME
      
    • So rufen Sie die Details eines Jobs auf:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME
      
    • So rufen Sie die Aufgabenliste eines Jobs auf:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME/taskGroups/TASK_GROUP/tasks
      
    • Job löschen

      DELETE https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/jobs/JOB_NAME
      
    • Status der Anfrage zum Löschen von Jobs prüfen:

      GET https://batch.googleapis.com/v1/projects/PROJECT_ID/locations/LOCATION/operations/OPERATION_ID
      

    Ersetzen Sie Folgendes:

    • PROJECT_ID: die Projekt-ID Ihres Projekts.
    • LOCATION: Der Standort des Jobs.
    • JOB_NAME: Der Name des Jobs.
    • TASK_GROUP_NAME: der Name der Aufgabengruppe, deren Details Sie aufrufen möchten. Der Wert muss auf group0 festgelegt werden.
    • OPERATION_ID: Die Kennzeichnung für den lang andauernden Vorgang, die von der Anfrage zum Löschen des Jobs zurückgegeben wurde.

IAM-Rollen und -Berechtigungen

In diesem Abschnitt werden die Unterschiede bei den Identity and Access Management-Rollen und ‑Berechtigungen für Cloud Life Sciences und Batch zusammengefasst. Weitere Informationen zu Rollen und ihren Berechtigungen finden Sie in der Referenz zu einfachen und vordefinierten IAM-Rollen.

In der folgenden Tabelle werden die vordefinierten Rollen und die Berechtigungen beschrieben, die für Nutzer von Cloud Life Sciences erforderlich sind.

Cloud Life Sciences-Rollen Berechtigungen

Eine der folgenden:

  • Cloud Life Sciences-Administrator (roles/lifesciences.admin) für das Projekt
  • Cloud Life Sciences-Bearbeiter (roles/lifesciences.editor) für das Projekt
  • Cloud Life Sciences-Workflows-Runner (roles/lifesciences.workflowsRunner) für das Projekt
  • lifesciences.workflows.run
  • lifesciences.operations.cancel
  • lifesciences.operations.get
  • lifesciences.operations.list
Cloud Life Sciences-Betrachter (roles/lifesciences.viewer) für das Projekt
  • lifesciences.operations.get
  • lifesciences.operations.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list

In der folgenden Tabelle werden einige der vordefinierten Rollen und ihre Berechtigungen für Batch beschrieben. Im Gegensatz zu Cloud Life Sciences müssen Sie in Batch Nutzern und dem Dienstkonto für einen Job Berechtigungen erteilen. Weitere Informationen zu den IAM-Anforderungen finden Sie unter Voraussetzungen für Batch.

Rollen für Nutzer im Batch zuweisen Berechtigungen
Bearbeiter von Batchjobs (roles/batch.jobsEditor) für das Projekt
  • batch.jobs.create
  • batch.jobs.delete
  • batch.jobs.get
  • batch.jobs.list
  • batch.locations.get
  • batch.locations.list
  • batch.operations.get
  • batch.operations.list
  • batch.tasks.get
  • batch.tasks.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Batchjob-Betrachter (roles/batch.jobsViewer) für das Projekt
  • batch.jobs.get
  • batch.jobs.list
  • batch.locations.get
  • batch.locations.list
  • batch.operations.get
  • batch.operations.list
  • batch.tasks.get
  • batch.tasks.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Dienstkontonutzer (roles/iam.serviceAccountUser) für das Dienstkonto des Jobs
  • iam.serviceAccounts.actAs
  • iam.serviceAccounts.get
  • iam.serviceAccounts.list
  • resourcemanager.projects.get
  • resourcemanager.projects.list
Batch-Rollen für Dienstkonten Berechtigungen
Batch-Agent-Melder (roles/batch.agentReporter) für das Projekt
  • batch.states.report

Entsprechende Funktionen

In der folgenden Tabelle werden die Funktionen für Cloud Life Sciences, die entsprechenden Funktionen für Batch und Details zu den Unterschieden zwischen ihnen beschrieben.

Jede Funktion wird durch eine Beschreibung und die zugehörige JSON-Syntax dargestellt. Sie können die JSON-Syntax verwenden, wenn Sie über die API auf Batch zugreifen oder eine JSON-Konfigurationsdatei über die Google Cloud CLI angeben. Sie können Batch-Funktionen jedoch auch über andere Methoden verwenden, z. B. über Google Cloud Konsolenfelder, Flags der gcloud CLI und Clientbibliotheken. Diese Methoden werden in der Batch-Dokumentation beschrieben.

Weitere Informationen zu den einzelnen Funktionen und ihrer JSON-Syntax finden Sie hier:

Cloud Life Sciences-Funktionen Batch-Funktionen Details
Pipeline (pipeline) Job (job) und seine Aufgaben (taskGroups[])

Ein Batchjob besteht aus einem Array von einer oder mehreren Aufgaben, die jeweils alle dieselben ausführbaren Dateien ausführen. Eine Cloud Life Sciences-Pipeline ähnelt einem Batch-Job mit einer Aufgabe. Cloud Life Sciences hat jedoch kein entsprechendes Konzept für Jobs mit mehreren Aufgaben, die gewissermaßen Wiederholungen einer Pipeline sind.

Weitere Informationen zu Jobs und Aufgaben finden Sie unter Batch – Übersicht.

Aktionen (actions[]) für eine Pipeline Ausführbare Elemente (runnables[]) für die Aufgaben eines Jobs

Eine Cloud Life Sciences-Aktion beschreibt einen Container, ein Batch-Runnable kann jedoch entweder einen Container oder ein Script enthalten.

Anmeldedaten (credentials) für eine Aktion

für eine ausführbare Containerdatei:

In Cloud Life Sciences müssen die Anmeldedaten einer Aktion ein Cloud Key Management Service-verschlüsseltes Dictionary mit Schlüssel/Wert-Paaren für Nutzername und Passwort sein.

In Batch befinden sich der Nutzername und das Passwort für einen Container-Runnable in separaten Feldern. Beide Felder können mit Nur-Text oder mit dem Namen eines Secret Manager-Secrets angegeben werden.

für eine Aktion:

für eine Umgebung:

Mögliche Umgebungen:

In Cloud Life Sciences können Sie die Umgebungsvariablen für eine Aktion angeben, die als Nur-Text oder als verschlüsseltes Dictionary formatiert sind. In Batch ist dies ähnlich wie bei einer Umgebung für ein ausführbares Element (Feld environment in runnables[]), die Variablen enthält, die als Nur-Text (variables) oder als verschlüsseltes Dictionary (encryptedVariables) formatiert sind.

Batch bietet jedoch auch mehr Optionen zum Angeben von Umgebungsvariablen:

  • Als Alternative zur Angabe von Variablen als Nur-Text oder verschlüsseltes Dictionary können Sie Variablen mit Secret Manager-Secrets angeben, indem Sie eine Secret-Variable (secretVariables) verwenden.
  • Alternativ zur Angabe einer Umgebungsvariable für ein ausführbares Programm können Sie eine Umgebungsvariable für alle ausführbaren Programme angeben, indem Sie das Feld environment in taskSpec verwenden.
  • Alternativ zur Angabe einer Umgebungsvariable mit dem gleichen Wert für jede Aufgabe können Sie eine Umgebungsvariable mit einem unterschiedlichen Wert für jede Aufgabe angeben. Verwenden Sie dazu das Feld taskEnvironments[] in taskGroups[].

Weitere Informationen finden Sie unter Umgebungsvariablen verwenden.

Labels für eine Anfrage zum Ausführen einer Pipeline (labels im Anfragetext) Labels für einen Job (labels in der Jobressource)

Im Gegensatz zu Cloud Life Sciences enthält Batch kein Feld für Labels in der Anfrage zum Erstellen eines neuen Jobs. Die beste Option für Batch ist die Verwendung von Labels, die nur dem Job zugeordnet sind.

Der Batch enthält mehrere Arten von Labels (labels-Felder), die Sie beim Erstellen eines Jobs verwenden können. Weitere Informationen finden Sie unter Ressourcen mit Labels organisieren.

Regionen (regions[]) und Zonen (zones[]) für die Ressourcen (resources) einer Pipeline Zulässige Standorte (allowedLocations) für die Richtlinie für Ressourcenstandorte eines Jobs (locationPolicy)

In Cloud Life Sciences wird eine Pipeline auf einer einzelnen VM ausgeführt, für die Sie die gewünschten Regionen und/oder Zonen angeben können.

In Batch ist die entsprechende Option die zulässigen Standorte für einen Job. Sie können sie als eine oder mehrere Regionen oder Zonen definieren und damit angeben, wo die VMs für einen Job erstellt werden können. Alle VMs für einen einzelnen Batchjob gehören zu einer einzelnen verwalteten Instanzgruppe (Managed Instance Group, MIG), die sich in einer bestimmten Region befindet. Einzelne VMs können sich jedoch in verschiedenen Zonen dieser Region befinden.

Die Angabe des Felds „Zulässige Standorte“ für einen Job ist optional, da es sich vom Standort des Jobs unterscheidet. Im Gegensatz zum Standort des Jobs wirkt sich der zulässige Standort nicht auf den Standort aus, der zum Erstellen eines Batch-Jobs und zum Speichern von Job-Metadaten verwendet wird. Weitere Informationen finden Sie unter Batch-Standorte.

für die Ressourcen einer Pipeline (resources):

für die Ressourcenrichtlinie eines Jobs (allocationPolicy):

In Cloud Life Sciences können Sie die (eine) VM konfigurieren, auf der eine Pipeline ausgeführt wird.

In Batch sind dieselben Optionen für VMs in den Feldern der Ressourcenzuweisungsrichtlinie eines Jobs (allocationPolicy) verfügbar:

  • Das Dienstkonto, die Labels und die Netzwerkkonfiguration für die VMs werden in den entsprechenden Feldern definiert.
  • Das VM-Feld (instances), das Sie entweder direkt oder über eine Instanzvorlage definieren können, enthält die Konfigurationsoptionen für den Maschinentyp, die mindestens zulässige CPU-Plattform, das Bootlaufwerk und alle anderen angehängten Laufwerke sowie alle GPUs und GPU-Treiber.

für eine Aktion:

für ein Runnable:

Diese verschiedenen Convenience-Flags aus Cloud Life Sciences sind in Batch gleichwertig, werden jedoch für jedes Runnable (das ein Script oder einen Container enthalten kann) anstelle jeder Aktion (Container) angegeben.

für eine Aktion:

  • Option zum Veröffentlichen freigegebener Ports (publishExposedPorts)
  • Option zum Angeben des Namespace der Prozess-ID (PID) (pidNamespace)
  • und die Option zum Angeben von Container-zu-Host-Portzuordnungen (portMappings)
Optionen (options) für eine ausführbare Containerdatei

Diese und andere Cloud Life Sciences-Optionen werden in Batch über das Feld „options“ (options) für einen ausführbaren Container unterstützt. Legen Sie das Feld „options“ auf alle Flags fest, die Batch an den docker run-Befehl anhängen soll, z. B. -P --pid mynamespace -p 22:22.

für eine Aktion:

Kein Äquivalent

Beim Batch-Prefetching werden Bilder vorab abgerufen und die Ausgaben aller Runnables werden gemäß der Logrichtlinie des Jobs (logsPolicy) identisch verarbeitet.

Option zum Blockieren externer Netzwerke (blockExternalNetwork) für eine Aktion Option zum Blockieren externer Netzwerke (blockExternalNetwork) für eine Container-Runnable

Die Cloud Life Sciences-Option zum Blockieren externer Netzwerke für eine Aktion ähnelt der Batch-Option zum Blockieren externer Netzwerke für einen Container.

Batch bietet auch viele andere Netzwerkoptionen, z. B. zum Blockieren externer Netzwerke für alle VMs eines Jobs. Weitere Informationen finden Sie unter Batch-Netzwerke – Übersicht.

Bereitstellungen (mounts[]) für eine Aktion Volumes für alle ausführbaren Dateien (volumes[] in taskSpec) und Volume-Optionen für einen Container (volumes[] in container)

In Batch können Sie das Feld volumes[] in taskSpec verwenden, um die Volumes eines Jobs und ihre Bereitstellungspfade zu definieren. Batch stellt Speichervolumes für die VMs des Jobs bereit und Speichervolumes sind für alle ausführbaren Elemente des Jobs (Scripts oder Container) zugänglich. Die Einbindung erfolgt, bevor die VM Aufgaben oder ausführbare Dateien ausführt.

Außerdem unterstützt Batch explizite Volume-Optionen für Container-Runnables über das Feld volumes[] in container. Diese Mount-Optionen werden an den Container als Optionen für das --volume-Flag des docker run-Befehls übergeben. Der Wert [ "/etc:/etc", "/foo:/bar" ] wird beispielsweise in den Befehl docker run --volume /etc:/etc --volume /foo:/bar im Container übersetzt.

Weitere Informationen zur Verwendung von Speicher-Volumes mit Batch finden Sie unter Job erstellen und ausführen, der Speicher-Volumes verwendet.

Option zum Aktivieren von Cloud Storage FUSE (enableFuse) für eine Aktion Kein Äquivalent

Batch übernimmt die Bereitstellung aller Speicher-Volumes, z. B. eines Cloud Storage-Bucket, die Sie für einen Job angeben. Daher aktivieren Sie keine Bereitstellungstools wie Cloud Storage FUSE für Batch. Sie können jedoch optional Bereitstellungsoptionen für Ihre Speichervolumes angeben, indem Sie das Feld mountOptions[] verwenden.

Weitere Informationen zur Verwendung von Cloud Storage-Buckets mit Batch finden Sie unter Job erstellen und ausführen, der Speichervolumes verwendet.

Pub/Sub-Thema (pubSubTopic) für eine Anfrage zum Ausführen einer Pipeline

für die Benachrichtigungskonfigurationen eines Jobs (notifications[]):

Mit Batch können Statusaktualisierungen besser angepasst werden als mit Cloud Life Sciences. Batch-Nutzer können beispielsweise über ein Pub/Sub-Thema benachrichtigt werden, wenn sich der Status einzelner Aufgaben oder nur des gesamten Jobs ändert.

Workflow-Dienste

Wenn Sie einen Workflow-Dienst mit Cloud Life Sciences verwenden, müssen Sie im Rahmen der Migration auch einen Workflow-Dienst für die Verwendung mit Batch konfigurieren. In diesem Abschnitt werden die Workflow-Dienste zusammengefasst, die Sie mit Batch verwenden können.

Batch unterstützt Workflows, einen Workflow-Dienst von Google Cloud. Wenn Sie Workflows mit Batch verwenden möchten, lesen Sie den Abschnitt Batchjob mit Workflows ausführen. Andernfalls werden in der folgenden Tabelle andere Workflow-Dienste beschrieben, die Sie für Cloud Life Sciences verwenden können und die auch mit Batch verwendet werden können. In dieser Tabelle sind die wichtigsten Unterschiede bei der Verwendung der einzelnen Workflow-Dienste mit Batch anstelle von Cloud Life Sciences aufgeführt. Außerdem finden Sie Details dazu, wo Sie mehr über die Verwendung der einzelnen Dienste mit Batch erfahren können.

Workflow Service Wichtige Unterschiede Details
Cromwell

Wenn Sie eine Cromwell-Konfigurationsdatei für die v2beta Cloud Life Sciences API mit der Batch API verwenden möchten, nehmen Sie die folgenden Änderungen vor:

  1. Ersetzen Sie im Feld actor-factory cromwell.backend.google.pipelines.v2beta.PipelinesApiLifecycleActorFactory durch cromwell.backend.google.batch.GcpBatchLifecycleActorFactory.
  2. Entfernen Sie das Feld genomics.endpoint-url.
  3. Generieren Sie eine neue Konfigurationsdatei.
Weitere Informationen zur Verwendung von Batch mit Cromwell finden Sie in der Cromwell-Dokumentation zu Batch und im Cromwell-Tutorial zu Batch.
dsub

Wenn Sie Ihre dsub-Pipeline für Cloud Life Sciences mit Batch ausführen möchten, müssen Sie die folgenden Änderungen vornehmen:

  • Ersetzen Sie im Feld provider google-cls-v2 durch google-batch.
Weitere Informationen zur Verwendung von Batch mit dsub finden Sie in der dsub-Dokumentation für Batch.
Logo: Nextflow

Wenn Sie stattdessen eine Nextflow-Konfigurationsdatei für Cloud Life Sciences mit Batch verwenden möchten, nehmen Sie die folgenden Änderungen vor:

  1. Ersetzen Sie im Feld executor google-lifesciences durch google-batch.
  2. Ersetzen Sie bei allen config-Präfixen google.lifeScience durch google.batch.
Weitere Informationen zur Verwendung von Batch mit Nextflow finden Sie in einem Batch-Tutorial oder einem Nextflow-Tutorial. Weitere Informationen zu Konfigurationsoptionen finden Sie in der Nextflow-Dokumentation.
Snakemake

Wenn Sie eine Snakemake-Pipeline für die v2beta Cloud Life Sciences API stattdessen mit der Batch API verwenden möchten, nehmen Sie die folgenden Änderungen vor:

  1. Achten Sie darauf, dass Sie Snakemake-Version 8 oder höher verwenden. Weitere Informationen finden Sie unter Migration zwischen Snakemake-Versionen.
  2. Nehmen Sie die folgenden Änderungen am snakemake-Befehl vor:

    • Ersetzen Sie das Flag --google-lifesciences durch das Flag --executor googlebatch.
    • Ersetzen Sie alle zusätzlichen Flags mit dem Präfix --google-lifesciences- durch das Präfix --googlebatch-.
Weitere Informationen zur Verwendung von Batch mit Snakemake finden Sie in der Snakemake-Dokumentation für Batch.

Nächste Schritte

  • Informationen zum Konfigurieren von Batch für neue Nutzer und Projekte finden Sie unter Erste Schritte.
  • Informationen zum Ausführen von Arbeitslasten mit Batch finden Sie unter Job erstellen.