Workflow ausführen

Bei der Ausführung eines Workflows wird die aktuelle Workflowdefinition ausgeführt, die dem Workflow zugeordnet ist.

Sie können Laufzeitargumente in einer Anfrage zur Workflowausführung übergeben und mithilfe einer Workflowvariablen auf diese Argumente zugreifen. Weitere Informationen finden Sie unter Laufzeitargumente in einer Ausführungsanfrage übergeben.

Nach Abschluss einer Workflowausführung werden der Verlauf und die Ergebnisse für einen begrenzten Zeitraum gespeichert. Weitere Informationen finden Sie unter Kontingente und Limits.

Hinweise

Von Ihrer Organisation definierte Sicherheitsbeschränkungen verhindern möglicherweise, dass die folgenden Schritte ausgeführt werden. Informationen zur Fehlerbehebung finden Sie unter Anwendungen in einer eingeschränkten Google Cloud-Umgebung entwickeln.

  1. Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
  2. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  3. Make sure that billing is enabled for your Google Cloud project.

  4. In the Google Cloud console, on the project selector page, select or create a Google Cloud project.

    Go to project selector

  5. Make sure that billing is enabled for your Google Cloud project.

  6. Wenn ein Workflow auf andere Google Cloud-Ressourcen zugreift, muss er einem Dienstkonto zugeordnet werden, das die richtigen Berechtigungen hat. Informationen dazu, welches Dienstkonto einem vorhandenen Workflow zugeordnet ist, finden Sie unter Verknüpftes Dienstkonto eines Workflows prüfen.

    Um eine Ressource zu erstellen und ein Dienstkonto anzuhängen, benötigen Sie Berechtigungen zum Erstellen dieser Ressource und die Erlaubnis, sich als das Dienstkonto auszugeben, das Sie an die Ressource anhängen werden. Weitere Informationen finden Sie unter Dienstkontoberechtigungen.

  7. Sie können einen Workflow mit der Google Cloud Console oder der Google Cloud CLI bereitstellen.

Workflow ausführen

Sie können einen Workflow mit den Clientbibliotheken, in der Google Cloud Console, mit der gcloud CLI oder durch Senden einer Anfrage an die Workflows REST API ausführen.

Console

  1. Rufen Sie zum Ausführen eines Workflows in der Google Cloud Console die Seite Workflows auf:

    Zur Seite "Workflows"

  2. Wählen Sie auf der Seite Workflows einen Workflow aus, um dessen Detailseite aufzurufen.

  3. Klicken Sie auf der Seite Workflow-Details auf Ausführen.

  4. Auf der Seite Workflow ausführen können Sie im Bereich Eingabe optionale Laufzeitargumente eingeben, die vor der Ausführung an Ihren Workflow übergeben werden. Argumente müssen im JSON-Format vorliegen. Beispiel: {"animal":"cat"}. Wenn Ihr Workflow keine Laufzeitargumente verwendet, lassen Sie dieses Feld leer.

  5. Optional können Sie die Ebene des Aufruf-Loggings angeben, die Sie auf die Ausführung des Workflows anwenden möchten. Wählen Sie in der Liste Anrufprotokollebene eine der folgenden Optionen aus:

    • Nicht angegeben: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
    • Nur Fehler: Alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme werden protokolliert.
    • Alle Aufrufe: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
    • Keine Protokolle: Es werden keine Anrufe protokolliert.

  6. Klicken Sie auf Ausführen.

  7. Auf der Seite Ausführungsdetails sehen Sie die Ergebnisse der Ausführung, einschließlich aller Ausgaben, der Ausführungs-ID und des Ausführungsstatus sowie des aktuellen oder letzten Schritts der Workflowausführung. Weitere Informationen finden Sie unter Auf Ergebnisse der Workflowausführung zugreifen.

gcloud

  1. Öffnen Sie ein Terminalfenster.

  2. Suchen Sie den Namen des Workflows, den Sie ausführen möchten. Wenn Sie den Namen des Workflows nicht kennen, können Sie den folgenden Befehl eingeben, um alle Workflows aufzulisten:

    gcloud workflows list
  3. Sie können den Workflow entweder mit dem Befehl gcloud workflows run oder dem Befehl gcloud workflows execute ausführen:

    • Führen Sie den Workflow aus und warten Sie, bis die Ausführung abgeschlossen ist:

      gcloud workflows run WORKFLOW_NAME \
          --call-log-level=CALL_LOGGING_LEVEL \
          --data=DATA
    • Führen Sie den Workflow aus, ohne auf den Abschluss des Ausführungsversuchs zu warten:

      gcloud workflows execute WORKFLOW_NAME \
          --call-log-level=CALL_LOGGING_LEVEL \
          --data=DATA

      Ersetzen Sie Folgendes:

      • WORKFLOW_NAME: Der Name des Workflows.
      • CALL_LOGGING_LEVEL (optional): Ebene des Aufruf-Loggings, das während der Ausführung angewendet werden soll. Kann einer der folgenden Werte sein:

        • none: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
        • log-errors-only: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliert
        • log-all-calls: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
        • log-none: Kein Aufruf-Logging.
      • DATA (optional): Laufzeitargumente für Ihren Workflow im JSON-Format.

  4. Wenn Sie gcloud workflows execute ausgeführt haben, wird die eindeutige ID des Workflow-Ausführungsversuchs zurückgegeben und die Ausgabe sieht in etwa so aus:

     To view the workflow status, you can use following command:
     gcloud workflows executions describe b113b589-8eff-4968-b830-8d35696f0b33 --workflow workflow-2 --location us-central1

    Geben Sie den im vorherigen Schritt zurückgegebenen Befehl ein, um den Status der Ausführung aufzurufen.

Wenn der Ausführungsversuch erfolgreich ist, sieht die Ausgabe in etwa so aus: state gibt den Erfolg des Workflows an und status den letzten Workflowschritt der Ausführung.

argument: '{"searchTerm":"Friday"}'
endTime: '2022-06-22T12:17:53.086073678Z'
name: projects/1051295516635/locations/us-central1/workflows/myFirstWorkflow/executions/c4dffd1f-13db-46a0-8a4a-ee39c144cb96
result: '["Friday","Friday the 13th (franchise)","Friday Night Lights (TV series)","Friday
    the 13th (1980 film)","Friday the 13th","Friday the 13th (2009 film)","Friday the
    13th Part III","Friday the 13th Part 2","Friday (Rebecca Black song)","Friday Night
    Lights (film)"]'
startTime: '2022-06-22T12:17:52.799387653Z'
state: SUCCEEDED
status:
    currentSteps:
    - routine: main
        step: returnOutput
workflowRevisionId: 000001-ac2

Clientbibliotheken

In den folgenden Beispielen wird davon ausgegangen, dass Sie bereits den Workflow myFirstWorkflow bereitgestellt haben.

  1. Installieren Sie die Clientbibliothek und richten Sie Ihre Entwicklungsumgebung ein. Weitere Informationen finden Sie in der Übersicht zu Workflow-Clientbibliotheken.

  2. Klonen Sie das Repository der Beispiel-App auf Ihren lokalen Computer:

    Java

    git clone https://github.com/GoogleCloudPlatform/java-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

    Node.js

    git clone https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

    Python

    git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git

    Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.

  3. Wechseln Sie in das Verzeichnis, das den Workflows-Beispielcode enthält:

    Java

    cd java-docs-samples/workflows/cloud-client/

    Node.js

    cd nodejs-docs-samples/workflows/quickstart/

    Python

    cd python-docs-samples/workflows/cloud-client/

  4. Sehen Sie sich den Beispielcode an:

    Java

    // Imports the Google Cloud client library
    
    import com.google.cloud.workflows.executions.v1.CreateExecutionRequest;
    import com.google.cloud.workflows.executions.v1.Execution;
    import com.google.cloud.workflows.executions.v1.ExecutionsClient;
    import com.google.cloud.workflows.executions.v1.WorkflowName;
    import java.io.IOException;
    import java.util.concurrent.ExecutionException;
    
    public class WorkflowsQuickstart {
    
      private static final String PROJECT = System.getenv("GOOGLE_CLOUD_PROJECT");
      private static final String LOCATION = System.getenv().getOrDefault("LOCATION", "us-central1");
      private static final String WORKFLOW =
          System.getenv().getOrDefault("WORKFLOW", "myFirstWorkflow");
    
      public static void main(String... args)
          throws IOException, InterruptedException, ExecutionException {
        if (PROJECT == null) {
          throw new IllegalArgumentException(
              "Environment variable 'GOOGLE_CLOUD_PROJECT' is required to run this quickstart.");
        }
        workflowsQuickstart(PROJECT, LOCATION, WORKFLOW);
      }
    
      private static volatile boolean finished;
    
      public static void workflowsQuickstart(String projectId, String location, String workflow)
          throws IOException, InterruptedException, ExecutionException {
        // Initialize client that will be used to send requests. This client only needs
        // to be created once, and can be reused for multiple requests. After completing all of your
        // requests, call the "close" method on the client to safely clean up any remaining background
        // resources.
        try (ExecutionsClient executionsClient = ExecutionsClient.create()) {
          // Construct the fully qualified location path.
          WorkflowName parent = WorkflowName.of(projectId, location, workflow);
    
          // Creates the execution object.
          CreateExecutionRequest request =
              CreateExecutionRequest.newBuilder()
                  .setParent(parent.toString())
                  .setExecution(Execution.newBuilder().build())
                  .build();
          Execution response = executionsClient.createExecution(request);
    
          String executionName = response.getName();
          System.out.printf("Created execution: %s%n", executionName);
    
          long backoffTime = 0;
          long backoffDelay = 1_000; // Start wait with delay of 1,000 ms
          final long backoffTimeout = 10 * 60 * 1_000; // Time out at 10 minutes
          System.out.println("Poll for results...");
    
          // Wait for execution to finish, then print results.
          while (!finished && backoffTime < backoffTimeout) {
            Execution execution = executionsClient.getExecution(executionName);
            finished = execution.getState() != Execution.State.ACTIVE;
    
            // If we haven't seen the results yet, wait.
            if (!finished) {
              System.out.println("- Waiting for results");
              Thread.sleep(backoffDelay);
              backoffTime += backoffDelay;
              backoffDelay *= 2; // Double the delay to provide exponential backoff.
            } else {
              System.out.println("Execution finished with state: " + execution.getState().name());
              System.out.println("Execution results: " + execution.getResult());
            }
          }
        }
      }
    }

    Node.js (JavaScript)

    const {ExecutionsClient} = require('@google-cloud/workflows');
    const client = new ExecutionsClient();
    /**
     * TODO(developer): Uncomment these variables before running the sample.
     */
    // const projectId = 'my-project';
    // const location = 'us-central1';
    // const workflow = 'myFirstWorkflow';
    // const searchTerm = '';
    
    /**
     * Executes a Workflow and waits for the results with exponential backoff.
     * @param {string} projectId The Google Cloud Project containing the workflow
     * @param {string} location The workflow location
     * @param {string} workflow The workflow name
     * @param {string} searchTerm Optional search term to pass to the Workflow as a runtime argument
     */
    async function executeWorkflow(projectId, location, workflow, searchTerm) {
      /**
       * Sleeps the process N number of milliseconds.
       * @param {Number} ms The number of milliseconds to sleep.
       */
      function sleep(ms) {
        return new Promise(resolve => {
          setTimeout(resolve, ms);
        });
      }
      const runtimeArgs = searchTerm ? {searchTerm: searchTerm} : {};
      // Execute workflow
      try {
        const createExecutionRes = await client.createExecution({
          parent: client.workflowPath(projectId, location, workflow),
          execution: {
            // Runtime arguments can be passed as a JSON string
            argument: JSON.stringify(runtimeArgs),
          },
        });
        const executionName = createExecutionRes[0].name;
        console.log(`Created execution: ${executionName}`);
    
        // Wait for execution to finish, then print results.
        let executionFinished = false;
        let backoffDelay = 1000; // Start wait with delay of 1,000 ms
        console.log('Poll every second for result...');
        while (!executionFinished) {
          const [execution] = await client.getExecution({
            name: executionName,
          });
          executionFinished = execution.state !== 'ACTIVE';
    
          // If we haven't seen the result yet, wait a second.
          if (!executionFinished) {
            console.log('- Waiting for results...');
            await sleep(backoffDelay);
            backoffDelay *= 2; // Double the delay to provide exponential backoff.
          } else {
            console.log(`Execution finished with state: ${execution.state}`);
            console.log(execution.result);
            return execution.result;
          }
        }
      } catch (e) {
        console.error(`Error executing workflow: ${e}`);
      }
    }
    
    executeWorkflow(projectId, location, workflowName, searchTerm).catch(err => {
      console.error(err.message);
      process.exitCode = 1;
    });
    

    Node.js (TypeScript)

    import {ExecutionsClient} from '@google-cloud/workflows';
    const client: ExecutionsClient = new ExecutionsClient();
    /**
     * TODO(developer): Uncomment these variables before running the sample.
     */
    // const projectId = 'my-project';
    // const location = 'us-central1';
    // const workflow = 'myFirstWorkflow';
    // const searchTerm = '';
    
    /**
     * Executes a Workflow and waits for the results with exponential backoff.
     * @param {string} projectId The Google Cloud Project containing the workflow
     * @param {string} location The workflow location
     * @param {string} workflow The workflow name
     * @param {string} searchTerm Optional search term to pass to the Workflow as a runtime argument
     */
    async function executeWorkflow(
      projectId: string,
      location: string,
      workflow: string,
      searchTerm: string
    ) {
      /**
       * Sleeps the process N number of milliseconds.
       * @param {Number} ms The number of milliseconds to sleep.
       */
      function sleep(ms: number): Promise<unknown> {
        return new Promise(resolve => {
          setTimeout(resolve, ms);
        });
      }
      const runtimeArgs = searchTerm ? {searchTerm: searchTerm} : {};
      // Execute workflow
      try {
        const createExecutionRes = await client.createExecution({
          parent: client.workflowPath(projectId, location, workflow),
          execution: {
            // Runtime arguments can be passed as a JSON string
            argument: JSON.stringify(runtimeArgs),
          },
        });
        const executionName = createExecutionRes[0].name;
        console.log(`Created execution: ${executionName}`);
    
        // Wait for execution to finish, then print results.
        let executionFinished = false;
        let backoffDelay = 1000; // Start wait with delay of 1,000 ms
        console.log('Poll every second for result...');
        while (!executionFinished) {
          const [execution] = await client.getExecution({
            name: executionName,
          });
          executionFinished = execution.state !== 'ACTIVE';
    
          // If we haven't seen the result yet, wait a second.
          if (!executionFinished) {
            console.log('- Waiting for results...');
            await sleep(backoffDelay);
            backoffDelay *= 2; // Double the delay to provide exponential backoff.
          } else {
            console.log(`Execution finished with state: ${execution.state}`);
            console.log(execution.result);
            return execution.result;
          }
        }
      } catch (e) {
        console.error(`Error executing workflow: ${e}`);
      }
    }
    
    executeWorkflow(projectId, location, workflowName, searchTerm).catch(
      (err: Error) => {
        console.error(err.message);
        process.exitCode = 1;
      }
    );

    Python

    import time
    
    from google.cloud import workflows_v1
    from google.cloud.workflows import executions_v1
    from google.cloud.workflows.executions_v1 import Execution
    from google.cloud.workflows.executions_v1.types import executions
    
    
    def execute_workflow(
        project: str, location: str = "us-central1", workflow: str = "myFirstWorkflow"
    ) -> Execution:
        """Execute a workflow and print the execution results.
    
        A workflow consists of a series of steps described using the Workflows syntax, and can be written in either YAML or JSON.
    
        Args:
            project: The Google Cloud project id which contains the workflow to execute.
            location: The location for the workflow
            workflow: The ID of the workflow to execute.
    
        Returns:
            The execution response.
        """
        # Set up API clients.
        execution_client = executions_v1.ExecutionsClient()
        workflows_client = workflows_v1.WorkflowsClient()
        # Construct the fully qualified location path.
        parent = workflows_client.workflow_path(project, location, workflow)
    
        # Execute the workflow.
        response = execution_client.create_execution(request={"parent": parent})
        print(f"Created execution: {response.name}")
    
        # Wait for execution to finish, then print results.
        execution_finished = False
        backoff_delay = 1  # Start wait with delay of 1 second
        print("Poll for result...")
        while not execution_finished:
            execution = execution_client.get_execution(request={"name": response.name})
            execution_finished = execution.state != executions.Execution.State.ACTIVE
    
            # If we haven't seen the result yet, wait a second.
            if not execution_finished:
                print("- Waiting for results...")
                time.sleep(backoff_delay)
                # Double the delay to provide exponential backoff.
                backoff_delay *= 2
            else:
                print(f"Execution finished with state: {execution.state.name}")
                print(f"Execution results: {execution.result}")
                return execution
    
    

    Das Beispiel führt Folgendes aus:

    1. Richtet die Cloud-Clientbibliotheken für Workflows ein.
    2. Führt einen Workflow aus.
    3. Fragt die Ausführung des Workflows (mit exponentiellem Backoff) ab, bis die Ausführung beendet ist.
    4. Druckt die Ausführungsergebnisse.
  5. Installieren Sie zuerst die Abhängigkeiten, um das Beispiel auszuführen:

    Java

    mvn compile

    Node.js (JavaScript)

    npm install

    Node.js (TypeScript)

    npm install && npm run build

    Python

    pip3 install -r requirements.txt

  6. Führen Sie das Skript aus:

    Java

    GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME mvn compile exec:java -Dexec.mainClass=com.example.workflows.WorkflowsQuickstart

    Node.js (JavaScript)

    npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME

    Node.js (TypeScript)

    npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME

    Python

    GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME python3 main.py

    Ersetzen Sie Folgendes:

    • PROJECT_ID (erforderlich): Die Projekt-ID des Google Cloud-Projekts
    • CLOUD_REGION: Der Speicherort für den Workflow (Standardeinstellung: us-central1)
    • WORKFLOW_NAME: Die ID des Workflows (Standard: myFirstWorkflow)

    Die Ausgabe sieht in etwa so aus:

    Execution finished with state: SUCCEEDED
    ["Sunday","Sunday in the Park with George","Sunday shopping","Sunday Bloody Sunday","Sunday Times Golden Globe Race","Sunday All Stars","Sunday Night (South Korean TV series)","Sunday Silence","Sunday Without God","Sunday Independent (Ireland)"]
    

REST API

Verwenden Sie die Methode projects.locations.workflows.executions.create, um eine neue Ausführung mit der neuesten Version eines bestimmten Workflows zu erstellen.

Zur Authentifizierung benötigen Sie ein Dienstkonto mit ausreichenden Berechtigungen zum Ausführen des Workflows. Sie können beispielsweise einem Dienstkonto die Rolle Workflows-Aufrufer (roles/workflows.invoker) zuweisen, damit das Konto die Berechtigung zum Auslösen der Workflowausführung hat. Weitere Informationen finden Sie unter Workflows aufrufen.

Ersetzen Sie diese Werte in den folgenden Anfragedaten:

  • PROJECT_NUMBER: Ihre Google Cloud-Projektnummer, die auf der Seite IAM- und Administratoreinstellungen aufgeführt ist.
  • LOCATION: die Region, in der der Workflow bereitgestellt wird, z. B. us-central1.
  • WORKFLOW_NAME: Der benutzerdefinierte Name für den Workflow, z. B. myFirstWorkflow.
  • PARAMETER: Optional. Wenn der ausgeführte Workflow Laufzeitargumente empfangen kann, die Sie ihm im Rahmen einer Ausführungsanfrage übergeben, können Sie dem Anfragetext einen JSON-formatierten String hinzufügen, dessen Wert ein oder mehrere Escape-Parameter-Wert-Paare ist, z. B. "{\"searchTerm\":\"asia\"}".
  • VALUE: Optional. Der Wert eines Parameter/Wert-Paares, das Ihr Workflow als Laufzeitargument empfangen kann.
  • CALL_LOGGING_LEVEL: Optional. Die Ebene des Aufruf-Loggings, die während der Ausführung angewendet werden soll. Standardmäßig ist keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Weitere Informationen finden Sie unter Logs an Logging senden. Eines der folgenden Elemente:
    • CALL_LOG_LEVEL_UNSPECIFIED: Es wird keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Das ist die Standardeinstellung. Andernfalls gilt die Ausführungslogebene und hat Vorrang vor der Workflow-Logebene.
    • LOG_ERRORS_ONLY: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliert.
    • LOG_ALL_CALLS: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
    • LOG_NONE: Kein Aufruf-Logging.
  • BACKLOG_EXECUTION: Optional. Wenn true festgelegt ist, wird die Ausführung nicht zurückgestellt, wenn das Kontingent für die Parallelität aufgebraucht ist. Weitere Informationen finden Sie unter Ausführungsrückstände verwalten.

JSON-Text der Anfrage:

{
  "argument": "{\"PARAMETER\":\"VALUE\"}",
  "callLogLevel": "CALL_LOGGING_LEVEL",
  "disableConcurrencyQuotaOverflowBuffering": "BACKLOG_EXECUTION"
}

Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:

Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Execution:

{
  "name": "projects/PROJECT_NUMBER/locations/LOCATION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID",
  "startTime": "2023-11-07T14:35:27.215337069Z",
  "state": "ACTIVE",
  "argument": "{\"PARAMETER\":\"VALUE\"}",
  "workflowRevisionId": "000001-2df",
  "callLogLevel": "CALL_LOGGING_LEVEL",
  "status": {}
}

Status von Ausführungen prüfen

Es gibt mehrere Befehle, mit denen Sie den Status einer Workflowausführung prüfen können.

  • Geben Sie den folgenden Befehl ein, um eine Liste der Ausführungsversuche eines Workflows und ihrer IDs abzurufen:

    gcloud workflows executions list WORKFLOW_NAME

    Ersetzen Sie WORKFLOW_NAME durch den Namen des Workflows.

    Der Befehl gibt einen NAME-Wert zurück, der der folgenden Ausgabe ähnelt:

    projects/PROJECT_NUMBER/locations/REGION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID

    Kopieren Sie die Ausführungs-ID, um sie im nächsten Befehl zu verwenden.

  • Geben Sie den folgenden Befehl ein, um den Status eines Ausführungsversuchs zu prüfen und auf den Abschluss des Versuchs zu warten:

    gcloud workflows executions wait EXECUTION_ID

    Ersetzen Sie EXECUTION_ID durch die ID des Ausführungsversuchs.

    Der Befehl wartet, bis der Ausführungsversuch abgeschlossen ist, und gibt dann die Ergebnisse zurück.

  • Geben Sie den folgenden Befehl ein, um zu warten, bis die letzte Ausführung abgeschlossen ist, und dann das Ergebnis der abgeschlossenen Ausführung zurückzugeben:

    gcloud workflows executions wait-last

    Wenn Sie in derselben gcloud-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, wartet der Befehl auf den Abschluss des vorherigen Ausführungsversuchs und gibt dann die Ergebnisse der abgeschlossenen Ausführung zurück. Wenn kein vorheriger Versuch vorhanden ist, gibt gcloud den folgenden Fehler zurück:

    ERROR: (gcloud.workflows.executions.wait-last) [NOT FOUND] There are no cached executions available.
    
  • Geben Sie den folgenden Befehl ein, um den Status der letzten Ausführung abzurufen:

    gcloud workflows executions describe-last

    Wenn Sie in derselben gcloud-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, gibt der Befehl die Ergebnisse der letzten Ausführung zurück, auch wenn diese noch läuft. Wenn kein vorheriger Versuch vorhanden ist, gibt gcloud den folgenden Fehler zurück:

    ERROR: (gcloud.beta.workflows.executions.describe-last) [NOT FOUND] There are no cached executions available.
    

Filterausführungen

Sie können die Liste der Workflowausführungen, die von der Methode workflows.executions.list zurückgegeben wird, filtern.

Sie können nach den folgenden Feldern filtern:

  • createTime
  • disableOverflowBuffering
  • duration
  • endTime
  • executionId
  • label
  • startTime
  • state
  • stepName
  • workflowRevisionId

Wenn Sie beispielsweise nach einem Label (labels."fruit":"apple") filtern möchten, können Sie eine API-Anfrage wie die folgende stellen:

GET https://workflowexecutions.googleapis.com/v1/projects/MY_PROJECT/locations/MY_LOCATION/workflows/MY_WORKFLOW/executions?view=full&filter=labels.%22fruit%22%3A%22apple%22"

Wobei:

  • view=full gibt eine Ansicht an, in der festgelegt wird, welche Felder in den zurückgegebenen Ausführungen ausgefüllt werden sollen. In diesem Fall sind das alle Daten.
  • labels.%22fruit%22%3A%22apple%22 ist die URL-codierte Filtersyntax.

Weitere Informationen finden Sie unter AIP-160 – Filtern.

Ausführbare Backlogs verwalten

Mit der Ausführungsauslagerung können Sie clientseitige Wiederholungsversuche vermeiden, Ausführungsverzögerungen beseitigen und den Durchsatz maximieren. Ausstehende Ausführungen werden automatisch ausgeführt, sobald das Kontingent für die Ausführungsparallelität verfügbar ist.

Es gibt eine maximale Anzahl aktiver Workflowausführungen, die gleichzeitig ausgeführt werden können. Wenn dieses Kontingent aufgebraucht ist und die Ausführungsaussetzung deaktiviert ist oder das Kontingent für ausstehende Ausführungen erreicht ist, schlagen alle neuen Ausführungen mit dem HTTP-Statuscode 429 Too many requests fehl. Wenn die Ausführungsaussetzung aktiviert ist, werden die neuen Ausführungen erfolgreich ausgeführt und mit dem Status QUEUED erstellt. Sobald das Kontingent für die Ausführungsparallelität verfügbar ist, werden die Ausführungen automatisch ausgeführt und erhalten den Status ACTIVE.

Standardmäßig ist die Aussetzung der Ausführung für alle Anfragen (einschließlich der von Cloud Tasks ausgelösten) mit den folgenden Ausnahmen aktiviert:

  • Wenn Sie eine Ausführung mit einem executions.run- oder executions.create-Connector in einem Workflow erstellen, ist das Backlogging der Ausführung standardmäßig deaktiviert. Sie können sie konfigurieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering der Ausführung explizit auf false setzen.
  • Bei von Pub/Sub ausgelösten Ausführungen ist das Backlogging deaktiviert und kann nicht konfiguriert werden.

Wichtige Hinweise:

  • Ausgeführte Aufgaben werden nach dem FIFO-Prinzip (First In, First Out) und auf Best-Effort-Basis gestartet.
  • Ein createTime-Zeitstempelfeld gibt an, wann eine Ausführung erstellt wurde. Der Zeitstempel startTime gibt an, wann eine Ausführung automatisch aus der Backlog-Warteschlange entfernt und gestartet wird. Bei Ausführungen, die nicht zurückgestellt wurden, sind beide Zeitstempelwerte identisch.
  • Das Limit für ausstehende Ausführungen kann mit dem Kontingentmesswert workflowexecutions.googleapis.com/executionbacklogentries beobachtet werden. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.

Ausführen von Backlogs deaktivieren

Sie können das Ausführen von Backlogs deaktivieren, indem Sie ein Flag mit der Google Cloud CLI festlegen. Beispiel:

gcloud workflows execute WORKFLOW_NAME
    --disable-concurrency-quota-overflow-buffering

Sie können die Ausführungsaussetzung auch deaktivieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering im JSON-Textkörper der Anfrage auf true setzen, wenn Sie eine Ausführungsanfrage an die Workflows REST API senden. Beispiel:

{
  "argument": {"arg1":"value1"},
  "callLogLevel": "LOG_NONE",
  "disableConcurrencyQuotaOverflowBuffering": true
}

Weitere Informationen finden Sie unter Workflow ausführen.

Nächste Schritte