Bei der Ausführung eines Workflows wird die aktuelle Workflowdefinition ausgeführt, die dem Workflow zugeordnet ist.
Sie können Laufzeitargumente in einer Anfrage zur Workflowausführung übergeben und mithilfe einer Workflowvariablen auf diese Argumente zugreifen. Weitere Informationen finden Sie unter Laufzeitargumente in einer Ausführungsanfrage übergeben.
Nach Abschluss einer Workflowausführung werden der Verlauf und die Ergebnisse für einen begrenzten Zeitraum gespeichert. Weitere Informationen finden Sie unter Kontingente und Limits.
Hinweise
Von Ihrer Organisation definierte Sicherheitsbeschränkungen verhindern möglicherweise, dass die folgenden Schritte ausgeführt werden. Informationen zur Fehlerbehebung finden Sie unter Anwendungen in einer eingeschränkten Google Cloud-Umgebung entwickeln.
- Sign in to your Google Cloud account. If you're new to Google Cloud, create an account to evaluate how our products perform in real-world scenarios. New customers also get $300 in free credits to run, test, and deploy workloads.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
-
In the Google Cloud console, on the project selector page, select or create a Google Cloud project.
-
Make sure that billing is enabled for your Google Cloud project.
- Wenn ein Workflow auf andere Google Cloud-Ressourcen zugreift, muss er einem Dienstkonto zugeordnet werden, das die richtigen Berechtigungen hat. Informationen dazu, welches Dienstkonto einem vorhandenen Workflow zugeordnet ist, finden Sie unter Verknüpftes Dienstkonto eines Workflows prüfen.
Um eine Ressource zu erstellen und ein Dienstkonto anzuhängen, benötigen Sie Berechtigungen zum Erstellen dieser Ressource und die Erlaubnis, sich als das Dienstkonto auszugeben, das Sie an die Ressource anhängen werden. Weitere Informationen finden Sie unter Dienstkontoberechtigungen.
- Sie können einen Workflow mit der Google Cloud Console oder der Google Cloud CLI bereitstellen.
Workflow ausführen
Sie können einen Workflow mit den Clientbibliotheken, in der Google Cloud Console, mit der gcloud CLI oder durch Senden einer Anfrage an die Workflows REST API ausführen.
Console
Rufen Sie zum Ausführen eines Workflows in der Google Cloud Console die Seite Workflows auf:
Wählen Sie auf der Seite Workflows einen Workflow aus, um dessen Detailseite aufzurufen.
Klicken Sie auf der Seite Workflow-Details auf play_arrow Ausführen.
Auf der Seite Workflow ausführen können Sie im Bereich Eingabe optionale Laufzeitargumente eingeben, die vor der Ausführung an Ihren Workflow übergeben werden. Argumente müssen im JSON-Format vorliegen. Beispiel:
{"animal":"cat"}
. Wenn Ihr Workflow keine Laufzeitargumente verwendet, lassen Sie dieses Feld leer.Optional können Sie die Ebene des Aufruf-Loggings angeben, die Sie auf die Ausführung des Workflows anwenden möchten. Wählen Sie in der Liste Anrufprotokollebene eine der folgenden Optionen aus:
- Nicht angegeben: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.
- Nur Fehler: Alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme werden protokolliert.
- Alle Aufrufe: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.
- Keine Protokolle: Es werden keine Anrufe protokolliert.
Klicken Sie auf Ausführen.
Auf der Seite Ausführungsdetails sehen Sie die Ergebnisse der Ausführung, einschließlich aller Ausgaben, der Ausführungs-ID und des Ausführungsstatus sowie des aktuellen oder letzten Schritts der Workflowausführung. Weitere Informationen finden Sie unter Auf Ergebnisse der Workflowausführung zugreifen.
gcloud
Öffnen Sie ein Terminalfenster.
Suchen Sie den Namen des Workflows, den Sie ausführen möchten. Wenn Sie den Namen des Workflows nicht kennen, können Sie den folgenden Befehl eingeben, um alle Workflows aufzulisten:
gcloud workflows list
Sie können den Workflow entweder mit dem Befehl
gcloud workflows run
oder dem Befehlgcloud workflows execute
ausführen:Führen Sie den Workflow aus und warten Sie, bis die Ausführung abgeschlossen ist:
gcloud workflows run WORKFLOW_NAME \ --call-log-level=CALL_LOGGING_LEVEL \ --data=DATA
Führen Sie den Workflow aus, ohne auf den Abschluss des Ausführungsversuchs zu warten:
gcloud workflows execute WORKFLOW_NAME \ --call-log-level=CALL_LOGGING_LEVEL \ --data=DATA
Ersetzen Sie Folgendes:
WORKFLOW_NAME
: Der Name des Workflows.CALL_LOGGING_LEVEL
(optional): Ebene des Aufruf-Loggings, das während der Ausführung angewendet werden soll. Kann einer der folgenden Werte sein:none
: Es wird keine Logging-Ebene angegeben. Das ist die Standardeinstellung. Eine Ausführungslogebene hat Vorrang vor einer Workflow-Logebene, sofern keine Ausführungslogebene angegeben ist (Standardeinstellung); In diesem Fall wird die Workflow-Logebene genutzt.log-errors-only
: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliertlog-all-calls
: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.log-none
: Kein Aufruf-Logging.
DATA
(optional): Laufzeitargumente für Ihren Workflow im JSON-Format.
Wenn Sie
gcloud workflows execute
ausgeführt haben, wird die eindeutige ID des Workflow-Ausführungsversuchs zurückgegeben und die Ausgabe sieht in etwa so aus:To view the workflow status, you can use following command: gcloud workflows executions describe b113b589-8eff-4968-b830-8d35696f0b33 --workflow workflow-2 --location us-central1
Geben Sie den im vorherigen Schritt zurückgegebenen Befehl ein, um den Status der Ausführung aufzurufen.
Wenn der Ausführungsversuch erfolgreich ist, sieht die Ausgabe in etwa so aus: state
gibt den Erfolg des Workflows an und status
den letzten Workflowschritt der Ausführung.
argument: '{"searchTerm":"Friday"}' endTime: '2022-06-22T12:17:53.086073678Z' name: projects/1051295516635/locations/us-central1/workflows/myFirstWorkflow/executions/c4dffd1f-13db-46a0-8a4a-ee39c144cb96 result: '["Friday","Friday the 13th (franchise)","Friday Night Lights (TV series)","Friday the 13th (1980 film)","Friday the 13th","Friday the 13th (2009 film)","Friday the 13th Part III","Friday the 13th Part 2","Friday (Rebecca Black song)","Friday Night Lights (film)"]' startTime: '2022-06-22T12:17:52.799387653Z' state: SUCCEEDED status: currentSteps: - routine: main step: returnOutput workflowRevisionId: 000001-ac2
Clientbibliotheken
In den folgenden Beispielen wird davon ausgegangen, dass Sie bereits den Workflow myFirstWorkflow
bereitgestellt haben.
Installieren Sie die Clientbibliothek und richten Sie Ihre Entwicklungsumgebung ein. Weitere Informationen finden Sie in der Übersicht zu Workflow-Clientbibliotheken.
Klonen Sie das Repository der Beispiel-App auf Ihren lokalen Computer:
Java
git clone https://github.com/GoogleCloudPlatform/java-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Node.js
git clone https://github.com/GoogleCloudPlatform/nodejs-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Python
git clone https://github.com/GoogleCloudPlatform/python-docs-samples.git
Sie können auch das Beispiel als ZIP-Datei herunterladen und extrahieren.
Wechseln Sie in das Verzeichnis, das den Workflows-Beispielcode enthält:
Java
cd java-docs-samples/workflows/cloud-client/
Node.js
cd nodejs-docs-samples/workflows/quickstart/
Python
cd python-docs-samples/workflows/cloud-client/
Sehen Sie sich den Beispielcode an:
Java
Node.js (JavaScript)
Node.js (TypeScript)
Python
Das Beispiel führt Folgendes aus:
- Richtet die Cloud-Clientbibliotheken für Workflows ein.
- Führt einen Workflow aus.
- Fragt die Ausführung des Workflows (mit exponentiellem Backoff) ab, bis die Ausführung beendet ist.
- Druckt die Ausführungsergebnisse.
Installieren Sie zuerst die Abhängigkeiten, um das Beispiel auszuführen:
Java
mvn compile
Node.js (JavaScript)
npm install
Node.js (TypeScript)
npm install && npm run build
Python
pip3 install -r requirements.txt
Führen Sie das Skript aus:
Java
GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME mvn compile exec:java -Dexec.mainClass=com.example.workflows.WorkflowsQuickstart
Node.js (JavaScript)
npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME
Node.js (TypeScript)
npm start PROJECT_ID CLOUD_REGION WORKFLOW_NAME
Python
GOOGLE_CLOUD_PROJECT=PROJECT_ID LOCATION=CLOUD_REGION WORKFLOW=WORKFLOW_NAME python3 main.py
Ersetzen Sie Folgendes:
PROJECT_ID
(erforderlich): Die Projekt-ID des Google Cloud-ProjektsCLOUD_REGION
: Der Speicherort für den Workflow (Standardeinstellung:us-central1
)WORKFLOW_NAME
: Die ID des Workflows (Standard:myFirstWorkflow
)
Die Ausgabe sieht in etwa so aus:
Execution finished with state: SUCCEEDED ["Sunday","Sunday in the Park with George","Sunday shopping","Sunday Bloody Sunday","Sunday Times Golden Globe Race","Sunday All Stars","Sunday Night (South Korean TV series)","Sunday Silence","Sunday Without God","Sunday Independent (Ireland)"]
REST API
Verwenden Sie die Methode projects.locations.workflows.executions.create
, um eine neue Ausführung mit der neuesten Version eines bestimmten Workflows zu erstellen.
Zur Authentifizierung benötigen Sie ein Dienstkonto mit ausreichenden Berechtigungen zum Ausführen des Workflows. Sie können beispielsweise einem Dienstkonto die Rolle Workflows-Aufrufer (roles/workflows.invoker
) zuweisen, damit das Konto die Berechtigung zum Auslösen der Workflowausführung hat. Weitere Informationen finden Sie unter Workflows aufrufen.
Ersetzen Sie diese Werte in den folgenden Anfragedaten:
PROJECT_NUMBER
: Ihre Google Cloud-Projektnummer, die auf der Seite IAM- und Administratoreinstellungen aufgeführt ist.LOCATION
: die Region, in der der Workflow bereitgestellt wird, z. B.us-central1
.WORKFLOW_NAME
: Der benutzerdefinierte Name für den Workflow, z. B.myFirstWorkflow
.PARAMETER
: Optional. Wenn der ausgeführte Workflow Laufzeitargumente empfangen kann, die Sie ihm im Rahmen einer Ausführungsanfrage übergeben, können Sie dem Anfragetext einen JSON-formatierten String hinzufügen, dessen Wert ein oder mehrere Escape-Parameter-Wert-Paare ist, z. B."{\"searchTerm\":\"asia\"}"
.VALUE
: Optional. Der Wert eines Parameter/Wert-Paares, das Ihr Workflow als Laufzeitargument empfangen kann.CALL_LOGGING_LEVEL
: Optional. Die Ebene des Aufruf-Loggings, die während der Ausführung angewendet werden soll. Standardmäßig ist keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Weitere Informationen finden Sie unter Logs an Logging senden. Eines der folgenden Elemente:CALL_LOG_LEVEL_UNSPECIFIED
: Es wird keine Logging-Ebene angegeben und stattdessen wird die Workflow-Logebene angewendet. Das ist die Standardeinstellung. Andernfalls gilt die Ausführungslogebene und hat Vorrang vor der Workflow-Logebene.LOG_ERRORS_ONLY
: Es werden alle erfassten Ausnahmen sowie das Beenden eines Aufrufs aufgrund einer Ausnahme protokolliert.LOG_ALL_CALLS
: Alle Aufrufe von untergeordneten Workflows oder Bibliotheksfunktionen und deren Ergebnisse werden protokolliert.LOG_NONE
: Kein Aufruf-Logging.
BACKLOG_EXECUTION
: Optional. Wenntrue
festgelegt ist, wird die Ausführung nicht zurückgestellt, wenn das Kontingent für die Parallelität aufgebraucht ist. Weitere Informationen finden Sie unter Ausführungsrückstände verwalten.
JSON-Text der Anfrage:
{ "argument": "{\"PARAMETER\":\"VALUE\"}", "callLogLevel": "CALL_LOGGING_LEVEL", "disableConcurrencyQuotaOverflowBuffering": "BACKLOG_EXECUTION" }
Wenn Sie die Anfrage senden möchten, maximieren Sie eine der folgenden Optionen:
Bei Erfolg enthält der Antworttext eine neu erstellte Instanz von Execution
:
{ "name": "projects/PROJECT_NUMBER/locations/LOCATION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID", "startTime": "2023-11-07T14:35:27.215337069Z", "state": "ACTIVE", "argument": "{\"PARAMETER\":\"VALUE\"}", "workflowRevisionId": "000001-2df", "callLogLevel": "CALL_LOGGING_LEVEL", "status": {} }
Status von Ausführungen prüfen
Es gibt mehrere Befehle, mit denen Sie den Status einer Workflowausführung prüfen können.
Geben Sie den folgenden Befehl ein, um eine Liste der Ausführungsversuche eines Workflows und ihrer IDs abzurufen:
gcloud workflows executions list WORKFLOW_NAME
Ersetzen Sie
WORKFLOW_NAME
durch den Namen des Workflows.Der Befehl gibt einen
NAME
-Wert zurück, der der folgenden Ausgabe ähnelt:projects/PROJECT_NUMBER/locations/REGION/workflows/WORKFLOW_NAME/executions/EXECUTION_ID
Kopieren Sie die Ausführungs-ID, um sie im nächsten Befehl zu verwenden.
Geben Sie den folgenden Befehl ein, um den Status eines Ausführungsversuchs zu prüfen und auf den Abschluss des Versuchs zu warten:
gcloud workflows executions wait EXECUTION_ID
Ersetzen Sie
EXECUTION_ID
durch die ID des Ausführungsversuchs.Der Befehl wartet, bis der Ausführungsversuch abgeschlossen ist, und gibt dann die Ergebnisse zurück.
Geben Sie den folgenden Befehl ein, um zu warten, bis die letzte Ausführung abgeschlossen ist, und dann das Ergebnis der abgeschlossenen Ausführung zurückzugeben:
gcloud workflows executions wait-last
Wenn Sie in derselben
gcloud
-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, wartet der Befehl auf den Abschluss des vorherigen Ausführungsversuchs und gibt dann die Ergebnisse der abgeschlossenen Ausführung zurück. Wenn kein vorheriger Versuch vorhanden ist, gibtgcloud
den folgenden Fehler zurück:ERROR: (gcloud.workflows.executions.wait-last) [NOT FOUND] There are no cached executions available.
Geben Sie den folgenden Befehl ein, um den Status der letzten Ausführung abzurufen:
gcloud workflows executions describe-last
Wenn Sie in derselben
gcloud
-Sitzung einen vorherigen Ausführungsversuch ausgeführt haben, gibt der Befehl die Ergebnisse der letzten Ausführung zurück, auch wenn diese noch läuft. Wenn kein vorheriger Versuch vorhanden ist, gibtgcloud
den folgenden Fehler zurück:ERROR: (gcloud.beta.workflows.executions.describe-last) [NOT FOUND] There are no cached executions available.
Filterausführungen
Sie können die Liste der Workflowausführungen, die von der Methode workflows.executions.list
zurückgegeben wird, filtern.
Sie können nach den folgenden Feldern filtern:
createTime
disableOverflowBuffering
duration
endTime
executionId
label
startTime
state
stepName
workflowRevisionId
Wenn Sie beispielsweise nach einem Label (labels."fruit":"apple"
) filtern möchten, können Sie eine API-Anfrage wie die folgende stellen:
GET https://workflowexecutions.googleapis.com/v1/projects/MY_PROJECT/locations/MY_LOCATION/workflows/MY_WORKFLOW/executions?view=full&filter=labels.%22fruit%22%3A%22apple%22"
Wobei:
view=full
gibt eine Ansicht an, in der festgelegt wird, welche Felder in den zurückgegebenen Ausführungen ausgefüllt werden sollen. In diesem Fall sind das alle Daten.labels.%22fruit%22%3A%22apple%22
ist die URL-codierte Filtersyntax.
Weitere Informationen finden Sie unter AIP-160 – Filtern.
Ausführbare Backlogs verwalten
Mit der Ausführungsauslagerung können Sie clientseitige Wiederholungsversuche vermeiden, Ausführungsverzögerungen beseitigen und den Durchsatz maximieren. Ausstehende Ausführungen werden automatisch ausgeführt, sobald das Kontingent für die Ausführungsparallelität verfügbar ist.
Es gibt eine maximale Anzahl aktiver Workflowausführungen, die gleichzeitig ausgeführt werden können. Wenn dieses Kontingent aufgebraucht ist und die Ausführungsaussetzung deaktiviert ist oder das Kontingent für ausstehende Ausführungen erreicht ist, schlagen alle neuen Ausführungen mit dem HTTP-Statuscode 429 Too many requests
fehl. Wenn die Ausführungsaussetzung aktiviert ist, werden die neuen Ausführungen erfolgreich ausgeführt und mit dem Status QUEUED
erstellt. Sobald das Kontingent für die Ausführungsparallelität verfügbar ist, werden die Ausführungen automatisch ausgeführt und erhalten den Status ACTIVE
.
Standardmäßig ist die Aussetzung der Ausführung für alle Anfragen (einschließlich der von Cloud Tasks ausgelösten) mit den folgenden Ausnahmen aktiviert:
- Wenn Sie eine Ausführung mit einem
executions.run
- oderexecutions.create
-Connector in einem Workflow erstellen, ist das Backlogging der Ausführung standardmäßig deaktiviert. Sie können sie konfigurieren, indem Sie das FelddisableConcurrencyQuotaOverflowBuffering
der Ausführung explizit auffalse
setzen. - Bei von Pub/Sub ausgelösten Ausführungen ist das Backlogging deaktiviert und kann nicht konfiguriert werden.
Wichtige Hinweise:
- Ausgeführte Aufgaben werden nach dem FIFO-Prinzip (First In, First Out) und auf Best-Effort-Basis gestartet.
- Ein
createTime
-Zeitstempelfeld gibt an, wann eine Ausführung erstellt wurde. Der ZeitstempelstartTime
gibt an, wann eine Ausführung automatisch aus der Backlog-Warteschlange entfernt und gestartet wird. Bei Ausführungen, die nicht zurückgestellt wurden, sind beide Zeitstempelwerte identisch. - Das Limit für ausstehende Ausführungen kann mit dem Kontingentmesswert
workflowexecutions.googleapis.com/executionbacklogentries
beobachtet werden. Weitere Informationen finden Sie unter Kontingente aufrufen und verwalten.
Ausführen von Backlogs deaktivieren
Sie können das Ausführen von Backlogs deaktivieren, indem Sie ein Flag mit der Google Cloud CLI festlegen. Beispiel:
gcloud workflows execute WORKFLOW_NAME --disable-concurrency-quota-overflow-buffering
Sie können die Ausführungsaussetzung auch deaktivieren, indem Sie das Feld disableConcurrencyQuotaOverflowBuffering
im JSON-Textkörper der Anfrage auf true
setzen, wenn Sie eine Ausführungsanfrage an die Workflows REST API senden.
Beispiel:
{ "argument": {"arg1":"value1"}, "callLogLevel": "LOG_NONE", "disableConcurrencyQuotaOverflowBuffering": true }
Weitere Informationen finden Sie unter Workflow ausführen.
Nächste Schritte
- Auf Ergebnisse der Workflow-Ausführung zugreifen
- Ausführungsreihenfolge in Workflows steuern
- Ausführungsprotokolle an Cloud Logging senden
- Vorhandenen Workflow aktualisieren