Einige Produkte und Funktionen werden derzeit umbenannt. Auch die Funktionen für generative Playbooks und Abläufe werden zu einer einzigen konsolidierten Console migriert. Weitere Informationen
Mit Sammlungen den Überblick behalten
Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.
Tests werden verwendet, um die Leistung mehrerer Ablaufversionen (Variantenversionen) mit einer Kontrollversion (in der Regel eine Produktionsversion) zu vergleichen, während Live-Traffic verarbeitet wird.
Sie können jeder Ablaufversion einen Teil des Live-Traffics zuweisen und die folgenden Messwerte überwachen:
Enthalten: Anzahl der Sitzungen, die END_SESSION erreicht haben, ohne unten weitere Messwerte auszulösen.
Nur für Agents verfügbar, die eine Telefonieintegration verwenden.
Gesamtzahl der Unterhaltungsrunden: Gesamtzahl der Unterhaltungsrunden (eine Endnutzereingabe und eine Agent-Antwort gilt als Unterhaltungsrunde).
Durchschnittliche Anzahl von Runden: Durchschnittliche Anzahl der Runden.
Vorbereitung
So bereiten Sie einen Test vor:
Entscheiden Sie, welcher Ablauf für den Test verwendet werden soll.
Sie können nicht mehrere Tests für einen einzelnen Ablauf ausführen. Achten Sie daher darauf, dass Sie Ihren Agent in mehrere Abläufe partitioniert haben.
Erstellen Sie mehrere Versionen für Ihren Ablauf.
Die Unterschiede zwischen den einzelnen Versionen können klein oder groß sein, je nachdem, was Sie vergleichen möchten.
Entscheiden Sie, wie viele Zugriffe Ihrem Test zugewiesen werden sollen.
Wenn Sie geringfügige Änderungen testen, beginnen Sie möglicherweise mit einem höheren Traffic.
Bei großen Änderungen, die zu Unterbrechungen führen können, sollten Sie Ihrem Test eine kleine Menge von Traffic zuweisen.
Wählen Sie Ihr Projekt aus, um die Agent-Auswahl zu öffnen.
Wählen Sie den Agent aus, um den Agent-Builder zu öffnen.
Wählen Sie den Tab Verwalten.
Klicken Sie auf Tests, um das Steuerfeld "Tests" zu öffnen.
Wählen Sie den Tab Status aus.
Klicken Sie auf Erstellen.
Geben Sie eine Beschreibung ein.
Wählen Sie die Umgebung aus, aus der Sie den Test ausführen möchten.
Wählen Sie den Ablauf für den Test aus.
Geben Sie optional die Anzahl der Tage ein, an denen der Test automatisch beendet wird.
Geben Sie die Version des Steuerungsflusses und den Prozentsatz des Traffics ein, der an die Steuerungsversion gesendet wird.
Geben Sie eine bis vier Variantenablaufversionen und den Prozentsatz des Traffics an die Variantenversion ein.
Klicken Sie optional auf Automatische Einführung und Schritte aktivieren, um den Traffic schrittweise in den Variantenablauf zu übertragen. Ein automatisierter Test basiert auf Schritten, bei denen es sich um eine Zeitdauer handelt, in der ein Prozentsatz des Traffics auf den Variantenablauf erhöht wird. Beim automatischen Rollout wird nur ein Variantenablauf unterstützt.
Unter Rolloutregeln können Sie eine oder mehrere bedingte Regeln festlegen, um festzulegen, wie der Test die Schritte durchlaufen soll.
Wenn Sie Mindestens eine Regel abgleichen auswählen, wird der Test mit dem nächsten Schritt fortgesetzt, wenn mindestens eine Regel und die Zeitdauer für den aktuellen Schritt erfüllt sind.
Wenn Sie Alle Regeln abgleichen auswählen, wird der Test mit dem nächsten Schritt fortgesetzt, wenn alle Regeln und die Zeitdauer für den aktuellen Schritt erfüllt sind.
Wenn Sie Nur Schritte auswählen, wird der Test gemäß der Zeitdauer für jeden Schritt fortgesetzt.
Definieren Sie unter Schritte erhöhen einen Prozentsatz des Traffics, der dem Variantenablauf zugewiesen werden soll, und einer Zeitdauer für jeden Schritt. Die Standarddauer jedes Schritts beträgt 6 Stunden.
Wählen Sie Bedingungen beenden aus, um eine oder mehrere Bedingungen festzulegen, unter denen kein Traffic mehr an den Variantenablauf gesendet werden soll. Einen beendeter Test kann nicht neu gestartet werden.
Klicken Sie auf Speichern.
Test starten und stoppen
Sie können einen gespeicherten Test starten oder einen laufenden Test manuell beenden.
Wenn Sie einen Test beenden, wird die Traffic-Zuordnung abgebrochen und der Traffic wird in seinen ursprünglichen Zustand zurückgesetzt.
So starten oder beenden Sie einen Test:
Steuerfeld für Tests öffnen.
Wählen Sie den Tab Status aus.
Klicken Sie für einen Test in der Liste auf Starten oder Beenden.
Tests verwalten
Sie können Tests jederzeit bearbeiten oder löschen:
Steuerfeld für Tests öffnen.
Wählen Sie den Tab Status aus.
Klicken Sie in der Liste auf das Dreipunkt-Menü more_vert für einen Test.
Klicken Sie auf Bearbeiten oder Löschen.
Status von Tests überwachen
Alle Tests finden unabhängig vom Status im Bereich "Tests".
Tests können vier verschiedene Status haben:
Entwurf: Der Test wurde erstellt, aber noch nicht ausgeführt.
Ausstehend: Der Test wurde kürzlich gestartet, es sind jedoch noch keine Ergebnisse verfügbar.
Wird ausgeführt: Der Test wird ausgeführt und Zwischenergebnisse sind verfügbar.
Abgeschlossen: Der Test wurde abgeschlossen, da er automatisch oder manuell beendet wurde.
Wählen Sie Ihr Projekt aus, um die Agent-Auswahl zu öffnen.
Wählen Sie den Agent aus, um den Agent-Builder zu öffnen.
Wählen Sie den Tab Verwalten.
Klicken Sie auf Tests, um das Steuerfeld "Tests" zu öffnen.
Wählen Sie den Tab Ergebnisse aus.
Wählen Sie eine Umgebung aus und testen Sie die Ergebnisse.
Grüne farbige Ergebnisse deuten auf ein gutes Ergebnis hin, rot hingegen auf ein weniger vorteilhaftes Ergebnis.
Beachten Sie, dass in einigen Fällen höhere/niedrigere Zahlen nicht unbedingt besser sind (hohe Ausstiegsrate / niedrige Ausstiegsrate).
[[["Leicht verständlich","easyToUnderstand","thumb-up"],["Mein Problem wurde gelöst","solvedMyProblem","thumb-up"],["Sonstiges","otherUp","thumb-up"]],[["Schwer verständlich","hardToUnderstand","thumb-down"],["Informationen oder Beispielcode falsch","incorrectInformationOrSampleCode","thumb-down"],["Benötigte Informationen/Beispiele nicht gefunden","missingTheInformationSamplesINeed","thumb-down"],["Problem mit der Übersetzung","translationIssue","thumb-down"],["Sonstiges","otherDown","thumb-down"]],["Zuletzt aktualisiert: 2025-08-18 (UTC)."],[[["\u003cp\u003eExperiments compare multiple flow versions (variants) against a control version to assess performance using live traffic.\u003c/p\u003e\n"],["\u003cp\u003eKey metrics monitored during experiments include session outcomes like containment, live agent handoff rate, callback rate, abandonment rate, session end rate, no-match count, and turn counts.\u003c/p\u003e\n"],["\u003cp\u003ePreparing for an experiment involves choosing a flow, creating multiple versions of it, and deciding how much traffic to allocate.\u003c/p\u003e\n"],["\u003cp\u003eExperiments can be started, stopped, edited, and deleted, with status indicators including Draft, Pending, Running, and Completed.\u003c/p\u003e\n"],["\u003cp\u003eExperiment results are displayed in green or red to represent favorable or unfavorable outcomes respectively, with a note that higher or lower values are not always better depending on the metric in question.\u003c/p\u003e\n"]]],[],null,["# Experiments are used to compare the performance\nof multiple flow versions (*variant* versions)\nto a *control* version (normally a production version) while handling live traffic.\nYou can allocate a portion of live traffic to each flow version\nand monitor the following metrics:\n\n- **Contained** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic) without triggering other metrics below. Only available to agents using a telephony integration.\n- **Live agent handoff rate** : Count of sessions [handed off to a live agent](/dialogflow/cx/docs/concept/fulfillment#handoff).\n- **Callback rate**: Count of sessions that were restarted by an end-user. Only available to agents using a telephony integration.\n- **Abandoned rate**: Count of sessions that were abandoned by an end-user. Only available to agents using a telephony integration.\n- **Session end rate** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic).\n- **Total no-match count** : Total count of occurrences of a [no-match event](/dialogflow/cx/docs/concept/handler#event-built-in).\n- **Total turn count**: Total number of conversational turns (one end-user input and one agent response is considered a turn).\n- **Average turn count**: Average number of turns.\n\nPreparation\n-----------\n\nTo prepare for an experiment:\n\n1. Decide which flow will be used for the experiment. You cannot run multiple experiments on a single flow, so ensure that you have partitioned your agent into multiple flows.\n2. Create multiple [versions](/dialogflow/cx/docs/concept/version) for your flow. The differences between each version could be small or large, depending on what you want to compare.\n3. Decide on the amount of traffic that will be allocated to your experiment. If you are testing minor changes, you might start with a higher amount of traffic. For large changes that may be disruptive, consider allocating a small amount of traffic to your experiment.\n\nCreate an experiment\n--------------------\n\nTo create an experiment:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Status** tab.\n7. Click **Create**.\n8. Enter a description.\n9. Select the [environment](/dialogflow/cx/docs/concept/version) that you want to run the experiment from.\n10. Select the flow for the experiment.\n11. Optionally enter the number of days in which the experiment will automatically stop.\n12. Enter the control flow version and the percentage of traffic that will go to the control version.\n13. Enter one to four variant flow versions, and the percentage of traffic that will go to the variant version.\n14. Optionally, click **Enable auto rollout and steps** for a gradual rollout of traffic to the variant flow. An automated experiment is based on *steps* , which are time durations in which a percentage of traffic is increased to the variant flow. Auto rollout only supports one variant flow.\n 1. Under **Rollout rules** , you can set one or more conditional rules to determine how the experiment should proceed through the steps.\n 1. If you select **Match at least one rule**, the experiment proceeds to the next step if at least one rule and the time duration for the current step are met.\n 2. If you select **Match all rules**, the experiment proceeds to the next step if all rules and the time duration for the current step are met.\n 3. If you select **Steps only**, the experiment proceeds according to the time durations for each step.\n 2. Under **Increase steps**, define a percentage of traffic to allocate to the variant flow and a time duration for each step. The default time duration for each step is 6 hours.\n 3. Select **Stop conditions** to set one or more conditions under which to stop sending traffic to the variant flow. Note that you cannot restart a stopped experiment.\n15. Click **Save**.\n\nStart and stop an experiment\n----------------------------\n\nYou can start a saved experiment\nor manually stop a running experiment at any time.\nStopping an experiment will cancel the traffic allocation\nand will revert traffic to its original state.\n| **Note:** If you stop an experiment while it is [pending](#monitor), results will not be available. If you stop an experiment while it is [running](#monitor), results might be inconclusive or missing.\n\nTo start or stop an experiment:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click **Start** or **Stop** for an experiment in the list.\n\nManage experiments\n------------------\n\n| **Note:** You can change variant traffic allocation while an experiment is running.\n\nYou can edit or delete experiments at any time:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click the option *more_vert* menu for an experiment in the list.\n4. Click **Edit** or **Delete**.\n\nMonitor status of experiments\n-----------------------------\n\nAll experiments, regardless of their status,\ncan be found on the experiments panel.\nExperiments can have four different statuses:\n\n- **Draft**: Experiment has been created, but it has never run.\n- **Pending**: Experiment has started recently, but results are not available yet.\n- **Running**: Experiment is running and interim results are available.\n- **Completed**: Experiment has been completed due to automatically or manually being stopped.\n\nViewing experiment results\n--------------------------\n\nTo see experiment results:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Results** tab.\n7. Select an environment and experiment to see the results.\n\nGreen colored results suggest a favorable outcome,\nwhile red suggests a less favorable result.\nNotice that in some cases,\nhigher/lower numbers are not necessarily better\n(high abandonment rate / low abandonment rate).\n| **Note:** You will see \"no experiment result\" if not enough conversations have been through each variant of the experiment.\n\nLimitations\n-----------\n\nThe following limitations apply:\n\n- The [Enable interaction logging](/dialogflow/cx/docs/concept/agent-settings#settings-general) agent setting must be enabled."]]