Alguns produtos e recursos estão sendo renomeados. Os recursos de playbook generativo e de fluxo também estão sendo migrados para um único console consolidado. Confira os detalhes.
Mantenha tudo organizado com as coleções
Salve e categorize o conteúdo com base nas suas preferências.
Os experimentos são usados para comparar o desempenho
de várias versões de fluxo (versões variantes)
com uma versão de controle (normalmente uma versão de produção) durante o processamento de tráfego em tempo real.
Você pode alocar uma parte do tráfego ativo para cada versão do fluxo
e monitorar as seguintes métricas:
Contadas:
contagem de sessões que atingiram
END_SESSION
sem acionar outras métricas abaixo.
Disponível apenas para agentes que usam uma integração de telefonia.
Taxa de callback:
contagem de sessões que foram reiniciadas por um usuário final.
Disponível apenas para agentes que usam uma integração de telefonia.
Taxa abandonada:
contagem de sessões que foram abandonadas por um usuário final.
Disponível apenas para agentes que usam uma integração de telefonia.
Taxa de encerramento da sessão:
contagem de sessões que atingiram
END_SESSION.
Contagem total de ausência de correspondência:
contagem total de ocorrências de um
evento sem correspondência.
Contagem total de turnos:
número total de turnos de conversa
(uma entrada de usuário final e uma resposta do agente é considerada uma turno).
Contagem média de turnos:
o número médio de voltas.
preparação
Para se preparar para os experimentos, faça o seguinte:
Decida qual fluxo será usado para o experimento.
Não é possível executar vários experimentos em um único fluxo.
Por isso, particione o agente em vários fluxos.
Crie várias
versões
para seu fluxo.
As diferenças entre cada versão podem ser pequenas ou grandes,
dependendo do que você quer comparar.
Defina a quantidade de tráfego que será alocada ao seu experimento.
Se você estiver testando pequenas alterações,
poderá começar com uma quantidade maior de tráfego.
Para grandes alterações que podem ser prejudiciais, considere alocar uma pequena quantidade de tráfego para o experimento.
Selecione seu projeto para abrir o seletor de agentes.
Selecione o agente para abrir o builder.
Selecione a guia Manage.
Clique em Experimentos para abrir o painel "Experimentos".
Selecione a guia Status.
Clique em Criar.
Digite uma descrição.
Selecione o ambiente
em que você quer executar o experimento.
Selecione o fluxo do experimento.
Como alternativa, insira o número de
dias em que o experimento será interrompido automaticamente.
Insira a versão do fluxo de controle
e a porcentagem do tráfego que irá para a versão do controle.
Insira de uma a quatro versões do fluxo de variantes
e a porcentagem do tráfego que irá para a versão da variante.
Opcionalmente, clique em Ativar lançamento automático e etapas para um lançamento gradual do
tráfego para o fluxo de variantes. Um experimento automatizado é baseado em etapas,
que são durações de tempo em que uma porcentagem do tráfego é aumentada
para o fluxo da variante. O lançamento automático só é compatível com um fluxo de variantes.
Em Regras de lançamento, é possível definir uma ou mais regras
condicionais para determinar como o experimento continuará nas etapas.
Se você selecionar Corresponder a pelo menos uma regra, o experimento prosseguirá
para a próxima etapa se pelo menos uma regra e a duração da etapa
atual forem atendidas.
Se você selecionar Corresponder todas as regras, o experimento prosseguirá
para a próxima etapa se todas as regras e a duração da etapa atual
forem atendidas.
Se você selecionar Somente etapas, o experimento continuará de acordo com a
duração de cada etapa.
Em Aumentar etapas, defina uma porcentagem de tráfego
para alocar ao fluxo de variantes e uma duração de tempo para cada etapa. A duração
padrão de cada etapa é de seis horas.
Selecione Condições de parada para definir uma ou mais condições
em que o tráfego será interrompido para o fluxo de variantes. Não é possível
reiniciar um experimento interrompido.
Clique em Save.
Iniciar e interromper um experimento
Você pode iniciar um experimento
salvo ou interromper manualmente um experimento em execução a qualquer momento.
Interromper um experimento cancelará a alocação de tráfego e
reverterá o tráfego para o estado original.
Para iniciar ou interromper um experimento, siga estas etapas:
Abra o painel "Experimentos".
Selecione a guia Status.
Clique em Iniciar ou Interromper para um experimento na lista.
Gerenciar experimentos
Você pode editar ou excluir experimentos a qualquer momento:
Abra o painel "Experimentos".
Selecione a guia Status.
Clique no menu de opções
more_vert
para ver um experimento na lista.
Clique em Editar ou Excluir.
Monitorar o status de experimentos
Todos os experimentos, independentemente do status,
podem ser encontrados no painel de experimentos.
Os experimentos podem ter quatro status diferentes:
Rascunho:
o experimento foi criado, mas nunca foi executado.
Pendente:
o experimento começou recentemente, mas os resultados ainda não estão disponíveis.
Em execução:
o experimento está em execução, e os resultados temporários estão disponíveis.
Concluído:
o experimento foi concluído devido à interrupção automática ou manual.
Selecione seu projeto para abrir o seletor de agentes.
Selecione o agente para abrir o builder.
Selecione a guia Manage.
Clique em Experimentos para abrir o painel "Experimentos".
Selecione a guia Resultados.
Selecione um ambiente e faça testes para ver os resultados.
Resultados de cor verde sugerem um resultado favorável,
enquanto o vermelho sugere um resultado menos favorável.
Em alguns casos,
os números mais altos/mais baixos não são necessariamente melhores
(taxa de abandono alta/taxa de abandono baixa).
[[["Fácil de entender","easyToUnderstand","thumb-up"],["Meu problema foi resolvido","solvedMyProblem","thumb-up"],["Outro","otherUp","thumb-up"]],[["Difícil de entender","hardToUnderstand","thumb-down"],["Informações incorretas ou exemplo de código","incorrectInformationOrSampleCode","thumb-down"],["Não contém as informações/amostras de que eu preciso","missingTheInformationSamplesINeed","thumb-down"],["Problema na tradução","translationIssue","thumb-down"],["Outro","otherDown","thumb-down"]],["Última atualização 2025-08-18 UTC."],[[["\u003cp\u003eExperiments compare multiple flow versions (variants) against a control version to assess performance using live traffic.\u003c/p\u003e\n"],["\u003cp\u003eKey metrics monitored during experiments include session outcomes like containment, live agent handoff rate, callback rate, abandonment rate, session end rate, no-match count, and turn counts.\u003c/p\u003e\n"],["\u003cp\u003ePreparing for an experiment involves choosing a flow, creating multiple versions of it, and deciding how much traffic to allocate.\u003c/p\u003e\n"],["\u003cp\u003eExperiments can be started, stopped, edited, and deleted, with status indicators including Draft, Pending, Running, and Completed.\u003c/p\u003e\n"],["\u003cp\u003eExperiment results are displayed in green or red to represent favorable or unfavorable outcomes respectively, with a note that higher or lower values are not always better depending on the metric in question.\u003c/p\u003e\n"]]],[],null,["# Experiments are used to compare the performance\nof multiple flow versions (*variant* versions)\nto a *control* version (normally a production version) while handling live traffic.\nYou can allocate a portion of live traffic to each flow version\nand monitor the following metrics:\n\n- **Contained** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic) without triggering other metrics below. Only available to agents using a telephony integration.\n- **Live agent handoff rate** : Count of sessions [handed off to a live agent](/dialogflow/cx/docs/concept/fulfillment#handoff).\n- **Callback rate**: Count of sessions that were restarted by an end-user. Only available to agents using a telephony integration.\n- **Abandoned rate**: Count of sessions that were abandoned by an end-user. Only available to agents using a telephony integration.\n- **Session end rate** : Count of sessions that reached [END_SESSION](https://cloud.google.com/dialogflow/cx/docs/concept/handler#symbolic).\n- **Total no-match count** : Total count of occurrences of a [no-match event](/dialogflow/cx/docs/concept/handler#event-built-in).\n- **Total turn count**: Total number of conversational turns (one end-user input and one agent response is considered a turn).\n- **Average turn count**: Average number of turns.\n\nPreparation\n-----------\n\nTo prepare for an experiment:\n\n1. Decide which flow will be used for the experiment. You cannot run multiple experiments on a single flow, so ensure that you have partitioned your agent into multiple flows.\n2. Create multiple [versions](/dialogflow/cx/docs/concept/version) for your flow. The differences between each version could be small or large, depending on what you want to compare.\n3. Decide on the amount of traffic that will be allocated to your experiment. If you are testing minor changes, you might start with a higher amount of traffic. For large changes that may be disruptive, consider allocating a small amount of traffic to your experiment.\n\nCreate an experiment\n--------------------\n\nTo create an experiment:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Status** tab.\n7. Click **Create**.\n8. Enter a description.\n9. Select the [environment](/dialogflow/cx/docs/concept/version) that you want to run the experiment from.\n10. Select the flow for the experiment.\n11. Optionally enter the number of days in which the experiment will automatically stop.\n12. Enter the control flow version and the percentage of traffic that will go to the control version.\n13. Enter one to four variant flow versions, and the percentage of traffic that will go to the variant version.\n14. Optionally, click **Enable auto rollout and steps** for a gradual rollout of traffic to the variant flow. An automated experiment is based on *steps* , which are time durations in which a percentage of traffic is increased to the variant flow. Auto rollout only supports one variant flow.\n 1. Under **Rollout rules** , you can set one or more conditional rules to determine how the experiment should proceed through the steps.\n 1. If you select **Match at least one rule**, the experiment proceeds to the next step if at least one rule and the time duration for the current step are met.\n 2. If you select **Match all rules**, the experiment proceeds to the next step if all rules and the time duration for the current step are met.\n 3. If you select **Steps only**, the experiment proceeds according to the time durations for each step.\n 2. Under **Increase steps**, define a percentage of traffic to allocate to the variant flow and a time duration for each step. The default time duration for each step is 6 hours.\n 3. Select **Stop conditions** to set one or more conditions under which to stop sending traffic to the variant flow. Note that you cannot restart a stopped experiment.\n15. Click **Save**.\n\nStart and stop an experiment\n----------------------------\n\nYou can start a saved experiment\nor manually stop a running experiment at any time.\nStopping an experiment will cancel the traffic allocation\nand will revert traffic to its original state.\n| **Note:** If you stop an experiment while it is [pending](#monitor), results will not be available. If you stop an experiment while it is [running](#monitor), results might be inconclusive or missing.\n\nTo start or stop an experiment:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click **Start** or **Stop** for an experiment in the list.\n\nManage experiments\n------------------\n\n| **Note:** You can change variant traffic allocation while an experiment is running.\n\nYou can edit or delete experiments at any time:\n\n1. Open the Experiments panel.\n2. Select the **Status** tab.\n3. Click the option *more_vert* menu for an experiment in the list.\n4. Click **Edit** or **Delete**.\n\nMonitor status of experiments\n-----------------------------\n\nAll experiments, regardless of their status,\ncan be found on the experiments panel.\nExperiments can have four different statuses:\n\n- **Draft**: Experiment has been created, but it has never run.\n- **Pending**: Experiment has started recently, but results are not available yet.\n- **Running**: Experiment is running and interim results are available.\n- **Completed**: Experiment has been completed due to automatically or manually being stopped.\n\nViewing experiment results\n--------------------------\n\nTo see experiment results:\n\n1. Open the [Dialogflow CX console](https://dialogflow.cloud.google.com/cx/projects).\n2. Select your project to open the agent selector.\n3. Select your agent to open the agent builder.\n4. Select the **Manage** tab.\n5. Click **Experiments** to open the Experiments panel.\n6. Select the **Results** tab.\n7. Select an environment and experiment to see the results.\n\nGreen colored results suggest a favorable outcome,\nwhile red suggests a less favorable result.\nNotice that in some cases,\nhigher/lower numbers are not necessarily better\n(high abandonment rate / low abandonment rate).\n| **Note:** You will see \"no experiment result\" if not enough conversations have been through each variant of the experiment.\n\nLimitations\n-----------\n\nThe following limitations apply:\n\n- The [Enable interaction logging](/dialogflow/cx/docs/concept/agent-settings#settings-general) agent setting must be enabled."]]