Scenari di test

Puoi utilizzare la funzionalità di test integrata per scoprire bug e prevenire le regressioni. Per testare l'agente, crei casi di test utilizzando il simulatore per definire i casi di test di riferimento, poi esegui i casi di test in base alle esigenze. L'esecuzione di un test verifica che le risposte dell'agente non siano cambiate per gli input dell'utente finale definiti nel caso di test.

Le istruzioni riportate di seguito mostrano come utilizzare la console, ma puoi trovare la stessa funzionalità anche nell'API.

Impostazioni del simulatore

Quando apri il simulatore per la prima volta, devi selezionare un ambiente agente o le versioni dei flussi e un flusso attivo. Nella maggior parte dei casi, devi utilizzare l'ambiente di bozza e il flusso di avvio predefinito.

Puoi anche attivare o disattivare le chiamate webhook in qualsiasi momento con il pulsante di attivazione/disattivazione del webhook. La disattivazione degli webhook è utile per definire i casi di test.

Input del simulatore

Quando interagisci con il simulatore, fornisci l'input utente finale come testo, quindi premi Invio o fai clic sul pulsante invia . Oltre al testo normale, puoi scegliere tipi di input alternativi con il selettore di input :

  • Parametro: inserisci un valore parametro. Puoi fornire nuovi parametri o valori preimpostati per i parametri esistenti.
  • Evento: invoca un evento.
  • DTMF: invia input di segnalazione multifrequenza a due toni (Touch-Tone) per le interazioni telefoniche.

Creare uno scenario di test

Per creare una conversazione:

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto.
  3. Seleziona il tuo agente.
  4. Fai clic su Agente di test per aprire il simulatore.
  5. Chatta con l'agente per creare una conversazione che copra la funzionalità che vuoi testare. Per ogni turno, verifica i valori corretti per l'intent attivato, la risposta dell'agente, la pagina attiva e i parametri della sessione.

Screenshot del simulatore.

Per salvare una conversazione come caso di test:

  1. Fai clic sul pulsante Salva.
  2. Inserisci un nome visualizzato per lo scenario di test. Ogni caso di test deve avere un nome visualizzato univoco.
  3. (Facoltativo) Specifica un nome per il tag. I tag ti aiutano a organizzare i casi di test. Tutti i tag devono iniziare con un "#".
  4. (Facoltativo) Fornisci una nota che descriva lo scopo del test case.
  5. Se vuoi, seleziona i parametri da monitorare nel caso di test. Viene fornito un elenco di parametri suggeriti. Puoi anche inserire altri parametri da monitorare. Se selezioni i parametri di monitoraggio, la verifica del parametro viene eseguita durante l'esecuzione del caso di test. Per ulteriori dettagli sull'affermazione del parametro, consulta la sezione Eseguire i casi di test.
  6. Fai clic su Salva per salvare il caso di test.

Esegui scenari di test

Per visualizzare tutti i casi di test per un agente, fai clic su Test case nella scheda Gestisci. La tabella dei casi di test mostra il nome del test, i tag, la data e l'ambiente di test più recenti e il risultato del test più recente.

Per eseguire gli scenari di test:

  1. Seleziona i casi di test da eseguire e fai clic su Esegui. In alternativa, puoi fare clic su Esegui tutti gli scenari di test.
  2. Seleziona l'ambiente in cui vuoi eseguire i casi di test.
  3. I test iniziano a essere eseguiti e puoi visualizzarne lo stato nella coda di attività. Il risultato del test verrà aggiornato al termine.

Per visualizzare il risultato dettagliato del test, fai clic sullo scenario di test. Il caso di test di riferimento e le conversazioni della run più recente vengono mostrate una accanto all'altra.

Screenshot del simulatore.

Puoi fare clic su qualsiasi turno di conversazione dell'agente per visualizzarne i dettagli. Il motore di test controlla i seguenti tipi di dati man mano che si svolgono i vari passaggi per valutare il risultato del test:

  • Dialogo con l'agente:

    Per ogni turno di conversazione, il dialogo dell'agente viene confrontato dall'esecuzione di riferimento a quella più recente. In caso di differenze, viene visualizzato un avviso. Queste differenze non impediscono il superamento di un test, perché il dialogo dell'agente varia spesso per lo stesso stato dell'agente.

  • Intention con corrispondenza:

    L'intenzione associata deve essere la stessa per ogni turno affinché un test venga superato.

  • Pagina corrente:

    Affinché un test venga superato, la pagina attiva deve essere la stessa per ogni turno.

  • Parametri sessione:

    Se hai aggiunto parametri di monitoraggio durante la creazione del caso di test, il motore di test controllerà i parametri di sessione corrispondenti e non supererà il test se sono presenti parametri mancanti/inaspettati o mancano corrispondenze valore parametro.

In alcuni casi, un caso di test potrebbe avere un errore previsto a causa di un agente aggiornato. Se la conversazione nell'ultima esecuzione riflette le modifiche previste, puoi fare clic su Salva come standard per sovrascrivere il caso di test standard.

Modificare gli scenari di test

Per modificare un caso di test, selezionalo dalla tabella Test case, quindi fai clic sull'icona di modifica accanto al nome del caso di test. Viene visualizzata la finestra di dialogo Aggiorna casi di test.

Per modificare i metadati e le impostazioni del caso di test, fai clic sulla scheda Impostazioni.

  1. Puoi modificare i campi Nome caso di test, Tag e Nota oppure aggiungere nuovi parametri di monitoraggio.

  2. Fai clic su Salva.

Per modificare l'input utente per il caso di test, fai clic sulla scheda Input utente.

  1. Aggiungi, rimuovi o modifica gli input utente in formato JSON.

  2. Fai clic su Conferma. Viene avviata una corsa di prova automatica e la conversazione aggiornata viene visualizzata al termine della corsa di prova.

  3. Fai clic su Salva per sovrascrivere il test case di riferimento originale oppure su Salva come per creare un nuovo test case con le modifiche.

Visualizza la copertura dei test

Per visualizzare un report sulla copertura dei test per tutti i casi di test, fai clic su Copertura.

La pagina Copertura include le seguenti schede:

  • La copertura delle transizioni viene determinata per tutti gli handler di stato (esclusi i gruppi di route) con una destinazione di transizione esercitata dal test case. Nella tabella sono elencati il flusso/la pagina di origine e il flusso/la pagina di destinazione della transizione.

  • La copertura degli intent viene determinata per tutti gli intent che corrispondono al caso di test.

  • La copertura dei gruppi di percorsi viene determinata per tutti i gruppi di percorsi corrispondenti al caso di test.

Importare ed esportare casi di test

Per esportare gli scenari di test:

  1. Seleziona i casi di test e fai clic su Esporta o su Esporta tutti i casi di test.
  2. Fai clic su Scarica in un file locale o fornisci un URI del bucket Cloud Storage e fai clic su Esporta in Google Cloud Storage.

Quando importi gli scenari di test, Agenti conversazionali (Dialogflow CX) crea sempre nuovi scenari di test per l'agente target e non sovrascrive quelli esistenti. Per importare gli scenari di test:

  1. Fai clic su Importa.
  2. Scegli un file locale o fornisci un URI del bucket Cloud Storage.