Le applicazioni spesso hanno bisogno di un bot per rispondere all'utente finale. Dialogflow può utilizzare Cloud Text-to-Speech basato su DeepMind WaveNet per generare risposte vocali dal tuo agente. Questa conversione delle risposte di testo degli intent in audio è nota come output audio, sintesi vocale, conversione del testo in voce o TTS.
Questa guida fornisce un esempio che utilizza l'audio sia per l'input sia per l'output durante il rilevamento di un intent. Questo caso d'uso è comune quando si sviluppano app che comunicano con gli utenti tramite un'interfaccia puramente audio.
Per un elenco delle lingue supportate, consulta la colonna TTS nella pagina Lingue.
Prima di iniziare
Questa funzionalità è applicabile solo quando si utilizza l'API per le interazioni con gli utenti finali. Se utilizzi un'integrazione, puoi saltare questa guida.
Prima di leggere questa guida, devi:
- Leggi Nozioni di base su Dialogflow.
- Esegui la procedura di configurazione.
Crea un agente
Se non hai ancora creato un agente, creane uno ora:
- Vai alla console Dialogflow ES.
- Se richiesto, accedi alla console Dialogflow. Per ulteriori informazioni, consulta la panoramica della console di Dialogflow.
- Fai clic su Crea agente nel menu della barra laterale a sinistra. Se hai già altri agenti, fai clic sul nome dell'agente, scorri verso il basso e fai clic su Crea nuovo agente.
- Inserisci il nome, la lingua predefinita e il fuso orario predefinito dell'agente.
- Se hai già creato un progetto, inseriscilo. Se vuoi consentire alla console Dialogflow di creare il progetto, seleziona Crea un nuovo progetto Google.
- Fai clic su pulsante Crea.
Importa il file di esempio nell'agente
I passaggi di questa guida si basano su ipotesi relative al tuo agente, quindi devi importare un agente preparato per questa guida. Durante l'importazione, questi passaggi utilizzano l'opzione Ripristina, che sovrascrive tutte le impostazioni, gli intent e le entità dell'agente.
Per importare il file:
-
Scarica il file
room-booking-agent.zip
. - Vai alla console Dialogflow ES.
- Seleziona il tuo agente.
- Fai clic sul pulsante Impostazioni settings accanto al nome dell'agente.
- Seleziona la scheda Esporta e importa.
- Seleziona Ripristina da ZIP e segui le istruzioni per ripristinare il file ZIP che hai scaricato.
Rilevare l'intento
Per rilevare l'intent, chiama il metodo detectIntent
sul tipo
Sessions
.
REST
1. Preparare i contenuti audio
Scarica il file
book-a-room.wav
di esempio input_audio,
che dice "prenota una stanza".
Per questo esempio, il file audio deve essere codificato in base64,
in modo da poter essere fornito nella richiesta JSON riportata di seguito.
Ecco un esempio per Linux:
wget https://cloud.google.com/dialogflow/es/docs/data/book-a-room.wav base64 -w 0 book-a-room.wav > book-a-room.b64
Per esempi su altre piattaforme, vedi Incorporare audio codificato in base64 nella documentazione dell'API Cloud Speech.
2. Invia una richiesta di rilevamento dell'intent
Chiama il metodo detectIntent
sul tipo
Sessions
e specifica l'audio codificato in base64.
Prima di utilizzare i dati della richiesta, apporta le seguenti sostituzioni:
- PROJECT_ID: l'ID del tuo progetto Google Cloud
- SESSION_ID: un ID sessione
- BASE64_AUDIO: il contenuto base64 del file di output precedente
Metodo HTTP e URL:
POST https://dialogflow.googleapis.com/v2/projects/PROJECT_ID/agent/sessions/SESSION_ID:detectIntent
Corpo JSON della richiesta:
{ "queryInput": { "audioConfig": { "languageCode": "en-US" } }, "outputAudioConfig" : { "audioEncoding": "OUTPUT_AUDIO_ENCODING_LINEAR_16" }, "inputAudio": "BASE64_AUDIO" }
Per inviare la richiesta, espandi una di queste opzioni:
Dovresti ricevere una risposta JSON simile alla seguente:
{ "responseId": "b7405848-2a3a-4e26-b9c6-c4cf9c9a22ee", "queryResult": { "queryText": "book a room", "speechRecognitionConfidence": 0.8616504, "action": "room.reservation", "parameters": { "time": "", "date": "", "duration": "", "guests": "", "location": "" }, "fulfillmentText": "I can help with that. Where would you like to reserve a room?", "fulfillmentMessages": [ { "text": { "text": [ "I can help with that. Where would you like to reserve a room?" ] } } ], "intent": { "name": "projects/PROJECT_ID/agent/intents/e8f6a63e-73da-4a1a-8bfc-857183f71228", "displayName": "room.reservation" }, "intentDetectionConfidence": 1, "diagnosticInfo": {}, "languageCode": "en-us" }, "outputAudio": "UklGRs6vAgBXQVZFZm10IBAAAAABAAEAwF0AAIC7AA..." }
Nota che il valore del campo queryResult.action
è room.reservation
,
e il campo outputAudio
contiene una lunga stringa audio Base64.
3. Riproduci audio di output
Copia il testo dal campo outputAudio
e salvalo in un file denominato output_audio.b64
.
Questo file deve essere convertito in audio.
Ecco un esempio per Linux:
base64 -d output_audio.b64 > output_audio.wav
Per esempi su altre piattaforme, vedi Decodifica del contenuto audio codificato in Base64 nella documentazione dell'API Text-to-Speech.
Ora puoi riprodurre il file audio output_audio.wav
e sentire che corrisponde al testo del campo queryResult.fulfillmentMessages[1].text.text[0]
sopra.
Viene scelto il secondo elemento fulfillmentMessages
,
perché è la risposta di testo per la piattaforma predefinita.
Java
Per eseguire l'autenticazione in Dialogflow, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Node.js
Per eseguire l'autenticazione in Dialogflow, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Python
Per eseguire l'autenticazione in Dialogflow, configura le Credenziali predefinite dell'applicazione. Per ulteriori informazioni, vedi Configura l'autenticazione per un ambiente di sviluppo locale.
Consulta la sezione Risposte di rilevamento dell'intent per una descrizione dei campi di risposta pertinenti.
Rilevare le risposte di intent
La risposta a una richiesta di rilevamento dell'intent è di tipo DetectIntentResponse
.
L'elaborazione normale del rilevamento dell'intent controlla i contenuti del campo DetectIntentResponse.queryResult.fulfillmentMessages
.
Il campo DetectIntentResponse.outputAudio
viene compilato con l'audio
in base ai valori delle risposte di testo della piattaforma predefinita
trovati nel campo DetectIntentResponse.queryResult.fulfillmentMessages
.
Se esistono più risposte di testo predefinite,
queste verranno concatenate durante la generazione dell'audio.
Se non esistono risposte di testo predefinite della piattaforma,
il contenuto audio generato sarà vuoto.
Il campo DetectIntentResponse.outputAudioConfig
viene compilato con le impostazioni audio utilizzate per generare l'audio di output.
Rilevare l'intent da uno stream
Quando rilevi l'intent da uno stream,
invii richieste simili all'esempio che non utilizza l'output audio:
Rilevamento dell'intent da uno stream.
Tuttavia, fornisci un campo
OutputAudioConfig
alla richiesta.
I campi output_audio
e output_audio_config
vengono compilati nell'ultima risposta in streaming che ricevi dal server API Dialogflow.
Per ulteriori informazioni, consulta
StreamingDetectIntentRequest
e
StreamingDetectIntentResponse.
Impostazioni dell'agente per la sintesi vocale
Puoi controllare vari aspetti della sintesi vocale. Consulta le impostazioni di sintesi vocale dell'agente.
Utilizzare il simulatore di Dialogflow
Puoi interagire con l'agente e ricevere risposte audio tramite il simulatore di Dialogflow:
- Segui i passaggi precedenti per attivare la sintesi vocale automatica.
- Digita o di' "prenota una stanza" nel simulatore.
- Consulta la sezione Audio di output nella parte inferiore del simulatore.