Gli agenti hanno molte impostazioni che influiscono sul comportamento. Ogni console fornisce impostazioni diverse.
Impostazioni dell'agente della console di Conversational Agents
Per accedere alle impostazioni dell'agente:
Console
- Apri la console degli agenti conversazionali.
- Scegli il tuo Google Cloud progetto.
- Seleziona il tuo agente.
- Fai clic sull'icona delle impostazioni nell'angolo in alto a destra.
- Aggiorna le impostazioni come preferisci.
- Fai clic su Salva.
API
Consulta i metodi get
e patch/update
per il tipo Agent
.
Seleziona un protocollo e una versione per il riferimento all'agente:
Protocollo | V3 | V3beta1 |
---|---|---|
REST | Risorsa agente | Risorsa agente |
RPC | Interfaccia dell'agente | Interfaccia dell'agente |
C++ | AgentsClient | Non disponibile |
C# | AgentsClient | Non disponibile |
Vai | AgentsClient | Non disponibile |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Non disponibile | Non disponibile |
Python | AgentsClient | AgentsClient |
Ruby | Non disponibile | Non disponibile |
Le sottosezioni seguenti descrivono le diverse categorie di impostazioni dell'agente.
Impostazioni generali
Per gli agenti sono disponibili le seguenti impostazioni generali:
-
Un nome leggibile per l'agente.
-
Il fuso orario predefinito per l'agente.
-
Questa impostazione determina se l'agente avvia la conversazione con un playbook generativo o un flusso deterministico.
-
La regione dell'agente selezionata durante la creazione dell'agente.
-
Bloccare l'agente
Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.
-
Abilitare Cloud Logging
Indica se Cloud Logging è abilitato per l'agente.
Attivare la cronologia delle conversazioni
Indica se vuoi che Google raccolga e memorizzi query degli utenti finali oscurate per il miglioramento della qualità.
Attivare l'oscuramento degli input degli utenti finali in base al consenso
Se questa impostazione è attivata, ti consente di utilizzare un parametro di sessione speciale per controllare se gli input e i parametri degli utenti finali vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro session è
true
. Se questa impostazione è disattivata, non viene applicata alcuna oscuratura.Il consenso degli utenti viene raccolto utilizzando un parametro di sessione booleano:
$session.params.conversation-redaction
. Se questa impostazione è attivata e il parametro sessione è impostato sufalse
, non viene applicata alcuna oscurazione (continueranno a essere applicate altre strategie di oscuramento). Se questa impostazione è attivata e il parametro sessione è impostato sutrue
, viene applicata l'oscuramento.Un esempio di flusso di richiesta del consenso potrebbe essere: prima chiedi all'utente se vuole conservare l'input dell'utente finale e associa la risposta a due intent, uno "intent di conferma" e l'altro "intent di rifiuto". Imposta quindi il parametro sessione su
false
(nessuna oscurazione) nei valori preimpostati dei parametri del percorso "intent yes" in Esecuzione e sutrue
(si verifica l'oscuramento) nel valore preimpostato del parametro del percorso "intent no".
-
Attivare BigQuery Export
Indica se la funzionalità BigQuery Export è attivata.
Set di dati BigQuery
Il nome del set di dati BigQuery.
Tabella BigQuery
Il nome della tabella BigQuery.
Suggerimenti per le intenzioni
Puoi attivare i suggerimenti di intent.
-
Puoi attivare questa impostazione per fornire un feedback sulla qualità delle risposte dell'agente, incluso il Mi piace/Non mi piace.
-
Utilizza questa impostazione per aggiungere un'integrazione Git.
Impostazioni di IA generativa
Sono disponibili le seguenti impostazioni di AI generativa:
Generale
Selezione del modello generativo
Seleziona il modello utilizzato dalle funzionalità generative. Per ulteriori informazioni, consulta le versioni del modello.
Limiti di token
-
Seleziona il limite di token di input per il modello generativo. Si tratta della dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni degli input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni di input del modello possono essere maggiori.
-
Seleziona il limite di token di output per il modello generativo. Si tratta della dimensione massima del token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'output del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.
-
-
La temperatura di un LLM ti consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.
-
L'impostazione elimina alcuni turni precedenti dal prompt dell'LLM per impedire che le dimensioni del prompt aumentino con ogni turno sequenziale gestito dall'agente. Questa funzionalità offre un modo per limitare la crescita indesiderata delle dimensioni del prompt.
Normalmente, senza troncamento, ogni turno successivo verrà aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare ad un aumento delle dimensioni del prompt con ogni passaggio. Poiché gran parte del prompt è occupata dalla cronologia della conversazione, è possibile utilizzarne meno per gli esempi con pochi esempi, che potrebbero quindi essere eliminati. Alla fine, la richiesta potrebbe anche violare i limiti attuali dei token. Puoi aumentare le dimensioni dei token per adattarti a questo, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza della risposta dell'LLM.
Il troncamento del contesto ti consente di impostare una percentuale massima del budget per i token da riservare alla cronologia delle conversazioni. I turni di conversazione vengono conservati nell'ordine dal più recente al meno recente. Questa impostazione può aiutarti a evitare il superamento dei limiti di token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, nell'ordine dal più recente al meno recente.
Devi prima impostare un limite di token prima di poter modificare questa impostazione.
L'eliminazione del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di turni eliminati. Valuta attentamente le interazioni con i playbook dopo aver attivato questa opzione.
Il budget di input dei token viene utilizzato anche da:
- Istruzioni e esempi di sistema: aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
- Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
- Esempi di playbook con pochi esempi: vengono aggiunti in ordine (per impostazione predefinita) o da un algoritmo scelto da te (ad esempio l'ordinamento per corrispondenza migliore con expression regolare). Gli esempi vengono selezionati in modo da rientrare nel budget per i token di input dopo l'inclusione di tutti gli altri elementi.
- Cronologia delle conversazioni composta da frasi di utenti e agenti, contesto di transizione di flussi e playbook, chiamate e output degli strumenti nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
-
Elenco di frasi vietate per l'IA generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, la generazione non andrà a buon fine. Tieni presente che l'elenco delle frasi vietate ha conseguenze su ogni query e chiamata LLM e aumenterà la latenza.
-
Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile. I contenuti verranno valutati in base alle seguenti quattro categorie:
Categoria Descrizione Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. Contenuti pericolosi Promuove o consente l'accesso a beni, servizi e/o attività dannosi Contenuti sessualmente espliciti Contiene riferimenti ad atti sessuali e/o altri contenuti osceni Molestie Commenti dannosi, intimidatori, prepotenti e/o illeciti rivolti a un altro individuo I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca alcuni, Blocca alcuni e Blocca la maggior parte per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.
Per saperne di più, consulta la sezione Configurare gli attributi di sicurezza.
-
Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un prompt LLM aggiuntivo che verifica se la query dell'utente è potenzialmente dannosa.
Generative Fallback
Configurazione del prompt di testo
Consulta Piano di riserva generativo: definisci il tuo prompt.
Datastore
Consulta Impostazioni dell'agente del datastore.
Flussi deterministici
Queste impostazioni si applicano a tutti i flussi di questo agente, tranne le impostazioni di ML che vengono applicate per flusso. Per modificare altre impostazioni specifiche del flusso, vai al flusso nella console e modifica le impostazioni.
Addestramento all'intenzione
Flows utilizza algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, associarli alle intenzioni ed estrarre dati strutturati. I flussi apprendono dalle frasi di addestramento che fornisci e dai modelli linguistici integrati nei flussi. In base a questi dati, viene creato un modello per prendere decisioni su quale intent deve essere associato all'input di un utente finale. Puoi applicare impostazioni ML univoche per ogni flusso di un agente.
Sono disponibili le seguenti impostazioni di addestramento dell'intenzione:
-
Se questa opzione è attivata e l'input dell'utente finale contiene un errore ortografico o grammaticale, un'intenzione verrà associata come se fosse scritta correttamente. La risposta al rilevamento dell'intenzione conterrà l'input dell'utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio una mela", viene elaborato come se avesse inserito "Voglio una mela". Questo vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.
La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).
Avvisi e best practice:
- La correzione ortografica non può correggere gli errori del riconoscimento vocale automatico (ASR), pertanto non è consigliabile attivarla per gli agenti che utilizzano input ASR.
- È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi con mancata corrispondenza comune agli esempi negativi.
- La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
- Se un agente è definito utilizzando un gergo specifico del dominio, le correzioni potrebbero non essere auspicabili.
Impostazioni ML specifiche per il flusso
-
Può essere uno dei seguenti:
- NLU avanzata (predefinita): tecnologia NLU avanzata. Questo tipo di NLU funziona meglio rispetto allo standard, in particolare per agenti e flussi di grandi dimensioni.
- NLU standard: tecnologia NLU standard. Non riceveranno più miglioramenti della qualità o nuove funzionalità.
-
Se attivata, la formazione del flusso viene eseguita ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, questo potrebbe causare ritardi nell'interfaccia utente della console, pertanto ti consigliamo di disattivare questa impostazione e di addestrare manualmente il modello in base alle esigenze per i flussi di grandi dimensioni.
-
Per filtrare i risultati falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi ottimizzare la soglia di classificazione del machine learning. Questa impostazione controlla l'affidabilità minima del rilevamento dell'intenzione richiesta per una corrispondenza all'intenzione.
Se il punteggio di confidenza per una corrispondenza dell'intento è inferiore al valore della soglia, verrà invocato un evento di mancata corrispondenza.
Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. Questo approccio è utile per supportare lingue diverse con un rendimento migliore a soglie di classificazione diverse. Per ulteriori informazioni sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.
-
Indica se il flusso è stato addestrato dall'ultimo aggiornamento ai dati del flusso.
-
Utilizza questo pulsante per addestrare manualmente il flusso.
-
-
Le lingue supportate dal tuo agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:
- Esporta l'agente in formato JSON.
- Estrai il file scaricato.
- Trova il file
agent.json
. - Aggiorna i campi
defaultLanguageCode
esupportedLanguageCodes
con i valori che preferisci. - Ripristina lo stesso agente o un agente diverso rispetto al passaggio 1.
- Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.
Puoi anche attivare il rilevamento automatico e il cambio di lingua.
-
Connettività
Modello di payload personalizzato
In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.
-
Indica chiaramente quali parametri dei parametri di sessione verranno inviati al webhook e quali parametri di sessione possono essere impostati dalla risposta del webhook.
Impostazioni dei certificati client
Utilizzato per caricare i certificati SSL.
Voce e IVR
Opzioni di sintesi vocale
-
-
Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.
Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione di voce personalizzata dal menu a discesa di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
sia stato concesso il ruolo "Predictore AutoML" nel tuo progetto vocale personalizzato. - Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare gli agenti conversazionali (Dialogflow CX) sia stato concesso il ruolo "Predictore AutoML" nel progetto vocale personalizzato.
- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
-
-
Attivare l'adattamento vocale automatico
Consulta Adattamento vocale automatico.
Attivare le impostazioni avanzate di Speech
Per informazioni dettagliate sulle opzioni di dettatura avanzate, consulta le guide sulle impostazioni avanzate di dettatura.
-
Per ulteriori informazioni, consulta DTMF per le integrazioni di telefonia.
Attivare l'adattamento vocale manuale
Consulta l'articolo sull'adattamento vocale manuale.
-
Compagno di chiamata
Vedi Assistente chiamate.
Impostazioni UI
Puoi utilizzare queste impostazioni per personalizzare le interfacce utente di Messenger e Call Companion.
Sicurezza
Consulta Impostazioni di sicurezza.
Impostazioni dell'agente della console Dialogflow CX
Per accedere alle impostazioni dell'agente:
Console
- Apri la console Dialogflow CX.
- Scegli il tuo Google Cloud progetto.
- Seleziona il tuo agente.
- Fai clic su Impostazioni agente.
- Aggiorna le impostazioni come preferisci.
- Fai clic su Salva.
API
Consulta i metodi get
e patch/update
per il tipo Agent
.
Seleziona un protocollo e una versione per il riferimento all'agente:
Protocollo | V3 | V3beta1 |
---|---|---|
REST | Risorsa agente | Risorsa agente |
RPC | Interfaccia dell'agente | Interfaccia dell'agente |
C++ | AgentsClient | Non disponibile |
C# | AgentsClient | Non disponibile |
Vai | AgentsClient | Non disponibile |
Java | AgentsClient | AgentsClient |
Node.js | AgentsClient | AgentsClient |
PHP | Non disponibile | Non disponibile |
Python | AgentsClient | AgentsClient |
Ruby | Non disponibile | Non disponibile |
Le sottosezioni seguenti descrivono le diverse categorie di impostazioni dell'agente.
Impostazioni generali
Per gli agenti sono disponibili le seguenti impostazioni generali:
Nome visualizzato
Un nome leggibile per l'agente.
Fuso orario
Il fuso orario predefinito per l'agente.
Lingua predefinita
La lingua predefinita supportata dall'agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:
- Esporta l'agente in formato JSON.
- Decomprimi il file scaricato.
- Trova il file
agent.json
. - Aggiorna i campi
defaultLanguageCode
esupportedLanguageCodes
con i valori che preferisci. - Ripristina lo stesso agente o un agente diverso rispetto al passaggio 1.
- Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.
Blocco agente
Bloccare l'agente
Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.
Impostazioni di logging
Abilitare Cloud Logging
Indica se Cloud Logging è abilitato per l'agente.
Attivare il logging delle interazioni
Indica se vuoi che Google raccolga e memorizzi query degli utenti finali oscurate per il miglioramento della qualità.
Attivare l'oscuramento degli input degli utenti finali in base al consenso
Se questa impostazione è attiva, ti consente di utilizzare un parametro di sessione speciale per controllare se gli input e i parametri degli utenti finali vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro di sessione è
true
. Se questa impostazione è disattivata, non viene applicata alcuna oscuratura.Il consenso degli utenti viene raccolto utilizzando un parametro di sessione booleano:
$session.params.conversation-redaction
. Se questa impostazione è attivata e il parametro sessione è impostato sufalse
, non viene applicata alcuna oscurazione (continueranno a essere applicate altre strategie di oscuramento). Se questa impostazione è attivata e il parametro sessione è impostato sutrue
, viene applicata l'oscuramento.Un esempio di flusso di richiesta del consenso potrebbe essere: prima chiedi all'utente se vuole conservare l'input dell'utente finale e associa la risposta a due intent, uno "intent di conferma" e l'altro "intent di rifiuto". Imposta quindi il parametro sessione su
false
(nessuna oscurazione) nei valori preimpostati dei parametri del percorso "intent yes" in Esecuzione e sutrue
(si verifica l'oscuramento) nel valore preimpostato del parametro del percorso "intent no".
BigQuery Export
Attivare BigQuery Export
Indica se la funzionalità BigQuery Export è attivata.
Set di dati BigQuery
Il nome del set di dati BigQuery.
Tabella BigQuery
Il nome della tabella BigQuery.
Suggerimenti di intent
Puoi attivare i suggerimenti di intent.
Modello di payload personalizzato
In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.
Impostazioni ML
Gli agenti di conversazione (Dialogflow CX) utilizzano algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, associarli agli intent ed estrarre dati strutturati. Conversational Agents (Dialogflow CX) apprende dalle frasi di addestramento che fornisci e dai modelli linguistici integrati in Conversational Agents (Dialogflow CX). In base a questi dati, viene creato un modello per prendere decisioni su quale intent deve essere associato all'input di un utente finale. Puoi applicare impostazioni di ML univoche per ogni flusso di un agente e il modello creato dagli agenti conversazionali (Dialogflow CX) è univoco per ogni flusso.
Sono disponibili le seguenti impostazioni di ML a livello di agente:
Consentire all'IA di correggere l'ortografia
Se questa opzione è attivata e l'input dell'utente finale contiene un errore ortografico o grammaticale, un'intenzione verrà associata come se fosse scritta correttamente. La risposta al rilevamento dell'intenzione conterrà l'input dell'utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio una mela", viene elaborato come se avesse inserito "Voglio una mela". Questo vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.
La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).
Avvisi e best practice:
- La correzione ortografica non può correggere gli errori del riconoscimento vocale automatico (ASR), pertanto non è consigliabile attivarla per gli agenti che utilizzano input ASR.
- È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi con mancata corrispondenza comune agli esempi negativi.
- La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
- Se un agente è definito utilizzando un gergo specifico del dominio, le correzioni potrebbero non essere auspicabili.
Sono disponibili le seguenti impostazioni ML specifiche per il flusso:
Tipo di NLU
Può trattarsi di uno dei seguenti:
- NLU avanzata (predefinita): tecnologia NLU avanzata. Questo tipo di NLU funziona meglio rispetto allo standard, in particolare per agenti e flussi di grandi dimensioni.
- NLU standard: tecnologia NLU standard. Non riceveranno più miglioramenti della qualità o nuove funzionalità.
Treno merci
Se attivata, la formazione del flusso viene eseguita ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, questo potrebbe causare ritardi nell'interfaccia utente della console, pertanto ti consigliamo di disattivare questa impostazione e di addestrare manualmente il modello in base alle esigenze per i flussi di grandi dimensioni.
Soglia di classificazione
Per filtrare i risultati falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi ottimizzare la soglia di classificazione del machine learning. Questa impostazione controlla l'affidabilità minima del rilevamento dell'intenzione richiesta per una corrispondenza all'intenzione.
Se il punteggio di confidenza per una corrispondenza dell'intento è inferiore al valore della soglia, verrà invocato un evento di mancata corrispondenza.
Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. Questo approccio è utile per supportare lingue diverse con un rendimento migliore a soglie di classificazione diverse. Per ulteriori informazioni sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.
Stato dell'addestramento
Indica se il flusso è stato addestrato dall'ultimo aggiornamento ai dati del flusso.
Addestrare l'NLU
Utilizza questo pulsante per addestrare manualmente il flusso.
Impostazioni di IA generativa
Sono disponibili le seguenti impostazioni di AI generativa:
Generale
Frasi vietate
Elenco di frasi vietate per l'IA generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, la generazione non andrà a buon fine.
Filtri di sicurezza
Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:
Categoria Descrizione Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca alcuni, Blocca alcuni e Blocca la maggior parte per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.
Per saperne di più, consulta la sezione Configurare gli attributi di sicurezza.
Sicurezza dei prompt
Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un prompt LLM aggiuntivo che verifica se la query dell'utente è potenzialmente dannosa.
Agente generativo
Selezione del modello generativo
Seleziona il modello utilizzato dalle funzionalità generative. Per ulteriori informazioni, consulta le versioni del modello.
Troncamento del contesto del playbook
La troncatura del contesto del playbook rimuove alcuni turni precedenti dal prompt del playbook per evitare che le dimensioni del prompt aumentino con ogni turno sequenziale gestito dal playbook. Questa funzionalità offre un modo per limitare la crescita indesiderata delle dimensioni del prompt.
Normalmente, senza troncamento, ogni turno successivo verrà aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare all'aumento delle dimensioni del prompt con ogni passaggio. Poiché gran parte del prompt è occupata dalla cronologia della conversazione, è possibile utilizzarne meno per gli esempi con pochi esempi, che potrebbero quindi essere eliminati. Alla fine, la richiesta potrebbe anche violare i limiti attuali dei token. Puoi aumentare le dimensioni dei token per adattarti a questo, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza della risposta dell'LLM.
Il troncamento del contesto del playbook ti consente di impostare una percentuale massima del budget per i token da riservare alla cronologia delle conversazioni. I turni di conversazione vengono conservati nell'ordine dal più recente al meno recente. Questa impostazione può aiutarti a evitare il superamento dei limiti di token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, nell'ordine dal più recente al meno recente.
Devi prima impostare un limite di token prima di poter modificare questa impostazione.
Importante: l'eliminazione del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di svolte eliminate. Valuta attentamente le interazioni con i playbook dopo aver attivato questa opzione.
Il budget di input dei token viene utilizzato anche da:
- Istruzioni e esempi di sistema: aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
- Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
- Esempi di playbook con pochi esempi: vengono aggiunti in ordine (per impostazione predefinita) o da un algoritmo scelto da te (ad esempio l'ordinamento per corrispondenza migliore con expression regolare). Gli esempi vengono selezionati in modo da rientrare nel budget per i token di input dopo l'inclusione di tutti gli altri elementi.
- Cronologia delle conversazioni composta da frasi di utenti e agenti, contesto di transizione di flussi e playbook, chiamate e output degli strumenti nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
Generative Fallback
Configurazione del prompt di testo
Consulta Piano di riserva generativo: definisci il tuo prompt.
Datastore
Consulta Impostazioni dell'agente del datastore.
Impostazioni di IVR e voce
Sono disponibili le seguenti impostazioni di sintesi vocale e IVR:
Text-to-Speech
Selezione della voce
Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.
Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione di voce personalizzata dal menu a discesa di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern:
projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME
.- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com
sia stato concesso il ruolo "Predictore AutoML" nel tuo progetto vocale personalizzato. - Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare gli agenti conversazionali (Dialogflow CX) sia stato concesso il ruolo "Predictore AutoML" nel progetto vocale personalizzato.
- Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow
Speech-to-Text
Attivare l'adattamento vocale automatico
Consulta Adattamento vocale automatico.
Impostazioni avanzate per il parlato
Per informazioni dettagliate sulle opzioni di dettatura avanzate, consulta le guide sulle impostazioni avanzate di dettatura.
DTMF
Per ulteriori informazioni, consulta DTMF per le integrazioni di telefonia.
Multimodale
Vedi Assistente chiamate.
Impostazioni di condivisione
Consulta Controllo dell'accesso.
Impostazioni delle lingue
Aggiungi un'altra lingua all'agente. Per l'elenco completo delle lingue, consulta il riferimento alle lingue.
Rilevamento automatico della lingua
Quando configuri il rilevamento automatico della lingua, l'agente di chat rileva automaticamente la lingua dell'utente finale e passa a quella lingua. Per maggiori dettagli, consulta la documentazione sul rilevamento automatico della lingua.
Impostazioni di sicurezza
Consulta Impostazioni di sicurezza.
Impostazioni avanzate
Al momento, l'unica impostazione avanzata riguarda l'analisi del sentiment.
Impostazioni della console di Agent Builder
Questa sezione descrive le impostazioni disponibili per le app agente.
Generale
Per le app agente sono disponibili le seguenti impostazioni generali:
Nome visualizzato
Un nome leggibile per l'app dell'agente.
Località
La regione dell'app agente.
Blocco app
Se è attivata, non sono consentite modifiche all'app agente.
Logging
Per le app agente sono disponibili le seguenti impostazioni di logging:
Abilitare Cloud Logging
Se abilitata, i log verranno inviati a Cloud Logging.
Attivare la cronologia delle conversazioni
Se è attivata, sarà disponibile la cronologia delle conversazioni. Indica se vuoi che Google raccolga e memorizzi le query degli utenti finali oscurate per migliorare la qualità. Questa impostazione non influisce sull'utilizzo della cronologia delle conversazioni per generare le risposte degli agenti.
Attivare BigQuery Export
Se questa opzione è attivata, la cronologia delle conversazioni viene esportata in BigQuery. Deve essere attivata anche l'impostazione Attiva la cronologia delle conversazioni.
GenAI
Per le app agente sono disponibili le seguenti impostazioni di IA generativa:
Selezione del modello generativo
Seleziona il modello generativo che gli agenti devono utilizzare per impostazione predefinita.
Limite di token di input
Seleziona il limite di token di input per il modello generativo. Si tratta della dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni degli input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni di input del modello possono essere maggiori.
Limite di token di output
Seleziona il limite di token di output per il modello generativo. Si tratta della dimensione massima del token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'output del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.
Temperatura
La temperatura di un LLM ti consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.
Frasi vietate
Elenco di frasi vietate per l'IA generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, l'agente restituirà una risposta di riserva.
Filtri di sicurezza
Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:
Categoria Descrizione Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti. Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca alcuni (blocca solo le istanze di contenuti dannosi con probabilità elevata), Blocca alcuni (istanze con probabilità media e alta) e Blocca la maggior parte (probabilità bassa, media e alta) per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.
Per saperne di più, consulta la sezione Configurare gli attributi di sicurezza.
Sicurezza dei prompt
Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di prompt injection. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un'altra richiesta LLM che verifica se la query dell'utente è potenzialmente dannosa.
Git
Queste impostazioni forniscono un'integrazione di Git. Segui le istruzioni per configurare l'integrazione.