Impostazioni dell'agente

Gli agenti hanno molte impostazioni che influiscono sul comportamento. Ogni console fornisce impostazioni diverse.

Impostazioni dell'agente della console Dialogflow CX

Per accedere alle impostazioni dell'agente:

Console

  1. Apri la console Dialogflow CX.
  2. Scegli il tuo progetto Google Cloud.
  3. Seleziona il tuo agente.
  4. Fai clic su Impostazioni agente.
  5. Aggiorna le impostazioni come preferisci.
  6. Fai clic su Salva.

API

Consulta i metodi get e patch/update per il tipo Agent.

Seleziona un protocollo e una versione per il riferimento all'agente:

Protocollo V3 V3beta1
REST Risorsa agente Risorsa agente
RPC Interfaccia dell'agente Interfaccia dell'agente
C++ AgentsClient Non disponibile
C# AgentsClient Non disponibile
Vai AgentsClient Non disponibile
Java AgentsClient AgentsClient
Node.js AgentsClient AgentsClient
PHP Non disponibile Non disponibile
Python AgentsClient AgentsClient
Ruby Non disponibile Non disponibile

Le sottosezioni seguenti descrivono le diverse categorie di impostazioni dell'agente.

Impostazioni generali

Per gli agenti sono disponibili le seguenti impostazioni generali:

  • Nome visualizzato

    Un nome leggibile per l'agente.

  • Fuso orario

    Il fuso orario predefinito per l'agente.

  • Lingua predefinita

    La lingua predefinita supportata dall'agente. Una volta creato un agente, la lingua predefinita non può essere modificata. Tuttavia, puoi eseguire le seguenti operazioni:

    1. Esporta l'agente in formato JSON.
    2. Decomprimi il file scaricato.
    3. Trova il file agent.json.
    4. Aggiorna i campi defaultLanguageCode e supportedLanguageCodes con i valori che preferisci.
    5. Ripristina l'agente allo stesso agente o a un agente diverso dal passaggio 1.
    6. Aggiorna le frasi di addestramento e i valori delle entità specifici per la lingua in base alle esigenze.
  • Blocco agente

    • Bloccare l'agente

      Indica se l'agente è bloccato. Un agente bloccato non può essere modificato.

  • Impostazioni di logging

    • Abilitare Cloud Logging

      Indica se Cloud Logging è abilitato per l'agente.

    • Attivare il logging delle interazioni

      Indica se vuoi che Google raccolga e memorizzi query degli utenti finali oscurate per il miglioramento della qualità.

    • Attivare l'oscuramento degli input utente finali in base al consenso

      Se questa impostazione è attiva, ti consente di utilizzare un parametro di sessione speciale per controllare se gli input e i parametri degli utenti finali vengono oscurati dalla cronologia delle conversazioni e da Cloud Logging. Per impostazione predefinita, il parametro di sessione è true. Se questa impostazione è disattivata, non viene applicata alcuna oscuratura.

      Il consenso dell'utente viene raccolto utilizzando un parametro di sessione booleano: $session.params.conversation-redaction. Se questa impostazione è attivata e il parametro sessione è impostato su false, non viene applicata alcuna oscurazione (continueranno a essere applicate altre strategie di oscuramento). Se questa impostazione è attivata e il parametro sessione è impostato su true, viene applicata l'oscuramento.

      Un esempio di flusso di richiesta del consenso potrebbe essere: prima chiedi all'utente se vuole conservare l'input utente dell'utente finale e associa la risposta a due intent, uno "intent di conferma" e l'altro "intent di rifiuto". Imposta quindi il parametro sessione su false (nessuna oscurazione) nei valori preimpostati dei parametri del percorso "intent yes" in Esecuzione e su true (si verifica l'oscuramento) nel valore preimpostato del parametro del percorso "intent no".

  • BigQuery Export

    • Attivare BigQuery Export

      Indica se la funzionalità BigQuery Export è attivata.

    • Set di dati BigQuery

      Il nome del set di dati BigQuery.

    • Tabella BigQuery

      Il nome della tabella BigQuery.

  • Suggerimenti per le intenzioni

    Puoi attivare i suggerimenti di intent.

  • Modello di payload personalizzato

    In questa sezione puoi creare descrizioni e payload per i modelli di payload personalizzati.

Impostazioni ML

Gli agenti di conversazione (Dialogflow CX) utilizzano algoritmi di machine learning (ML) per comprendere gli input degli utenti finali, associarli agli intent ed estrarre dati strutturati. Conversational Agents (Dialogflow CX) apprende dalle frasi di addestramento che fornisci e dai modelli linguistici integrati in Conversational Agents (Dialogflow CX). In base a questi dati, viene creato un modello per prendere decisioni su quale intent deve essere associato all'input di un utente finale. Puoi applicare impostazioni di ML univoche per ogni flusso di un agente e il modello creato dagli agenti conversazionali (Dialogflow CX) è univoco per ogni flusso.

Sono disponibili le seguenti impostazioni di ML a livello di agente:

  • Consentire all'IA di correggere l'ortografia

    Se questa opzione è attivata e l'input utente finale contiene un errore ortografico o grammaticale, un'intenzione verrà associata come se fosse scritta correttamente. La risposta al rilevamento dell'intenzione conterrà l'input utente finale corretto. Ad esempio, se un utente finale inserisce "Voglio una mela", la richiesta verrà elaborata come se l'utente finale avesse inserito "Voglio una mela". Questo vale anche per le corrispondenze che coinvolgono entità di sistema e personalizzate.

    La correzione ortografica è disponibile in inglese, francese, tedesco, spagnolo e italiano. È disponibile in tutte le regioni di Conversational Agents (Dialogflow CX).

    Avvisi e best practice:

    • La correzione ortografica non può correggere gli errori del riconoscimento vocale automatico (ASR), pertanto non è consigliabile attivarla per gli agenti che utilizzano input ASR.
    • È possibile che l'input corretto corrisponda all'intent sbagliato. Puoi risolvere il problema aggiungendo frasi con mancata corrispondenza comune agli esempi negativi.
    • La correzione ortografica aumenta leggermente il tempo di risposta dell'agente.
    • Se un agente è definito utilizzando un gergo specifico del dominio, le correzioni potrebbero non essere auspicabili.

Sono disponibili le seguenti impostazioni ML specifiche per il flusso:

  • Tipo di NLU

    Può trattarsi di uno dei seguenti:

  • Treno automatico

    Se attivata, la formazione del flusso viene eseguita ogni volta che viene aggiornato con la console. Per i flussi di grandi dimensioni, questo potrebbe causare ritardi nell'interfaccia utente della console, pertanto ti consigliamo di disattivare questa impostazione e di addestrare manualmente in base alle esigenze per i flussi di grandi dimensioni.

  • Soglia di classificazione

    Per filtrare i risultati falsi positivi e ottenere comunque una varietà di input in linguaggio naturale corrispondenti per l'agente, puoi ottimizzare la soglia di classificazione del machine learning. Questa impostazione controlla l'affidabilità minima del rilevamento dell'intenzione richiesta per una corrispondenza all'intenzione.

    Se il punteggio di confidenza per una corrispondenza dell'intento è inferiore al valore della soglia, verrà invocato un evento di mancata corrispondenza.

    Puoi impostare un valore di soglia di classificazione separato per ogni flusso in ogni lingua abilitata per l'agente. Questo approccio è utile per supportare lingue diverse con un rendimento migliore a soglie di classificazione diverse. Per ulteriori informazioni sulla creazione di un agente multilingue, consulta la documentazione sugli agenti multilingue.

  • Stato della formazione

    Indica se il flusso è stato addestrato dall'ultimo aggiornamento ai dati del flusso.

  • Addestrare l'NLU

    Utilizza questo pulsante per addestrare manualmente il flusso.

Impostazioni di IA generativa

Sono disponibili le seguenti impostazioni di AI generativa:

  • Generale

    • Frasi vietate

      Elenco di frasi vietate per l'AI generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, la generazione non andrà a buon fine.

    • Filtri di sicurezza

      Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:

      Categoria Descrizione
      Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti.
      Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi
      Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni
      Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo

      I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca alcuni, Blocca alcuni e Blocca la maggior parte per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.

      Per saperne di più, consulta Configurare gli attributi di sicurezza.

    • Prompt di sicurezza

      Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di inserimento di prompt. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un'altra richiesta LLM che verifica se la query dell'utente è potenzialmente dannosa.

  • Agente generativo

    • Selezione del modello generativo

      Seleziona il modello utilizzato dalle funzionalità generative. Per ulteriori informazioni, consulta le versioni del modello.

    • Troncamento del contesto del playbook

      La troncatura del contesto del playbook rimuove alcuni turni precedenti dal prompt del playbook per evitare che le dimensioni del prompt aumentino con ogni turno sequenziale gestito dal playbook. Questa funzionalità offre un modo per limitare la crescita indesiderata delle dimensioni del prompt.

      Normalmente, senza troncamento, ogni turno successivo verrà aggiunto alla "cronologia della conversazione" del prompt LLM, indipendentemente dal fatto che sia pertinente al turno corrente. Ciò può portare all'aumento delle dimensioni del prompt con ogni svolta. Poiché gran parte del prompt è occupata dalla cronologia della conversazione, è possibile utilizzarne meno per gli esempi con pochi esempi, che potrebbero quindi essere eliminati. Alla fine, la richiesta potrebbe anche violare i limiti attuali dei token. Puoi aumentare le dimensioni dei token per adattarti a questo, ma tieni presente che l'aumento delle dimensioni dei prompt contribuisce anche alla latenza della risposta dell'LLM.

      Il troncamento del contesto del playbook ti consente di impostare una percentuale massima del budget per i token da riservare alla cronologia delle conversazioni. I turni di conversazione vengono conservati nell'ordine dal più recente al meno recente. Questa impostazione può aiutarti a evitare il superamento dei limiti di token. Indipendentemente dall'impostazione scelta, vengono conservati almeno due turni di conversazione, dall'ordine più recente a quello meno recente.

      Devi prima impostare un limite di token prima di poter modificare questa impostazione.

      Importante: l'eliminazione del contesto potrebbe causare la perdita involontaria di alcuni parametri se fanno parte di turni eliminati. Valuta attentamente le interazioni con i playbook dopo aver attivato questa opzione.

      Il budget di input dei token viene utilizzato anche da:

      • Istruzioni e esempi di sistema: aggiunti automaticamente al prompt. Questo comportamento non può essere modificato.
      • Istruzioni e obiettivi del playbook: tutte le istruzioni e gli obiettivi che scrivi verranno aggiunti al prompt nella loro interezza.
      • Esempi di playbook con pochi esempi: vengono aggiunti in ordine (per impostazione predefinita) o da un algoritmo scelto da te (ad esempio l'ordinamento per corrispondenza migliore dell'espressione regolare). Gli esempi vengono selezionati in modo da rientrare nel budget per i token di input dopo l'inclusione di tutti gli altri elementi.
      • Cronologia della conversazione composta da frasi di utenti e agenti, contesto di transizione di flussi e playbook, chiamate e output degli strumenti nella stessa sessione di tutti i turni precedenti gestiti in sequenza dal playbook corrente.
  • Generative Fallback

  • Datastore

    Consulta Impostazioni dell'agente del datastore.

Impostazioni di IVR e voce

Sono disponibili le seguenti impostazioni di sintesi vocale e IVR:

  • Text-to-Speech

    • Selezione della voce

      Puoi selezionare la lingua e la voce utilizzate per la sintesi vocale.

      Puoi attivare la voce personalizzata per il tuo agente selezionando l'opzione di voce personalizzata dal menu a discesa di selezione della voce e specificando il nome della voce personalizzata nel campo corrispondente. Il nome della voce personalizzata deve seguire il seguente pattern: projects/PROJECT_ID/locations/LOCATION/models/MODEL_NAME.

      • Se utilizzi un gateway di telefonia, assicurati che all'account di servizio Agente di servizio Dialogflow service-PROJECT_NUMBER@gcp-sa-dialogflow.iam.gserviceaccount.com sia stato concesso il ruolo "Predictore AutoML" nel tuo progetto vocale personalizzato.
      • Per le chiamate API regolari, assicurati che all'account di servizio utilizzato per chiamare gli agenti conversazionali (Dialogflow CX) sia stato concesso il ruolo "Predictore AutoML" nel progetto vocale personalizzato.
  • Speech-to-Text

DTMF

Per ulteriori informazioni, consulta DTMF per le integrazioni di telefonia.

Multimodale

Vedi Assistente chiamate.

Impostazioni di condivisione

Consulta Controllo dell'accesso.

Impostazioni delle lingue

Aggiungi un'altra lingua supportata all'agente. Per l'elenco completo delle lingue, consulta il riferimento alle lingue.

Rilevamento automatico della lingua

Quando configuri il rilevamento automatico della lingua, l'agente di chat rileva automaticamente la lingua dell'utente finale e passa a quella lingua. Per maggiori dettagli, consulta la documentazione sul rilevamento automatico della lingua.

Impostazioni di sicurezza

Consulta Impostazioni di sicurezza.

Impostazioni avanzate

Al momento, l'unica impostazione avanzata riguarda l'analisi del sentiment.

Impostazioni della console di Agent Builder

Questa sezione descrive le impostazioni disponibili per le app agente.

Generale

Per le app agente sono disponibili le seguenti impostazioni generali:

  • Nome visualizzato

    Un nome leggibile per l'app dell'agente.

  • Località

    La regione dell'app agente.

  • Blocco app

    Se è attivata, non sono consentite modifiche all'app agente.

Logging

Per le app agente sono disponibili le seguenti impostazioni di logging:

  • Abilita Cloud Logging

    Se abilitata, i log verranno inviati a Cloud Logging.

  • Attivare la cronologia conversazioni

    Se è attivata, sarà disponibile la cronologia delle conversazioni. Indica se vuoi che Google raccolga e memorizzi le query degli utenti finali oscurate per migliorare la qualità. Questa impostazione non influisce sull'utilizzo della cronologia delle conversazioni per generare le risposte degli agenti.

  • Attiva BigQuery Export

    Se questa opzione è attivata, la cronologia delle conversazioni viene esportata in BigQuery. Deve essere attivata anche l'impostazione Attiva cronologia conversazioni.

GenAI

Per le app agente sono disponibili le seguenti impostazioni di AI generativa:

  • Selezione del modello generativo

    Seleziona il modello generativo che gli agenti devono utilizzare per impostazione predefinita.

  • Limite di token di input

    Seleziona il limite di token di input per il modello generativo. Si tratta della dimensione massima del token per l'input inviato al modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni degli input del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni di input del modello possono essere maggiori.

  • Limite di token di output

    Seleziona il limite di token di output per il modello generativo. Si tratta della dimensione massima del token per l'output ricevuto dal modello. A seconda del modello, un token può essere compreso tra un carattere e una parola. I limiti di token più piccoli hanno una latenza inferiore, ma le dimensioni dell'output del modello sono limitate. I limiti di token più elevati hanno una latenza maggiore, ma le dimensioni dell'output del modello possono essere maggiori.

  • Temperatura

    La temperatura di un LLM ti consente di controllare il livello di creatività delle risposte. Un valore basso fornisce risposte più prevedibili. Un valore elevato fornisce risposte più creative o casuali.

  • Frasi vietate

    Elenco di frasi vietate per l'AI generativa. Se nel prompt o nella risposta generata viene visualizzata una frase vietata, l'agente restituirà una risposta di riserva.

  • Filtri di sicurezza

    Configura i livelli di sensibilità dei filtri di sicurezza in base alle diverse categorie di AI responsabile (RAI). I contenuti verranno valutati in base alle seguenti quattro categorie:

    Categoria Descrizione
    Incitamento all'odio Commenti negativi o dannosi rivolti all'identità e/o agli attributi protetti.
    Contenuti pericolosi Promuovono o consentono l'accesso a beni, servizi e attività dannosi
    Contenuti sessualmente espliciti Riferimenti ad atti sessuali o ad altri contenuti osceni
    Molestie Commenti dannosi, intimidatori, prepotenti o illeciti rivolti a un altro individuo

    I contenuti vengono bloccati in base alla probabilità di essere dannosi. Il livello di sensibilità può essere personalizzato scegliendo tra Blocca pochi (blocca solo le istanze di contenuti dannosi con probabilità elevata), Blocca alcuni (istanze con probabilità media e alta) e Blocca la maggior parte (probabilità bassa, media e alta) per ogni categoria. Puoi anche accedere all'opzione limitata Nessun blocco che disattiva i controlli RAI per la categoria dopo aver inviato una richiesta di conferma del rischio per il tuo progetto e aver ricevuto l'approvazione.

    Per saperne di più, consulta Configurare gli attributi di sicurezza.

  • Prompt di sicurezza

    Puoi controllare l'impostazione Attiva controllo di sicurezza rapido per attivare i controlli di sicurezza rapidi. Se abilitato, l'agente tenterà di impedire gli attacchi di inserimento di prompt. Questi attacchi possono essere utilizzati per rivelare parti del prompt dell'agente o per fornire risposte che l'agente non dovrebbe fornire. Ciò viene ottenuto inviando un'altra richiesta LLM che verifica se la query dell'utente è potenzialmente dannosa.

Git

Queste impostazioni forniscono un'integrazione di Git. Segui le istruzioni per configurare l'integrazione.